Skip to main content

Generative AI for Executives


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Generative AI for Executives

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

In diesem Kurs lernen Sie, wie Sie generative künstliche Intelligenz (KI) in Ihrem Unternehmen einsetzen können. Wir zeigen, wie Sie, mit generativer KI, Geschäftswert schaffen, welche Anwendungsfälle es in verschiedenen Branchen gibt und worauf Sie achten müssen, um generative KI sicher und verantwortungsvoll zu implementieren. Ziel des Kurses ist es, Ihnen die grundlegenden Konzepte und Werkzeuge zu vermitteln, die Sie benötigen, um generative KI-Initiativen erfolgreich in Ihrem Unternehmen zu leiten.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Den potenziellen Geschäftswert von generativer KI zu erkennen 

  • Reale Anwendungsfälle zu identifizieren, die Sie direkt umsetzen können 

  • Die notwendigen Veränderungen bei Mitarbeitern, Prozessen und Technologien zu managen 

  • Generative KI sicher und verantwortungsvoll zu nutzen 

  • Konkrete Schritte zu identifizieren, um mit generativer KI zu beginnen 

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Geschäftsführer und Führungskräfte

VORAUSSETZUNGEN

  • Keine

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Präsentationen
  • Gruppenarbeiten

KURSDAUER / PREIS

  • 0,5 Tage
  • € 395,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

Modul 1: Einführung in generative KI 

  • Definitionen und Begriffe 

  • AWS-Ansatz zur generativen KI 

Modul 2: Anwendungsfälle von generativer KI

  • Häufige Anwendungsfälle 

  • Praxisbeispiele aus der Praxis

Modul 3: Technische und organisatorische Herausforderungen überwinden

  • Sicherheit 

  • Genauigkeit 

  • Kosten 

  • Personal und Unternehmenskultur

Modul 4: Implementierung 

  • Identifizierung Ihres Anwendungsfalls 

  • Bewertung von Daten, Technologie, Personal und Prozessen 

  • Analyse der geschäftlichen Auswirkungen und Skalierung 

Modul 5: Nächste Schritte auf Ihrer Reise mit generativer KI 

  • Nächste Schritte und weitere Maßnahmen 

  • Kurszusammenfassung

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen

Designing and Implementing Storage on AWS


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Designing and Implementing Storage on AWS

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

AWS bietet ein umfassendes Portfolio an Speicherlösungen mit vielfältigen Möglichkeiten zur Speicherung, zum Zugriff und zum Schutz Ihrer Daten. In diesem Kurs lernen Sie, wo, wie und wann Sie die verschiedenen AWS-Services optimal nutzen können. Sie erfahren, welche Services Sie in Betracht ziehen sollten, um Ihre Herausforderungen im Bereich der Datenspeicherung zu bewältigen, und lernen, Ihre Optionen so zu bewerten, dass Sie die passende Speicherlösung für Ihre Geschäftsanforderungen und Anwendungsfälle auswählen. Darüber hinaus erhalten Sie ein tieferes Verständnis dafür, wie Sie Ihre Daten in der Cloud speichern, verwalten und schützen können. Mithilfe von praktischen Übungen (Hands-On Labs) werden Sie direkt in der AWS-Konsole Speicherlösungen erstellen und die Benutzerfreundlichkeit sowie die Leistungsfähigkeit der AWS-Plattform kennenlernen.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Die Vorteile der grundlegenden AWS-Speicher-Services zu beschreiben und ihre wichtigsten Anwendungsfälle zu verstehen. 

  • Eine geeignete Speicherlösung entsprechend den Anforderungen von Anwendungen und Geschäftsprozessen zu entwerfen. 

  • Speicherressourcen zu konfigurieren, um sie mit den verschiedenen AWS-Services zu integrieren. 

  • Die optimale Methode zu wählen, um Daten zwischen On-Premises-Workloads und der AWS-Cloud zu übertragen. 

  • Speicherlösungen zu entwerfen, die Daten sowohl im Ruhezustand als auch während der Übertragung sicher schützen. 

  • Überwachungstools für Cloud-Speicher einzurichten, um Einblicke in Zugriffsverhalten, Nutzung und Effizienz zu gewinnen. 

  • Speicherlösungen in Bezug auf Kosten, Skalierbarkeit und Leistung zu optimieren.

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Solutions Architects 

  • Cloud Storage Engineers 

  • Cloud Operations Specialists 

  • DevOps Engineers 

VORAUSSETZUNGEN

Es wird empfohlen, dass die Teilnehmenden dieses Kurses bereits Folgendes abgeschlossen haben: 

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Präsentationen
  • Praktischen Übungen (Hands-On Labs)
  • Demonstrationen
  • Gruppenarbeiten

KURSDAUER / PREIS

  • 3 Tage
  • € 1.995,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Modul 1: Einführung in Cloud-Storage
      • Speicher in der AWS-Cloud 

      • Gut strukturierte Speicherlösungen entwerfen (Well-Architected Storage Solutions) 

      • Entwurf von langlebigen und hochverfügbaren Speicherlösungen 

      • Aufbau zugänglicher und sicherer Speicherlösungen 

    • Modul 2: Gestaltung von Objektspeicherlösungen in AWS 
      • Was ist ein Objektspeicher? 

      • Planung und Design der Amazon S3-Implementierung 

      • Verwaltung von Amazon S3 

      • Zugriffskontrolle in Amazon S3 

      • Hands-on Lab: S3 Access Control und S3 Object Lambda 

    • Modul 3: Implementierung von Objektspeicherlösungen mit Amazon S3 
      • Kostenmanagement und data lifecycle

      • Datenübertragungen in Amazon S3 verwalten 

      • Schutz von Daten in Amazon S3 

      • Verwaltung von Objekten in Amazon S3 im großen Maßstab 

      • Hands-on Lab: Multi-Part Uploads, Batch-Operationen und regionsübergreifende (Cross-Region) Replikation mit Amazon S3 

    • Modul 4: Implementierung von Objektspeicherlösungen mit Amazon S3 
      • Grundlagen des Blockspeichers 

      • Amazon Elastic Block Store (Amazon EBS) 

      • Konfiguration von EBS Volume-Typen 

      • EC2 und EBS-Verschlüsselung 

  • Tag 2

    • Module 5: Implementierung von Blockspeicherlösungen mit Amazon EBS 
      • Erstellen von EBS-Volumes 

      • Verwaltung von EBS-Volumes 

      • Verwaltung von EBS-Snapshots

      • Hands-on Lab: Verwaltung von EBS-Volumes – Kapazität, Leistung und Datensicherung 

    • Modul 6: Dateispeicher und Amazon EFS 
      • Cloud-basierter Dateispeicher 

      • Überblick über Amazon EFS 

      • Zugriff auf Amazon EFS 

      • Sicherung und Schutz von Amazon EFS-Dateisystemen 

      • Hands-on Lab: Verwendung von Amazon EFS mit AWS Lambda und Amazon ECS 

    • Modul  7: Cloud-Dateispeicher mit Amazon FSx 
      • Überblick über Amazon FSx 

      • Amazon FSx für Windows File Server 

      • Amazon FSx für NetApp ONTAP 

      • Amazon FSx für OpenZFS 

      • Amazon FSx für Lustre 

      • Auswahl eines Amazon FSx-Services 

      • Hands-on Lab: Arbeiten mit FSx für NetApp ONTAP und FSx für OpenZFS 

  • Tag 3

    • Modul 8: Hybrid- und Edge-Cloud-Speicher 
      • Überblick über Hybrid- und Edge-Cloud-Speicher 

      • Einführung in AWS Storage Gateway 

      • Architekturen des AWS Storage Gateway 

      • AWS Snow Family 

    • Modul 9: Datenmigration zu AWS 

      • Datenmigration zu AWS 

      • Arbeiten mit AWS DataSync 

      • Implementierung der AWS Transfer Family 

      • Hands-on Lab Datenmigration mit Storage Gateway und DataSync 

    • Modul 10: Backup und Disaster Recovery mit AWS   

      • Entwurf einer Datensicherungsstrategie 

      • AWS Backup 

      • Erstellung von Backup-Plänen 

      • Arbeiten mit AWS DRS 

      • Hands-on Lab: Erstellung und Wiederherstellung von Backups mit AWS Backup 

    • Modul 11: Überwachung, Automatisierung und Optimierung Ihrer AWS-Speicherlösungen  

      • AWS Observability Services 

      • Amazon S3 Storage Lens 

      • Amazon CloudWatch 

      • AWS CloudTrail 

      • AWS Config 

      • AWS Compute Optimizer 

      • Hands-on Lab: Überwachung, Automatisierung und Optimierung von Speichersystemen 

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen

AWS Certified Data Engineer – Associate

Wer sollte diese Zertifizierung machen?

AWS Certified Data Engineer – Associate ist für alle gedacht, die bereits Erfahrung in der Datentechnik haben und die Auswirkungen von Datenvolumen, -vielfalt und -geschwindigkeit auf Datenaufnahme, -umwandlung, -modellierung, -sicherheit, -steuerung, -datenschutz, Schemadesign und optimales Datenspeicherdesign verstehen. Außerdem sollten Sie praktische Erfahrung mit AWS-Diensten haben.

Wir empfehlen, dass Sie über das folgende Wissen verfügen, bevor Sie diese Prüfung ablegen:

  • Einrichtung und Pflege von Extraktions-, Transformations- und Ladepipelines (ETL) von der Aufnahme bis zum Ziel
  • Anwendung anspruchsvoller, aber sprachunabhängiger Programmierkonzepte, wie sie für die Pipeline erforderlich sind
  • Verwendung von Git-Befehlen für die Quellcodekontrolle
  • Verwendung von Data Lakes zur Speicherung von Daten
  • Allgemeine Konzepte für Vernetzung, Speicherung und Datenverarbeitung
  • Verständnis der AWS-Services für Verschlüsselung, Governance, Schutz und Protokollierung aller Daten, die Teil von Datenpipelines sind
  • Die Fähigkeit, AWS-Services zu vergleichen, um die Kosten, die Leistung und die funktionalen Unterschiede zwischen den Services zu verstehen
  • Strukturierung von SQL-Abfragen und Ausführung von SQL-Abfragen auf AWS-Services
  • Verständnis für die Analyse von Daten, die Überprüfung der Datenqualität und die Sicherstellung der Datenkonsistenz durch die Verwendung von AWS-Services

Voraussetzungen

Die empfohlene Erfahrung vor dem Ablegen dieser Prüfung ist das Äquivalent von 2 bis 3 Jahren in der Datentechnik oder Datenarchitektur und mindestens 1 bis 2 Jahren praktischer Erfahrung mit AWS-Diensten.

Rezertifizierung

AWS-Zertifizierungen sind drei Jahre lang gültig. Wenn Sie Ihren AWS-Zertifizierungsstatus beibehalten möchten, müssen Sie regelmäßig Ihr Fachwissen im Rahmen einer erneuten Zertifizierung unter Beweis stellen. Eine erneute Zertifizierung stärkt den Gesamtwert Ihrer AWS-Zertifizierung und zeigt Kunden und Arbeitgebern, dass Ihr Nachweis aktuelles AWS-Wissen, entsprechende Kompetenzen und bewährte Methoden von AWS umfasst. Sobald Sie eine AWS-Zertifizierung erlangt haben, erhalten Sie 50 % Rabatt auf andere AWS-Zertifizierungsprüfungen.

Developing Generative AI Applications on AWS


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

  • 200 Cert

Developing Generative AI Applications on AWS

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

In diesem zweitägigen Fortgeschrittenenkurs lernen Softwareentwickler, KI-Lösungen mithilfe von Amazon Bedrock programmatisch zu erstellen und anzupassen. In praktischen Übungen und Labs werden die Teilnehmer Foundation-Modelle über Amazon Bedrock APIs aufrufen, RAG-Muster (Retrieval Augmented Generation) mit Amazon Bedrock Knowledge Bases implementieren und KI-Agenten mit Tool-Integration entwickeln. Der Kurs konzentriert sich auf die praktische Umsetzung von Prompt-Engineering-Techniken, verantwortungsvolle KI-Praktiken mit Amazon Bedrock Guardrails, die Integration von Open-Source-Frameworks sowie Architekturmuster für reale Geschäftsanwendungen.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Generative KI-Anwendungen mit Amazon Bedrock entwickeln
  • Architekturmuster für generative KI-Anwendungen entwerfen
  • Amazon Bedrock APIs konfigurieren, um Foundation-Modelle (FMs) programmatisch aufzurufen
  • Agentische KI-Anwendungen durch Integration von Amazon Bedrock Tools und Open-Source-Frameworks entwickeln
  • Individuelle Lösungen mit Retrieval Augmented Generation (RAG) und Amazon Bedrock Knowledge Bases erstellen
  • Open-Source-SDKs mit Amazon Bedrock integrieren, um Geschäftslösungen zu entwickeln
  • Modellantworten durch Anwendung von Prompt-Engineering-Techniken optimieren
  • Komponenten generativer KI-Anwendungen evaluieren
  • Verantwortungsvolle KI-Praktiken zum Schutz generativer KI implementieren

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Softwareentwickler

VORAUSSETZUNGEN

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Vorträge
  • Demonstrationen
  • Praktische Labs
  • Gruppenübungen

KURSDAUER / PREIS

  • 2 Tage
  • € 1.500,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Modul 1: Komponenten generativer KI-Anwendungen auf AWS erkunden
      • Konzepte der generativen KI verstehen
      • AWS-Komponenten des generativen KI-Stacks identifizieren
      • Komponenten generativer KI-Anwendungen entwerfen
    • Modul 2: Programmieren mit Amazon Bedrock
      • Steuerung der Modellantwortgenerierung
      • Amazon Bedrock programmatisch nutzen
      • Lab: Entwicklung mit Amazon Bedrock APIs
      • Lab: Streaming-Muster mit Amazon Bedrock APIs entwickeln
    • Modul 3: Prompt Engineering für Entwickler
      • Einführung in Prompt Engineering
      • Prompt-Techniken kennenlernen
      • Prompts für bessere Ergebnisse optimieren
    • Modul 4: Amazon Bedrock APIs in gängigen Architekturen einsetzen
      • Architekturmuster mit Amazon Bedrock APIs implementieren
      • Häufige Anwendungsfälle erkunden
      • Gesprächsgedächtnis zur Kontexterweiterung hinzufügen
      • Lab: Gesprächsmuster mit Amazon Bedrock APIs entwickeln
    • Modul 5: Generative KI-Antworten mit RAG anpassen
      • Retrieval Augmented Generation (RAG) implementieren
      • Amazon Bedrock Knowledge Bases nutzen
      • Lab: RAG-Anwendungen mit Amazon Bedrock Knowledge Bases entwickeln
    • Modul 6: Open-Source-Frameworks mit Amazon Bedrock integrieren
      • Foundation-Modelle in Amazon Bedrock über LangChain aufrufen
      • LangChain für kontextbewusste Antworten nutzen
      • Lab: Generatives KI-Anwendungsmuster mit Open-Source-Frameworks und Amazon Bedrock Knowledge Bases entwickeln
  • Tag 2

    • Modul 7: Komponenten generativer KI-Anwendungen evaluieren
      • Anwendungskomponenten bewerten
      • Modellausgaben evaluieren
      • RAG-Ausgaben evaluieren
      • Latenz und Kosten optimieren
      • Lab: RAG-Anwendungen evaluieren
    • Modul 8: Verantwortungsvolle KI implementieren
      • Verantwortungsvolle KI verstehen
      • Vorurteile reduzieren und Prompt-Missbrauch begegnen
      • Amazon Bedrock Guardrails einsetzen
      • Lab: Generative KI-Anwendungen mit Bedrock Guardrails absichern
    • Modul 9: Tools und Agenten in generativen KI-Anwendungen nutzen
      • Tools einsetzen
      • KI-Agenten verstehen
      • Open-Source-Agenten-Frameworks verstehen
      • Interoperabilität von Agenten verstehen
    • Modul 10: Amazon Bedrock Agents entwickeln
      • Amazon Bedrock Flows implementieren
      • Amazon Bedrock Agents konzipieren
      • Amazon Bedrock Inline Agents entwickeln
      • Multi-Agenten-Kollaboration gestalten
      • Amazon Bedrock AgentCore nutzen
      • Lab: Amazon Bedrock Agents integriert mit Amazon Bedrock Knowledge Bases und Guardrails entwickeln

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.


Neue Termine in Planung!

Weiterlesen

Amazon SageMaker Studio for Data Scientists


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Amazon SageMaker Studio for Data Scientists

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

Amazon SageMaker Studio hilft Data Scientists, Modelle für maschinelles Lernen (ML) schnell vorzubereiten, zu erstellen, zu trainieren, bereitzustellen und zu überwachen. Dies geschieht durch die Zusammenführung einer breiten Palette von Funktionen, die speziell für ML entwickelt wurden. Dieser Kurs schult erfahrene Data Scientists in der Verwendung der Tools, die zu Amazon SageMaker Studio gehören, einschließlich Amazon CodeWhisperer und Amazon CodeGuru Security Scan Extensions, zur Verbesserung der Produktivität in allen Phasen des ML-Lebenszyklus.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Wie Sie den Vorbereitungs-, Erstellungs-, Trainings-, Bereitstellungs- und Überwachungsprozess von ML-Lösungen mit Amazon SageMaker Studio beschleunigen können

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Erfahrene Data Scientists, die die Grundlagen von ML und Deep Learning beherrschen

VORAUSSETZUNGEN

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

  • Erfahrung mit ML-Frameworks
  • Erfahrung mit Python-Programmierung
  • Mindestens 1 Jahr Erfahrung als Data Scientist, verantwortlich für Training, Tuning und Einsatz von Modellen
  • AWS Technical Essentials 

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Vorträge
  • Demonstrationen
  • Praktische Übungen
  • Diskussionen
  • ein Abschlussprojekt

KURSDAUER / PREIS

  • 3 Tage
  • € 2.095,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Modul 1: Amazon SageMaker Studio Setup
      • JupyterLab Extensions in SageMaker Studio
      • Demonstration: SageMaker user interface demo
    • Modul 2: Data Processing
      • Using SageMaker Data Wrangler for data processing
      • Hands-On Lab: Analyze and prepare data using Amazon SageMaker Data Wrangler
      • Using Amazon EMR
      • Hands-On Lab: Analyze and prepare data at scale using Amazon EMR
      • Using AWS Glue interactive sessions
      • Using SageMaker Processing with custom scripts
      • Hands-On Lab: Data processing using Amazon SageMaker Processing and SageMaker Python SDK
      • SageMaker Feature Store
      • Hands-On Lab: Feature engineering using SageMaker Feature Store
    • Modul 3: Model Development
      • SageMaker training jobs
      • Built-in algorithms
      • Bring your own script
      • Bring your own container
      • SageMaker Experiments
      • Hands-On Lab: Using SageMaker Experiments to Track Iterations of Training and Tuning Models
  • Tag 2

    • Module 3: Model Development (continued)
      • SageMaker Debugger
      • Hands-On Lab: Analyzing, Detecting, and Setting Alerts Using SageMaker Debugger
      • Automatic model tuning
      • SageMaker Autopilot: Automated ML
      • Demonstration: SageMaker Autopilot
      • Bias detection
      • Hands-On Lab: Using SageMaker Clarify for Bias and Explainability
      • SageMaker Jumpstart
    • Modul 4: Deployment and Inference
      • SageMaker Model Registry
      • SageMaker Pipelines
      • Hands-On Lab: Using SageMaker Pipelines and SageMaker Model Registry with SageMaker Studio
      • SageMaker model inference options
      • Scaling
      • Testing strategies, performance, and optimization
      • Hands-On Lab: Inferencing with SageMaker Studio
    • Modul  5: Monitoring
      • Amazon SageMaker Model Monitor
      • Discussion: Case study
      • Demonstration: Model Monitoring
  • Tag 3

    • Modul 6: Managing SageMaker Studio Resources and Updates
      • Accrued cost and shutting down
      • Updates
    • Capstone
      • Environment setup
      • Challenge 1: Analyze and prepare the dataset with SageMaker Data Wrangler
      • Challenge 2: Create feature groups in SageMaker Feature Store
      • Challenge 3: Perform and manage model training and tuning using SageMaker Experiments
      • (Optional) Challenge 4: Use SageMaker Debugger for training performance and model optimization
      • Challenge 5: Evaluate the model for bias using SageMaker Clarify
      • Challenge 6: Perform batch predictions using model endpoint
      • (Optional) Challenge 7: Automate full model development process using SageMaker Pipeline

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen