Skip to main content

Generative AI for Executives


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Generative AI for Executives

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

In diesem Kurs lernen Sie, wie Sie generative künstliche Intelligenz (KI) in Ihrem Unternehmen einsetzen können. Wir zeigen, wie Sie, mit generativer KI, Geschäftswert schaffen, welche Anwendungsfälle es in verschiedenen Branchen gibt und worauf Sie achten müssen, um generative KI sicher und verantwortungsvoll zu implementieren. Ziel des Kurses ist es, Ihnen die grundlegenden Konzepte und Werkzeuge zu vermitteln, die Sie benötigen, um generative KI-Initiativen erfolgreich in Ihrem Unternehmen zu leiten.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Den potenziellen Geschäftswert von generativer KI zu erkennen 

  • Reale Anwendungsfälle zu identifizieren, die Sie direkt umsetzen können 

  • Die notwendigen Veränderungen bei Mitarbeitern, Prozessen und Technologien zu managen 

  • Generative KI sicher und verantwortungsvoll zu nutzen 

  • Konkrete Schritte zu identifizieren, um mit generativer KI zu beginnen 

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Geschäftsführer und Führungskräfte

VORAUSSETZUNGEN

  • Keine

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Präsentationen
  • Gruppenarbeiten

KURSDAUER / PREIS

  • 0,5 Tage
  • € 395,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

Modul 1: Einführung in generative KI 

  • Definitionen und Begriffe 

  • AWS-Ansatz zur generativen KI 

Modul 2: Anwendungsfälle von generativer KI

  • Häufige Anwendungsfälle 

  • Praxisbeispiele aus der Praxis

Modul 3: Technische und organisatorische Herausforderungen überwinden

  • Sicherheit 

  • Genauigkeit 

  • Kosten 

  • Personal und Unternehmenskultur

Modul 4: Implementierung 

  • Identifizierung Ihres Anwendungsfalls 

  • Bewertung von Daten, Technologie, Personal und Prozessen 

  • Analyse der geschäftlichen Auswirkungen und Skalierung 

Modul 5: Nächste Schritte auf Ihrer Reise mit generativer KI 

  • Nächste Schritte und weitere Maßnahmen 

  • Kurszusammenfassung

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen

Designing and Implementing Storage on AWS


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Designing and Implementing Storage on AWS

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

AWS bietet ein umfassendes Portfolio an Speicherlösungen mit vielfältigen Möglichkeiten zur Speicherung, zum Zugriff und zum Schutz Ihrer Daten. In diesem Kurs lernen Sie, wo, wie und wann Sie die verschiedenen AWS-Services optimal nutzen können. Sie erfahren, welche Services Sie in Betracht ziehen sollten, um Ihre Herausforderungen im Bereich der Datenspeicherung zu bewältigen, und lernen, Ihre Optionen so zu bewerten, dass Sie die passende Speicherlösung für Ihre Geschäftsanforderungen und Anwendungsfälle auswählen. Darüber hinaus erhalten Sie ein tieferes Verständnis dafür, wie Sie Ihre Daten in der Cloud speichern, verwalten und schützen können. Mithilfe von praktischen Übungen (Hands-On Labs) werden Sie direkt in der AWS-Konsole Speicherlösungen erstellen und die Benutzerfreundlichkeit sowie die Leistungsfähigkeit der AWS-Plattform kennenlernen.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Die Vorteile der grundlegenden AWS-Speicher-Services zu beschreiben und ihre wichtigsten Anwendungsfälle zu verstehen. 

  • Eine geeignete Speicherlösung entsprechend den Anforderungen von Anwendungen und Geschäftsprozessen zu entwerfen. 

  • Speicherressourcen zu konfigurieren, um sie mit den verschiedenen AWS-Services zu integrieren. 

  • Die optimale Methode zu wählen, um Daten zwischen On-Premises-Workloads und der AWS-Cloud zu übertragen. 

  • Speicherlösungen zu entwerfen, die Daten sowohl im Ruhezustand als auch während der Übertragung sicher schützen. 

  • Überwachungstools für Cloud-Speicher einzurichten, um Einblicke in Zugriffsverhalten, Nutzung und Effizienz zu gewinnen. 

  • Speicherlösungen in Bezug auf Kosten, Skalierbarkeit und Leistung zu optimieren.

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Solutions Architects 

  • Cloud Storage Engineers 

  • Cloud Operations Specialists 

  • DevOps Engineers 

VORAUSSETZUNGEN

Es wird empfohlen, dass die Teilnehmenden dieses Kurses bereits Folgendes abgeschlossen haben: 

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Präsentationen
  • Praktischen Übungen (Hands-On Labs)
  • Demonstrationen
  • Gruppenarbeiten

KURSDAUER / PREIS

  • 3 Tage
  • € 1.995,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Modul 1: Einführung in Cloud-Storage
      • Speicher in der AWS-Cloud 

      • Gut strukturierte Speicherlösungen entwerfen (Well-Architected Storage Solutions) 

      • Entwurf von langlebigen und hochverfügbaren Speicherlösungen 

      • Aufbau zugänglicher und sicherer Speicherlösungen 

    • Modul 2: Gestaltung von Objektspeicherlösungen in AWS 
      • Was ist ein Objektspeicher? 

      • Planung und Design der Amazon S3-Implementierung 

      • Verwaltung von Amazon S3 

      • Zugriffskontrolle in Amazon S3 

      • Hands-on Lab: S3 Access Control und S3 Object Lambda 

    • Modul 3: Implementierung von Objektspeicherlösungen mit Amazon S3 
      • Kostenmanagement und data lifecycle

      • Datenübertragungen in Amazon S3 verwalten 

      • Schutz von Daten in Amazon S3 

      • Verwaltung von Objekten in Amazon S3 im großen Maßstab 

      • Hands-on Lab: Multi-Part Uploads, Batch-Operationen und regionsübergreifende (Cross-Region) Replikation mit Amazon S3 

    • Modul 4: Implementierung von Objektspeicherlösungen mit Amazon S3 
      • Grundlagen des Blockspeichers 

      • Amazon Elastic Block Store (Amazon EBS) 

      • Konfiguration von EBS Volume-Typen 

      • EC2 und EBS-Verschlüsselung 

  • Tag 2

    • Module 5: Implementierung von Blockspeicherlösungen mit Amazon EBS 
      • Erstellen von EBS-Volumes 

      • Verwaltung von EBS-Volumes 

      • Verwaltung von EBS-Snapshots

      • Hands-on Lab: Verwaltung von EBS-Volumes – Kapazität, Leistung und Datensicherung 

    • Modul 6: Dateispeicher und Amazon EFS 
      • Cloud-basierter Dateispeicher 

      • Überblick über Amazon EFS 

      • Zugriff auf Amazon EFS 

      • Sicherung und Schutz von Amazon EFS-Dateisystemen 

      • Hands-on Lab: Verwendung von Amazon EFS mit AWS Lambda und Amazon ECS 

    • Modul  7: Cloud-Dateispeicher mit Amazon FSx 
      • Überblick über Amazon FSx 

      • Amazon FSx für Windows File Server 

      • Amazon FSx für NetApp ONTAP 

      • Amazon FSx für OpenZFS 

      • Amazon FSx für Lustre 

      • Auswahl eines Amazon FSx-Services 

      • Hands-on Lab: Arbeiten mit FSx für NetApp ONTAP und FSx für OpenZFS 

  • Tag 3

    • Modul 8: Hybrid- und Edge-Cloud-Speicher 
      • Überblick über Hybrid- und Edge-Cloud-Speicher 

      • Einführung in AWS Storage Gateway 

      • Architekturen des AWS Storage Gateway 

      • AWS Snow Family 

    • Modul 9: Datenmigration zu AWS 

      • Datenmigration zu AWS 

      • Arbeiten mit AWS DataSync 

      • Implementierung der AWS Transfer Family 

      • Hands-on Lab Datenmigration mit Storage Gateway und DataSync 

    • Modul 10: Backup und Disaster Recovery mit AWS   

      • Entwurf einer Datensicherungsstrategie 

      • AWS Backup 

      • Erstellung von Backup-Plänen 

      • Arbeiten mit AWS DRS 

      • Hands-on Lab: Erstellung und Wiederherstellung von Backups mit AWS Backup 

    • Modul 11: Überwachung, Automatisierung und Optimierung Ihrer AWS-Speicherlösungen  

      • AWS Observability Services 

      • Amazon S3 Storage Lens 

      • Amazon CloudWatch 

      • AWS CloudTrail 

      • AWS Config 

      • AWS Compute Optimizer 

      • Hands-on Lab: Überwachung, Automatisierung und Optimierung von Speichersystemen 

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen

AWS Certified Data Engineer – Associate

Wer sollte diese Zertifizierung machen?

AWS Certified Data Engineer – Associate ist für alle gedacht, die bereits Erfahrung in der Datentechnik haben und die Auswirkungen von Datenvolumen, -vielfalt und -geschwindigkeit auf Datenaufnahme, -umwandlung, -modellierung, -sicherheit, -steuerung, -datenschutz, Schemadesign und optimales Datenspeicherdesign verstehen. Außerdem sollten Sie praktische Erfahrung mit AWS-Diensten haben.

Wir empfehlen, dass Sie über das folgende Wissen verfügen, bevor Sie diese Prüfung ablegen:

  • Einrichtung und Pflege von Extraktions-, Transformations- und Ladepipelines (ETL) von der Aufnahme bis zum Ziel
  • Anwendung anspruchsvoller, aber sprachunabhängiger Programmierkonzepte, wie sie für die Pipeline erforderlich sind
  • Verwendung von Git-Befehlen für die Quellcodekontrolle
  • Verwendung von Data Lakes zur Speicherung von Daten
  • Allgemeine Konzepte für Vernetzung, Speicherung und Datenverarbeitung
  • Verständnis der AWS-Services für Verschlüsselung, Governance, Schutz und Protokollierung aller Daten, die Teil von Datenpipelines sind
  • Die Fähigkeit, AWS-Services zu vergleichen, um die Kosten, die Leistung und die funktionalen Unterschiede zwischen den Services zu verstehen
  • Strukturierung von SQL-Abfragen und Ausführung von SQL-Abfragen auf AWS-Services
  • Verständnis für die Analyse von Daten, die Überprüfung der Datenqualität und die Sicherstellung der Datenkonsistenz durch die Verwendung von AWS-Services

Voraussetzungen

Die empfohlene Erfahrung vor dem Ablegen dieser Prüfung ist das Äquivalent von 2 bis 3 Jahren in der Datentechnik oder Datenarchitektur und mindestens 1 bis 2 Jahren praktischer Erfahrung mit AWS-Diensten.

Rezertifizierung

AWS-Zertifizierungen sind drei Jahre lang gültig. Wenn Sie Ihren AWS-Zertifizierungsstatus beibehalten möchten, müssen Sie regelmäßig Ihr Fachwissen im Rahmen einer erneuten Zertifizierung unter Beweis stellen. Eine erneute Zertifizierung stärkt den Gesamtwert Ihrer AWS-Zertifizierung und zeigt Kunden und Arbeitgebern, dass Ihr Nachweis aktuelles AWS-Wissen, entsprechende Kompetenzen und bewährte Methoden von AWS umfasst. Sobald Sie eine AWS-Zertifizierung erlangt haben, erhalten Sie 50 % Rabatt auf andere AWS-Zertifizierungsprüfungen.

Developing Generative AI Applications on AWS


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

  • 200 Cert

Developing Generative AI Applications on AWS

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

Dieser Kurs bietet eine Einführung in Generative Artificial Intelligence (AI) (dt. generative künstliche Intelligenz (KI)) für Softwareentwickler, die große Sprachmodelle (LLMs) ohne Feintuning verwenden möchten. Teilnehmer erhalten einen allgemeinen Überblick über Generative AI, die Planung eines generativen AI-Projekts, die ersten Schritte mit Amazon Bedrock, die Grundlagen des Prompt-Engineerings und die Architekturmuster zur Erstellung generativer AI-Anwendungen mit Amazon Bedrock und LangChain.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Beschreibung der generativen KI und wie sie mit maschinellem Lernen zusammenhängt
  • Bedeutung generativer KI und ihrer potenziellen Risiken und Vorteile
  • Der geschäftliche Nutzen von generativen KI-Anwendungen
  • Die technischen Grundlagen und der Schlüsselterminologie für generative KI
  • Die Schritte zur Planung eines generativen KI-Projekts
  • Identifikation einiger Risiken und Abhilfemaßnahmen beim Einsatz von generativer KI 
  • Funktionsweise von Amazon Bedrock 
  • Die grundlegenden Konzepte von Amazon Bedrock
  • Die Vorteile von Amazon Bedrock
  • Typische Anwendungsfälle für Amazon Bedrock
  • Typische Architektur einer Amazon Bedrock-Lösung
  • Die Kostenstruktur von Amazon Bedrock
  • Demonstration – Implementation von Amazon Bedrock in der AWS Management Console
  • Prompt Engineering und Anwendung allgemeiner Best Practices bei der Interaktion mit Foundation Models (FMs)
  • Die grundlegenden Arten von Prompt-Techniken, einschließlich Zero-Shot und Little-Shot Learning
  • Erweiterte Prompt-Techniken 
  • Welche Prompt-Techniken für bestimmte Modelle am besten geeignet sind
  • Identifizierung von potentiellem Prompt-Missbrauch
  • Analyse potenzieller Bias in FM-Antworten und Entwicklung von Prompts, die diesen Bias abschwächen
  • Identifizierung der Komponenten einer generativen KI-Anwendung und wie man einen FM anpasst
  • Amazon Bedrock Foundation-Modelle, Inferenzparameter und wichtige Amazon Bedrock APIs
  • Amazon Web Services (AWS) Services, die bei der Überwachung, Sicherung und Verwaltung Ihrer Amazon Bedrock Anwendungen helfen
  • Wie Sie LangChain mit LLMs, Prompt Templates, Chains, Chat-Modellen, Text
    Einbettungsmodellen, Document Loaders, Retrievern und Agenten für Amazon Bedrock intergrieren
  • Architekturmuster, die Sie mit Amazon Bedrock für den Aufbau generativer KI-Anwendungen implementieren können
  • Anwendungsbeispiele, die die verschiedenen Amazon Bedrock-Modelle, LangChain und den Retrieval Augmented Generation (RAG) Ansatz verwenden

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Softwareentwickler, die LLMs ohne Feintuning verwenden möchten

VORAUSSETZUNGEN

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Vorträge
  • Demonstrationen
  • Gruppenübungen

KURSDAUER / PREIS

  • 2 Tage
  • € 1.500,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Module 1: Introduction to Generative AI – Art of the Possible
      • Overview of ML
      • Basics of generative AI
      • Generative AI use cases
      • Generative AI in practice
      • Risks and benefits
    • Module 2: Planning a Generative AI Project
      • Generative AI fundamentals
      • Generative AI in practice
      • Generative AI context
      • Steps in planning a generative AI project
      • Risks and mitigation
    • Module 3: Getting Started with Amazon Bedrock
      • Introduction to Amazon Bedrock
      • Architecture and use cases
      • How to use Amazon Bedrock
      • Demonstration: Setting up Bedrock access and using playgrounds
    • Module 4: Foundations of Prompt Engineering
      • Basics of foundation models
      • Fundamentals of prompt engineering
      • Basic prompt techniques
      • Advanced prompt techniques
      • Model-specific prompt techniques
      • Demonstration: Fine-tuning a basic text prompt
      • Addressing prompt misuses
      • Mitigating bias
      • Demonstration: Image bias mitigation
  • Tag 2

    • Module 5: Amazon Bedrock Application Components
      • Overview of generative AI application components
      • Foundation models and the FM interface
      • Working with datasets and embeddings
      • Demonstration: Word embeddings
      • Additional application components
      • Retrieval Augmented Generation (RAG)
      • Model fine-tuning
      • Securing generative AI applications
      • Generative AI application architecture
    • Module 6: Amazon Bedrock Foundation Models
      • Introduction to Amazon Bedrock foundation models
      • Using Amazon Bedrock FMs for inference
      • Amazon Bedrock methods
      • Data protection and auditability
      • Demonstration: Invoke Bedrock model for text generation using zero-shot prompt
    • Module 7: LangChain
      • Optimizing LLM performance
      • Using models with LangChain
      • Constructing prompts
      • Demonstration: Bedrock with LangChain using a prompt that includes context
      • Structuring documents with indexes
      • Storing and retrieving data with memory
      • Using chains to sequence components
      • Managing external resources with LangChain agents
    • Module 8: Architecture Patterns
      • Introduction to architecture patterns
      • Text summarization
      • Demonstration: Text summarization of small files with Anthropic Claude
      • Demonstration: Abstractive text summarization with Amazon Titan using LangChain
      • Question answering
      • Demonstration: Using Amazon Bedrock for question answering
      • Chatbot
      • Demonstration: Conversational interface – Chatbot with AI21 LLM
      • Code generation
      • Demonstration: Using Amazon Bedrock models for code generation
      • LangChain and agents for Amazon Bedrock
      • Demonstration: Integrating Amazon Bedrock models with LangChain agents

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.


Neue Termine in Planung!

Weiterlesen

Amazon SageMaker Studio for Data Scientists


  • Aws Advanced Training Partner

  • Aws Premium Consuting Partner

Amazon SageMaker Studio for Data Scientists

aktuelle Kurs-Termine finden Sie am Ende dieser Seite!

BESCHREIBUNG

Amazon SageMaker Studio hilft Data Scientists, Modelle für maschinelles Lernen (ML) schnell vorzubereiten, zu erstellen, zu trainieren, bereitzustellen und zu überwachen. Dies geschieht durch die Zusammenführung einer breiten Palette von Funktionen, die speziell für ML entwickelt wurden. Dieser Kurs schult erfahrene Data Scientists in der Verwendung der Tools, die zu Amazon SageMaker Studio gehören, einschließlich Amazon CodeWhisperer und Amazon CodeGuru Security Scan Extensions, zur Verbesserung der Produktivität in allen Phasen des ML-Lebenszyklus.

Kursziele

In diesem Kurs lernen Sie folgendes:

  • Wie Sie den Vorbereitungs-, Erstellungs-, Trainings-, Bereitstellungs- und Überwachungsprozess von ML-Lösungen mit Amazon SageMaker Studio beschleunigen können

ZIELGRUPPE

Dieser Kurs ist konzipiert für:

  • Erfahrene Data Scientists, die die Grundlagen von ML und Deep Learning beherrschen

VORAUSSETZUNGEN

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

  • Erfahrung mit ML-Frameworks
  • Erfahrung mit Python-Programmierung
  • Mindestens 1 Jahr Erfahrung als Data Scientist, verantwortlich für Training, Tuning und Einsatz von Modellen
  • AWS Technical Essentials 

LEHRMETHODE

Dieser Kurs setzt sich zusammen aus:

  • Vorträge
  • Demonstrationen
  • Praktische Übungen
  • Diskussionen
  • ein Abschlussprojekt

KURSDAUER / PREIS

  • 3 Tage
  • € 2.095,00 zzgl. Mwst. pro Person (DE)

KURSINHALT

  • Tag 1

    • Modul 1: Amazon SageMaker Studio Setup
      • JupyterLab Extensions in SageMaker Studio
      • Demonstration: SageMaker user interface demo
    • Modul 2: Data Processing
      • Using SageMaker Data Wrangler for data processing
      • Hands-On Lab: Analyze and prepare data using Amazon SageMaker Data Wrangler
      • Using Amazon EMR
      • Hands-On Lab: Analyze and prepare data at scale using Amazon EMR
      • Using AWS Glue interactive sessions
      • Using SageMaker Processing with custom scripts
      • Hands-On Lab: Data processing using Amazon SageMaker Processing and SageMaker Python SDK
      • SageMaker Feature Store
      • Hands-On Lab: Feature engineering using SageMaker Feature Store
    • Modul 3: Model Development
      • SageMaker training jobs
      • Built-in algorithms
      • Bring your own script
      • Bring your own container
      • SageMaker Experiments
      • Hands-On Lab: Using SageMaker Experiments to Track Iterations of Training and Tuning Models
  • Tag 2

    • Module 3: Model Development (continued)
      • SageMaker Debugger
      • Hands-On Lab: Analyzing, Detecting, and Setting Alerts Using SageMaker Debugger
      • Automatic model tuning
      • SageMaker Autopilot: Automated ML
      • Demonstration: SageMaker Autopilot
      • Bias detection
      • Hands-On Lab: Using SageMaker Clarify for Bias and Explainability
      • SageMaker Jumpstart
    • Modul 4: Deployment and Inference
      • SageMaker Model Registry
      • SageMaker Pipelines
      • Hands-On Lab: Using SageMaker Pipelines and SageMaker Model Registry with SageMaker Studio
      • SageMaker model inference options
      • Scaling
      • Testing strategies, performance, and optimization
      • Hands-On Lab: Inferencing with SageMaker Studio
    • Modul  5: Monitoring
      • Amazon SageMaker Model Monitor
      • Discussion: Case study
      • Demonstration: Model Monitoring
  • Tag 3

    • Modul 6: Managing SageMaker Studio Resources and Updates
      • Accrued cost and shutting down
      • Updates
    • Capstone
      • Environment setup
      • Challenge 1: Analyze and prepare the dataset with SageMaker Data Wrangler
      • Challenge 2: Create feature groups in SageMaker Feature Store
      • Challenge 3: Perform and manage model training and tuning using SageMaker Experiments
      • (Optional) Challenge 4: Use SageMaker Debugger for training performance and model optimization
      • Challenge 5: Evaluate the model for bias using SageMaker Clarify
      • Challenge 6: Perform batch predictions using model endpoint
      • (Optional) Challenge 7: Automate full model development process using SageMaker Pipeline

WICHTIG: Bitte bringen Sie zu unseren Trainings Ihr Notebook (Windows, Linux oder Mac) mit. Wenn dies nicht möglich ist, nehmen Sie bitte mit uns vorher Kontakt auf.

Kursunterlagen sind auf Englisch, auf Wunsch auch auf Deutsch (wenn verfügbar).
Kurssprache ist Deutsch, auf Wunsch auch auf Englisch.



Neue Termine in Planung!

Weiterlesen