Building Secure and Responsible LLM Applications Schulung
Sicherheit von LLM-Anwendungen ist die Disziplin des Entwerfens, Aufbaus und Wartens sicherer, vertrauenswürdiger und mit Richtlinien konformen Systeme unter Verwendung großer Sprachmodelle.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an AI-Entwickler, -Architekten und Produktmanager mittlerer bis fortgeschrittener Stufe, die Risiken identifizieren und minimieren möchten, die mit LLM-basierten Anwendungen verbunden sind, einschließlich Prompt-Injektionen, Datenleckagen und unfiltertem Ausgabe, während Sicherheitskontrollen wie Eingabeverifikation, menschenbasierte Überwachung und Ausgabegrenzwerte integriert werden.
Am Ende dieser Ausbildung können die Teilnehmer folgendes:
- Die Kernschwächen von LLM-basierten Systemen verstehen.
- Sichere Entwurfsprinzipien auf die Architektur von LLM-Anwendungen anwenden.
- Werkzeuge wie Guardrails AI und LangChain für Validierung, Filterung und Sicherheit verwenden.
- Techniken wie Sandboxing, Red Teaming und menschenbasierte Überprüfung in produktionsfähige Pipelines integrieren.
Aufbau des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um eine angepasste Ausbildung zu diesem Kurs anzufordern, kontaktieren Sie uns bitte zur Anmeldung.
Schulungsübersicht
Überblick über die LLM-Architektur und das Angriffsspektrum
- Wie LLMs erstellt, bereitgestellt und über APIs zugänglich gemacht werden
- Kritische Komponenten in LLM-App-Stacks (z.B. Prompts, Agents, Speicher, APIs)
- Wo und wie Sicherheitsprobleme bei der tatsächlichen Nutzung auftreten
Prompt-Injektion und Jailbreak-Angriffe
- Was Prompt-Injektion ist und warum sie gefährlich ist
- Direkte und indirekte Szenarien von Prompt-Injektion
- Taktiken zur Umgehung von Sicherheitsfiltern durch Jailbreaking
- Erkennungs- und Gegenmaßnahmen
Datenleckage und Datenschutzrisiken
- Zufällige Datenexposition durch Antworten
- PII-Lekken und Missbrauch von Modellspeicher
- Gestaltung datenschutzbewusster Prompts und retrieval-augmented Generation (RAG)
Filterung und Schutz der LLM-Ausgabe
- Nutzung von Guardrails AI zur Inhaltsfilterung und -validierung
- Definition von Ausgabeschemata und -beschränkungen
- Überwachung und Protokollierung unsicherer Ausgaben
Menschen-im-Schleifengang- und Workflow-Ansätze
- Wo und wann menschliche Überwachung eingeführt werden sollte
- Bewilligungsqueues, Bewertungsschwelle, Fallback-Behandlung
- Ausgleich von Vertrauen und die Rolle der Erklärbarkeit
Sichere LLM-App Design Patterns
- Least privilege und Sandboxing für API-Aufrufe und Agents
- Begrenzung der Rate, Drosselung und Missbrauchs-Erkennung
- Robuste Verkettung mit LangChain und Prompt-Isolation
Konformität, Logging und Governance
- Sicherstellung der Prüfbarkeit von LLM-Ausgaben
- Aufrechterhaltung der Spurenverfolgbarkeit und Prompt-/Versionenkontrolle
- Anpassung an interne Sicherheitsrichtlinien und regulatorische Anforderungen
Zusammenfassung und nächste Schritte
Voraussetzungen
- Eine Verständnis von großen Sprachmodellen und prompt-basierten Schnittstellen
- Erfahrung bei der Erstellung von LLM-Anwendungen unter Verwendung von Python
- Bekanntschaft mit API-Integrationen und cloudbasierten Bereitstellungen
Zielgruppe
- AI-Entwickler
- Anwendungsentwickler und Lösungsarchitekten
- Technische Produktmanager, die mit LLM-Werkzeugen arbeiten
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Building Secure and Responsible LLM Applications Schulung - Booking
Building Secure and Responsible LLM Applications Schulung - Enquiry
Building Secure and Responsible LLM Applications - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Automation with n8n and LangChain
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Entwickler und IT-Fachleute aller Qualifikationsstufen, die Aufgaben und Prozesse mithilfe von KI automatisieren möchten, ohne umfangreichen Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Komplexe Workflows mit der visuellen Programmierschnittstelle von n8n zu entwerfen und zu implementieren.
- KI-Funktionen mithilfe von LangChain in Workflows zu integrieren.
- Individuelle Chatbots und virtuelle Assistenten für verschiedene Anwendungsfälle zu erstellen.
- Erweiterte Datenanalyse und -verarbeitung mit KI-Agenten durchführen.
Automating Workflows with LangChain and APIs
14 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) unter der Leitung eines Trainers richtet sich an Anfänger im Bereich der Geschäftsanalytik und Automatisierungsingenieure, die verstehen möchten, wie man LangChain und APIs für die Automatisierung von sich wiederholenden Aufgaben und Arbeitsabläufen verwendet.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein
- Die Grundlagen der API-Integration mit LangChain zu verstehen.
- Sich wiederholende Arbeitsabläufe mit LangChain und Python zu automatisieren.
- Nutzung von LangChain zur Verbindung verschiedener APIs für effiziente Geschäftsprozesse.
- Benutzerdefinierte Workflows mithilfe von APIs und den Automatisierungsfunktionen von LangChain erstellen und automatisieren.
Building Conversational Agents with LangChain
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die ihr Verständnis von Conversational Agents vertiefen und LangChain auf reale Anwendungsfälle anwenden möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen von LangChain und seine Anwendung bei der Entwicklung von Conversational Agents zu verstehen.
- Konversationsagenten mit LangChain entwickeln und einsetzen.
- Konversationsagenten mit APIs und externen Diensten zu integrieren.
- Anwendung von Natural Language Processing (NLP)-Techniken zur Verbesserung der Leistung von Conversational Agents.
Building Private AI Workflows with Ollama
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die sichere und effiziente KI-gesteuerte Arbeitsabläufe mit Ollama implementieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Einsatz und Konfiguration von Ollama für private KI-Verarbeitung.
- KI-Modelle in sichere Unternehmens-Workflows zu integrieren.
- Die KI-Leistung unter Wahrung des Datenschutzes zu optimieren.
- Geschäftsprozesse mit KI-Funktionen vor Ort zu automatisieren.
- die Einhaltung von Sicherheits- und Governance-Richtlinien des Unternehmens zu gewährleisten.
Deploying and Optimizing LLMs with Ollama
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die LLMs mit Ollama einsetzen, optimieren und integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- LLMs mit Ollama einzurichten und einzusetzen.
- KI-Modelle auf Leistung und Effizienz zu optimieren.
- die Beschleunigung von GPU für verbesserte Inferenzgeschwindigkeiten zu nutzen.
- Ollama in Arbeitsabläufe und Anwendungen zu integrieren.
- Die Leistung von KI-Modellen im Laufe der Zeit zu überwachen und zu erhalten.
Ethical Considerations in AI Development with LangChain
21 StundenDiese von einem Dozenten geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene KI-Forscher und politische Entscheidungsträger, die sich mit den ethischen Auswirkungen der KI-Entwicklung befassen und lernen möchten, wie sie ethische Richtlinien bei der Entwicklung von KI-Lösungen mit LangChain anwenden können.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die wichtigsten ethischen Fragen bei der KI-Entwicklung mit LangChain zu identifizieren.
- Die Auswirkungen von KI auf die Gesellschaft und Entscheidungsprozesse zu verstehen.
- Strategien für den Aufbau fairer und transparenter KI-Systeme zu entwickeln.
- Ethische KI-Richtlinien in LangChain-basierte Projekte zu implementieren.
Enhancing User Experience with LangChain in Web Apps
14 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Webentwickler und UX-Designer, die LangChain nutzen möchten, um intuitive und benutzerfreundliche Webanwendungen zu erstellen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die grundlegenden Konzepte von LangChain und ihre Rolle bei der Verbesserung der Web-Benutzererfahrung zu verstehen.
- Implementierung von LangChain in Webanwendungen, um dynamische und reaktionsschnelle Schnittstellen zu schaffen.
- APIs in Webanwendungen zu integrieren, um die Interaktivität und das Engagement der Benutzer zu verbessern.
- Optimieren Sie die Benutzererfahrung mit den erweiterten Anpassungsfunktionen von LangChain.
- Analysieren Sie Daten zum Benutzerverhalten, um die Leistung und das Erlebnis von Webanwendungen zu optimieren.
Fine-Tuning and Customizing AI Models on Ollama
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die KI-Modelle auf Ollama für eine verbesserte Leistung und domänenspezifische Anwendungen feinabstimmen und anpassen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Eine effiziente Umgebung für die Feinabstimmung von KI-Modellen auf Ollama einzurichten.
- Datensätze für überwachtes Fine-Tuning und Reinforcement Learning vorzubereiten.
- KI-Modelle auf Leistung, Genauigkeit und Effizienz zu optimieren.
- Einsatz von angepassten Modellen in Produktionsumgebungen.
- Evaluierung von Modellverbesserungen und Sicherstellung der Robustheit.
Introduction to AI Security and Risk Management
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an Einsteiger im Bereich IT-Sicherheit, Risikomanagement und Compliance, die grundlegende AI-Sicherheitskonzepte, Bedrohungsszenarien sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die einzigartigen Sicherheitsrisiken zu verstehen, die durch AI-Systeme eingeführt werden.
- Betroffenheit von Bedrohungsszenarien wie feindlichen Angriffen, Datenvergiftung und Modell-Inversion zu identifizieren.
- grundlegende Governance-Modelle wie das NIST AI Risk Management Framework anzuwenden.
- Außenstehend Standards, Compliance-Richtlinien und ethische Prinzipien mit der Nutzung von AI auszurichten.
LangChain: Building AI-Powered Applications
14 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Entwickler und Softwareingenieure, die KI-gestützte Anwendungen mit dem LangChain-Framework erstellen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen von LangChain und seinen Komponenten zu verstehen.
- LangChain mit großen Sprachmodellen (LLMs) wie GPT-4 zu integrieren.
- Modulare KI-Anwendungen mit LangChain zu erstellen.
- Häufige Probleme in LangChain-Anwendungen zu beheben.
Integrating LangChain with Cloud Services
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Dateningenieure und DevOps-Fachleute, die die Fähigkeiten von LangChain durch Integration mit verschiedenen Cloud-Diensten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Integration von LangChain mit wichtigen Cloud-Plattformen wie AWS, Azure und Google Cloud.
- Cloud-basierte APIs und Dienste zu nutzen, um LangChain-gestützte Anwendungen zu verbessern.
- Skalierung und Bereitstellung von Conversational Agents in der Cloud für Echtzeit-Interaktionen.
- Implementierung von Best Practices für Überwachung und Sicherheit in Cloud-Umgebungen.
LangChain for Data Analysis and Visualization
14 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Datenexperten, die mit LangChain ihre Fähigkeiten zur Datenanalyse und -visualisierung verbessern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Datenabfrage und -bereinigung mit LangChain zu automatisieren.
- Fortgeschrittene Datenanalyse mit Python und LangChain durchführen.
- Visualisierungen mit Matplotlib und anderen in LangChain integrierten Python-Bibliotheken zu erstellen.
- Nutzung von LangChain zur Generierung von natürlichsprachlichen Erkenntnissen aus der Datenanalyse.
LangChain Fundamentals
14 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Anfänger und fortgeschrittene Entwickler und Software-Ingenieure, die die Kernkonzepte und die Architektur von LangChain kennenlernen und praktische Fähigkeiten zur Erstellung von KI-gestützten Anwendungen erwerben möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die Grundprinzipien von LangChain zu verstehen.
- Die LangChain-Umgebung einzurichten und zu konfigurieren.
- die Architektur und das Zusammenspiel von LangChain mit großen Sprachmodellen (LLMs) zu verstehen.
- Einfache Anwendungen mit LangChain zu entwickeln.
Getting Started with Ollama: Running Local AI Models
7 StundenDiese von einem Kursleiter geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Einsteiger, die Ollama für die Ausführung von KI-Modellen auf ihren lokalen Rechnern installieren, konfigurieren und verwenden möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen von Ollama und seine Möglichkeiten zu verstehen.
- Ollama für die Ausführung lokaler KI-Modelle einzurichten.
- LLMs mit Ollama einsetzen und mit ihnen interagieren.
- Optimieren der Leistung und Ressourcennutzung für KI-Workloads.
- Erkunden von Anwendungsfällen für den Einsatz lokaler KI in verschiedenen Branchen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.