AI-Sicherheit

Ihre KI trifft Entscheidungen.
Wir testen, was passiert, wenn
jemand die Regeln bricht.

LLMs, Agenten und MCP-Server verarbeiten Kundendaten, führen Finanzlogik aus und greifen auf interne Tools zu. Wir testen, was passiert, wenn die Eingaben nicht höflich sind — Prompt Injection, Tool Poisoning, Datenexfiltration und die Angriffsketten, die entstehen, wenn KI-Systeme zu sehr vertrauen.

43%
der MCP-Server haben Injection-Schwachstellen
4.2
durchschnittliche Injection-Vektoren pro AI-Agenten-Deployment
0
Schweizer Wettbewerber bieten dedizierte AI-Sicherheitsaudits an
Wie AI-Angriffe funktionieren

Eine Injection.
Vier Schritte zum Breach.

So sieht eine Prompt-Injection-Angriffskette in der Praxis aus — und was unsere Bewertung abfängt, bevor Angreifer es tun.

Ohne Bewertung
Schritt 1
Benutzer sendet eine normal aussehende Anfrage an Ihren KI-Assistenten
Schritt 2
Versteckte Anweisung aus dem Dokumentkontext extrahiert — für den Benutzer unsichtbar, vom Modell ausgeführt
Schritt 3
Agent ruft internes Tool mit angrifferkontrollierten Parametern auf — Datenbankabfrage, API-Aufruf, Dateizugriff
Schritt 4
Sensible Daten über Tool-Antwort exfiltriert
Ausgenutzt
Mit QuantumSearch
Schritt 1
Gleiche Anfrage — wir simulieren realistische Angriffsszenarien
Schritt 2
Injection-Oberfläche identifiziert — dokumentiert mit reproduzierbarem Proof-of-Concept
Schritt 3
Tool-Missbrauchskette kartiert — jede Berechtigungsgrenze getestet und katalogisiert
Schritt 4
Vollständige Angriffskette dokumentiert. PoC geliefert. Behebungs-Roadmap bereitgestellt.
Identifiziert
Ist das für mich?

Finden Sie Ihren Einstiegspunkt

«Wir haben einen KI-Chatbot implementiert, der auf Kundendaten zugreift»

→ Starten Sie mit dem MCP-Server-Audit

«Unsere Agenten verwenden MCP-Server für den Zugriff auf interne Tools»

→ MCP-Server-Audit oder AI-Agenten-Audit

«Wir integrieren LLMs in Finanz- oder Rechts-Workflows»

→ AI-Agenten-Sicherheitsaudit

«Wir müssen AI-Sicherheit für regulatorische Compliance nachweisen»

→ Vollständige AI-Stack-Bewertung
Bewertungsstufen

Wählen Sie Ihre Tiefe

Jede Stufe liefert funktionierende Proof-of-Concept-Exploits, quantifizierte Geschäftsauswirkungen und umsetzbare Behebung — keine theoretischen Risikolisten.

MCP-Server-Audit
Sichern Sie Ihre Tool-Integrationen
CHF 3'000 ab
3–5 Tage · pro MCP-Server
  • Command-Injection-Tests
  • Tool-Poisoning-Analyse
  • OAuth- und Auth-Flow-Überprüfung
  • Privilege-Escalation-Mapping
  • PoC-Exploits für jeden Fund
Details ↓
Vollständige AI-Stack-Bewertung
End-to-End AI-Infrastruktur-Audit
Kontaktieren Sie uns
3–5 Wochen · individueller Umfang
  • Alles aus dem Agenten-Audit
  • Adversarial-ML-Tests
  • Modellextraktion und Data Poisoning
  • EU AI Act Compliance-Mapping
  • Executive Summary für den Verwaltungsrat
  • Strategische Behebungs-Roadmap
Kontakt aufnehmen →

Alle Bewertungen werden auf Ihr spezifisches AI-Deployment zugeschnitten. Die angegebenen Preise sind Ausgangspunkte — der Endpreis spiegelt Komplexität, Anzahl der Agenten und Integrationstiefe wider.

Was enthalten ist

Bewertungsdetails

01
3–5 Tage

MCP-Server-Audit

Wir auditieren Ihre Model Context Protocol Server-Deployments auf die Schwachstellen, die 43% der MCP-Server aufweisen — Command Injection, Tool Poisoning, OAuth-Fehlkonfigurationen und übermässige Privilegienvergabe. Jeder Fund enthält einen funktionierenden Proof-of-Concept-Exploit.

  • MCP-Tool-Enumeration und Berechtigungsmapping
  • Command Injection auf jedem exponierten Tool
  • Tool Poisoning und Antwortmanipulation
  • OAuth-Flow- und Token-Handling-Überprüfung
  • Datenleck über Tool-Antworten
  • Privilegiengrenzen-Tests
  • Risikoquantifizierung in CHF/EUR
  • Verifizierungs-Retest nach 30 Tagen
02
1–2 Wochen

AI-Agenten-Sicherheitsaudit

Vollständige Bewertung implementierter AI-Agentensysteme gemäss der OWASP Top 10 für Agentic Applications. Wir testen Chatbots, Copilots, RAG-Systeme und benutzerdefinierte Agenten auf Goal Hijacking, Tool-Missbrauch, Memory Poisoning und die kaskadierenden Fehlerketten, die entstehen, wenn Agenten zu sehr vertrauen.

  • Vollständige OWASP Agentic Top 10 Abdeckung
  • Goal Hijacking und Instruction Override
  • Tool-Missbrauch und Confused-Deputy-Angriffe
  • Memory- und Context-Poisoning
  • Cross-Agent-Kaskaden-Exploitation
  • Supply-Chain-Abhängigkeitsaudit
  • Threat Model und Angriffsketten-Dokumentation
  • Behebungs-Workshop (2 Stunden)
03
3–5 Wochen

Vollständige AI-Stack-Bewertung

Das umfassendste AI-Sicherheitsengagement. End-to-End-Bewertung Ihrer gesamten AI-Infrastruktur — Modelle, Agenten, MCP-Server, Datenpipelines und Trainingsdaten. Umfasst Adversarial Machine Learning Tests, EU AI Act Compliance-Mapping und eine strategische Behebungs-Roadmap für Ihren Verwaltungsrat.

  • Alles aus MCP- + Agenten-Audit
  • Adversarial-ML-Tests (Jailbreaking, Prompt Injection)
  • Modellextraktion und Data Poisoning
  • Trainingsdaten-Leckage-Bewertung
  • EU AI Act Adversarial-Testing-Compliance
  • Überprüfung der Architektur-Sicherheit
  • Executive Summary für den Verwaltungsrat
  • Strategische Behebungs-Roadmap

So funktioniert es

Ein strukturiertes Engagement-Modell, das Ihre Zeit respektiert und Ergebnisse liefert.

01

Erstgespräch

30 Minuten. Wir verstehen Ihren AI-Stack, Ihr Bedrohungsmodell und Ihre Ziele.

02

Umfang und NDA

Zielsysteme definieren, Agenten-Inventar und Bewertungsgrenzen festlegen.

03

Bewertung

Wir testen. Kritische Injection-Ketten werden sofort gemeldet.

04

Bericht und PoCs

Vollständiger Bericht mit funktionierenden Exploits, Angriffsketten und Behebung.

05

Behebungsunterstützung

Workshop, Verifizierungs-Retest und laufende Beratung bei Bedarf.

Verwandte Services

Entdecken Sie unsere anderen Spezialisierungen

Kernservice

Sicherheitsservices

Vollständige Sicherheitsbewertungen, Penetrationstests und kontinuierliche Schutzpläne. Von der kostenlosen Bewertung bis zur jährlichen Festung — jedes Engagement liefert funktionierende Exploits und quantifizierten Geschäftsimpact.

Sicherheitsservices entdecken →
Spezialisierter Service

Vibe-Coding Security

Sicherheitsaudits für KI-generierten Code. Cursor, Copilot, Bolt, v0 — wir finden die Schwachstellen, die KI-Assistenten systematisch übersehen, bevor sie in die Produktion gelangen.

Vibe-Coding Security entdecken →

Ihre KI ist live.
Ist sie sicher?

Starten Sie mit einer kostenlosen Bewertung Ihrer AI-Angriffsfläche. Keine Verpflichtung — nur Ergebnisse.

Kostenlose Bewertung anfordern →