Eine Kalender-Einladung reicht aus, um KI-Assistenten zu kapern. Unser Expert Talk zeigt die Top-Risiken für LLMs, reale Angriffsszenarien und erklärt ein Defense-Framework von Google. Die zentrale Erkenntnis für Auditoren und Security-Spezialisten: Deterministische Policy Engines sind unerlässlich, da aktuelle LLMs vertrauenswürdige von unvertrauenswürdigen Inputs nicht zuverlässig trennen können.
Key Highlights
1. Real und exploitierbar: LLM-Angriffe benötigen keine technische Expertise – eine E-Mail mit versteckten Anweisungen genügt, um kritische Systeme zu kompromittieren.
2. Determinismus schlägt KI-Defense: Reasoning-based Defenses bieten keine Garantien; wirksame Sicherheit erfordert Policy Engines mit harten Regeln für kritische Aktionen.
3. Neue Audit-Perspektive nötig: Klassische IT-Security-Fragen greifen zu kurz – Auditoren müssen verstehen, wie Systeme Inputs trennen, Tools beschränken und Agent-Aktionen vollständig loggen.