Zum Hauptinhalt springen
Compliance

Alles Über Compliance

7 Artikel
Regulatory compliance, policy enforcement, and audit trail research for financial AI systems

FinToolBench: Evaluierung von LLM-Agenten bei der Nutzung von Finanzwerkzeugen in der Praxis

FinToolBench kombiniert 760 Live-Finanz-API-Tools mit 295 ausführbaren Abfragen, um LLM-Agenten bei realen Finanzaufgaben zu benchmarken. Dabei wurde festgestellt, dass die konservative Aufrufrate von GPT-4o von 22,7 % eine höhere Antwortqualität (CSS 0,670) liefert als die aggressive TIR von 87,1 % bei Qwen3-8B, während das Intent-Mismatch bei allen getesteten Modellen 50 % überschreitet.

Verifizierbar sichere Tool-Nutzung für LLM-Agenten: STPA trifft auf MCP

Forscher der CMU und der NC State schlagen die Verwendung der System-Theoretic Process Analysis (STPA) und eines fähigkeitserweiterten Model Context Protocols vor, um formale Sicherheitsspezifikationen für die Tool-Nutzung von LLM-Agenten abzuleiten, wobei eine Alloy-basierte Verifizierung das Fehlen unsicherer Flüsse in einer Fallstudie zur Kalenderplanung demonstriert.

AGrail: Adaptive Sicherheits-Guardrails für LLM-Agenten mit aufgabenübergreifendem Lernen

AGrail (ACL 2025) führt eine kooperative Zwei-LLM-Guardrail ein, die Sicherheitsprüfungen zur Inferenzzeit mittels Test-Time Adaptation anpasst. Auf Safe-OS erzielt sie eine Erfolgsrate von 0 % bei Prompt-Injection-Angriffen und bewahrt 95,6 % der legitimen Aktionen – im Vergleich zu GuardAgent und LLaMA-Guard, die bis zu 49,2 % legitimer Aktionen blockieren.

AuditCopilot: LLMs zur Betrugserkennung in der doppelten Buchführung

AuditCopilot nutzt Open-Source-LLMs (Mistral-8B, Gemma, Llama-3.1) zur Betrugserkennung in Journalbuchungen von Unternehmen und reduziert falsch-positive Ergebnisse von 942 auf 12 – doch Ablationsstudien zeigen, dass das LLM primär als Syntheseschicht über Isolation-Forest-Scores fungiert und nicht als eigenständiger Anomaliedetektor.

Konstitutionelle KI für Buchhaltungs-Agenten: RLAIF, Richtlinienregeln und Goodharting-Risiken

Anthropics Paper zu Constitutional AI (Bai et al., 2022) trainiert LLMs darauf, Regeln mittels KI-generiertem Feedback statt menschlicher Schadens-Labels zu folgen. Dieses Forschungsprotokoll untersucht, wie die RLAIF-Pipeline aus Kritik, Überarbeitung und Präferenz auf die Rückschreibesicherheit für autonome Beancount-Hauptbuch-Agenten übertragbar ist – und wie Goodharting, Kalibrierungsfehler und Dual-Use-Risiken aussehen, wenn die „Verfassung“ ein Kontenplan anstelle eines Ethik-Regelwerks ist.