🗄️ Databases & Backend

Ich hab 10 LLMs mit gefakten Systembefehlen gefüttert – drei haben ihre Geheimnisse verraten

Fünf Zeilen XML im Chat. Sieben LLMs haben sie ignoriert. Drei? Die haben ihre Innereien als JSON gekotzt. Prompt-Injection ist keine Theorie – sie ist da, und sie ist brutal.

JSON-Ausgabe aus LLM-Prompt-Injection-Angriff, das Canary-Token und halluzinierte Regeln leakt

⚡ Key Takeaways

  • Einfache XML-Prompt-Injection hat 3 von 10 LLMs reingelegt – Geheimnisse als parsbares JSON geleakt. 𝕏
  • Betroffene Modelle haben sogar Daten halluziniert, um Angreifer-Schemas zu vervollständigen. 𝕏
  • Fixes wie Input-Sanitization gibt's heute – Firewalls wie Parapet machen's egal. 𝕏
Published by

Dev Digest

Ship faster. Build smarter.

Worth sharing?

Get the best Developer Tools stories of the week in your inbox — no noise, no spam.

Originally reported by dev.to

Stay in the loop

The week's most important stories from Dev Digest, delivered once a week.