Neue Jailbreak-Taktik zwingt LLMs dazu, Passwörter zu stehlen

Ein Sicherheitsforscher von Cato Networks, der keine Vorkenntnisse in der Entwicklung gehabt haben soll, war in der Lage, ChatGPT, Copilot und DeepSeek so zu manipulieren, dass die KIs ihm eine Infostealer-Malware entwickelten.

Apr 21, 2025 - 06:44
 0
Neue Jailbreak-Taktik zwingt LLMs dazu, Passwörter zu stehlen
Ein Sicherheitsforscher von Cato Networks, der keine Vorkenntnisse in der Entwicklung gehabt haben soll, war in der Lage, ChatGPT, Copilot und DeepSeek so zu manipulieren, dass die KIs ihm eine Infostealer-Malware entwickelten.