Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RT, um Simon zu helfen, das Bewusstsein für Prompt-Injection-Angriffe in LLMs zu schärfen.
Es fühlt sich ein bisschen an wie der Wilde Westen der frühen Computertechnik, mit Computerviren (jetzt = bösartige Prompts, die in Webdaten/Tools versteckt sind) und nicht gut entwickelten Abwehrmechanismen (Antivirus oder ein viel weiter entwickeltes Sicherheitsparadigma für Kernel/Nutzerraum, bei dem z.B. einem Agenten sehr spezifische Aktionstypen zugewiesen werden, anstatt die Fähigkeit zu haben, beliebige Bash-Skripte auszuführen).
Ich bin hin- und hergerissen, weil ich ein früher Anwender von LLM-Agenten in meinem persönlichen Computing sein möchte, aber der Wilde Westen der Möglichkeiten hält mich zurück.

16. Juni 2025
Wenn Sie "KI-Agenten" (LLMs, die Tools aufrufen) verwenden, müssen Sie sich der tödlichen Dreifaltigkeit bewusst sein.
Jedes Mal, wenn Sie den Zugriff auf private Daten mit der Exposition gegenüber untrusted Inhalten und der Fähigkeit zur externen Kommunikation kombinieren, kann ein Angreifer das System dazu bringen, Ihre Daten zu stehlen!

Ich sollte klarstellen, dass das Risiko am höchsten ist, wenn Sie lokale LLM-Agenten (z. B. Cursor, Claude Code usw.) verwenden.
Wenn Sie nur mit einem LLM auf einer Website (z. B. ChatGPT) sprechen, ist das Risiko viel geringer, *es sei denn*, Sie aktivieren die Connectoren. Zum Beispiel habe ich gerade gesehen, dass ChatGPT die MCP-Unterstützung hinzufügt. Dies wird besonders schlecht mit all den kürzlich hinzugefügten Speicherfunktionen kombiniert - z. B. stellen Sie sich vor, ChatGPT erzählt alles, was es über Sie weiß, einem Angreifer im Internet, nur weil Sie das falsche Kästchen in den Connector-Einstellungen angekreuzt haben.
386,01K
Top
Ranking
Favoriten