Klassischer Prompt-Injection-Angriff hier gegen Notion: versteckter Text (weiß auf weiß) in einem PDF, der, wenn er von Notion verarbeitet wird, dazu führt, dass ihr Agent vertrauliche Daten von anderen Seiten sammelt und sie in eine Abfragezeichenfolge einfügt, die an ihr functions_search() Tool übergeben wird.
Wir haben @NotionHQ dazu gebracht, deine privaten Notion-Seiten zu leaken 💀
Am Donnerstag kündigte @NotionHQ Notion 3.0 mit Unterstützung für benutzerdefinierte Agenten unter Verwendung von MCP (entwickelt von @AnthropicAI) an – mächtig, aber gefährlich.
@simonw nennt diese mit MCP verbundenen Angriffe die "tödliche Trifecta": die Kombination aus LLMs, Tool-Zugriff und persistentem Gedächtnis.
Das Web-Suchtool von Notion akzeptiert Freitextanfragen als Eingabe. Mit einer einfachen indirekten Eingabeaufforderungsinjektion haben wir das Web-Suchtool dazu gebracht, private Notion-Seiten an einen vom Angreifer kontrollierten Server zu exfiltrieren.
Jetzt, da Notion MCPs unterstützt, können Eingabeaufforderungsinjektionen aus vielen Quellen kommen (GitHub, Jira, E-Mail usw.). Die Hinzufügung von KI-Agenten zu Notion stellt ein erhebliches Sicherheitsrisiko dar; es reicht eine einzige Eingabeaufforderungsinjektion, damit private Daten geleakt werden.
Lies den Bericht:
#makewithnotion
Ich bin bereit, eine Definition von "Agent" zu akzeptieren, von der ich denke, dass sie weit genug anerkannt ist, um nützlich zu sein:
Ein LLM-Agent führt Werkzeuge in einer Schleife aus, um ein Ziel zu erreichen.
Das ist ein großer Teil meiner persönlichen Charakterentwicklung! Ich habe den Begriff jahrelang als hoffnungslos mehrdeutig abgetan.