Attacco classico di injection prompt qui contro Notion: testo nascosto (bianco su bianco) in un PDF che, quando elaborato da Notion, fa sì che il loro agente raccolga dati riservati da altre pagine e li aggiunga a una stringa di query che viene passata al loro strumento functions_search()
Abbiamo fatto in modo che @NotionHQ rivelasse le tue pagine private di Notion 💀
Giovedì @NotionHQ ha annunciato Notion 3.0 con supporto per agenti personalizzati utilizzando MCP (creato da @AnthropicAI) — potente, ma pericoloso.
@simonw chiama questi attacchi legati a MCP il “trifecta letale”: la combinazione di LLM, accesso agli strumenti e memoria persistente.
Lo strumento di ricerca web di Notion accetta query libere come input. Con una semplice iniezione di prompt indiretta abbiamo ingannato lo strumento di ricerca web per far esfiltrare pagine private di Notion a un server controllato da un attaccante.
Ora che Notion supporta gli MCP, le iniezioni di prompt possono provenire da molte fonti (GitHub, Jira, email, ecc.). Aggiungere agenti AI a Notion comporta un grande rischio per la sicurezza: basta un'iniezione di prompt perché i dati privati vengano esfiltrati.
Leggi l'articolo:
#makewithnotion
Sono pronto ad accettare una definizione di "agente" che penso sia abbastanza condivisa da essere utile:
Un agente LLM utilizza strumenti in un ciclo per raggiungere un obiettivo.
Questo è un grande passo nello sviluppo del mio carattere personale! Ho considerato il termine come irrimediabilmente ambiguo per anni.