Secondo BlockBeats, il ricercatore di intelligenza artificiale Abi Raghuram ha identificato una vulnerabilità di injection di prompt negli AI Agents recentemente rilasciati di Notion. Questo rischio per la sicurezza consente agli attaccanti di incorporare testo nascosto, come font bianco, in file come i PDF. Quando gli utenti elaborano questi file con l'AI Agent, i prompt nascosti possono essere eseguiti, potenzialmente portando alla trasmissione di informazioni sensibili a indirizzi esterni.

I ricercatori evidenziano che tali attacchi spesso impiegano tattiche di ingegneria sociale, inclusa l'imitazione di autorità, la creazione di urgenza e la fornitura di false garanzie di sicurezza per aumentare il loro tasso di successo. Gli esperti consigliano agli utenti di esercitare cautela evitando il caricamento di PDF o file provenienti da fonti sconosciute all'AI Agent. Si raccomanda inoltre di limitare rigorosamente l'accesso a Internet dell'Agent e i permessi di esportazione dei dati, eseguire la rimozione della steganografia o la pulizia su file sospetti e condurre revisioni manuali. Inoltre, richiedere all'AI Agent di visualizzare un chiaro prompt di conferma prima di qualsiasi invio esterno può aiutare a mitigare il rischio di perdite di dati sensibili.