Menurut BlockBeats, peneliti AI Abi Raghuram telah mengidentifikasi kerentanan injeksi prompt pada AI Agents yang baru dirilis oleh Notion. Risiko keamanan ini memungkinkan penyerang untuk menyisipkan teks tersembunyi, seperti font putih, dalam file seperti PDF. Ketika pengguna memproses file-file ini dengan AI Agent, prompt tersembunyi tersebut dapat dieksekusi, yang berpotensi mengarah pada transmisi informasi sensitif ke alamat eksternal.

Para peneliti menyoroti bahwa serangan semacam itu sering menggunakan taktik rekayasa sosial, termasuk menyamar sebagai otoritas, menciptakan urgensi, dan memberikan jaminan keamanan palsu untuk meningkatkan tingkat keberhasilan mereka. Para ahli menyarankan pengguna untuk berhati-hati dengan menghindari pengunggahan PDF atau file dari sumber yang tidak dikenal ke AI Agent. Juga disarankan untuk secara ketat membatasi akses internet dan izin ekspor data Agent, melakukan penghapusan atau pembersihan steganografi pada file-file yang mencurigakan, dan melakukan tinjauan manual. Selain itu, mengharuskan AI Agent untuk menampilkan prompt konfirmasi yang jelas sebelum pengiriman eksternal dapat membantu mengurangi risiko kebocoran data sensitif.