Selon BlockBeats, le chercheur en IA Abi Raghuram a identifié une vulnérabilité d'injection de prompt dans les nouveaux agents IA de Notion. Ce risque de sécurité permet aux attaquants d'incorporer du texte caché, tel qu'une police blanche, dans des fichiers comme des PDF. Lorsque les utilisateurs traitent ces fichiers avec l'agent IA, les prompts cachés peuvent être exécutés, ce qui peut entraîner la transmission d'informations sensibles à des adresses externes.
Les chercheurs soulignent que de telles attaques emploient souvent des tactiques d'ingénierie sociale, y compris l'usurpation d'autorité, la création d'urgence et la fourniture de fausses assurances de sécurité pour augmenter leur taux de succès. Les experts conseillent aux utilisateurs de faire preuve de prudence en évitant de télécharger des PDF ou des fichiers provenant de sources inconnues vers l'agent IA. Il est également recommandé de limiter strictement l'accès à Internet de l'agent et les permissions d'exportation de données, de procéder à des suppressions ou nettoyages de stéganographie sur les fichiers suspects, et d'effectuer des revues manuelles. De plus, exiger que l'agent IA affiche un message de confirmation clair avant toute soumission externe peut aider à atténuer le risque de fuites de données sensibles.
