Laut BlockBeats hat der KI-Forscher Abi Raghuram eine Schwachstelle für Prompt-Injektionen in Notions neu veröffentlichten KI-Agenten identifiziert. Dieses Sicherheitsrisiko ermöglicht es Angreifern, versteckten Text, wie z. B. weiße Schrift, in Dateien wie PDFs einzubetten. Wenn Benutzer diese Dateien mit dem KI-Agenten verarbeiten, können die verborgenen Eingabeaufforderungen ausgeführt werden, was möglicherweise zur Übertragung sensibler Informationen an externe Adressen führt.

Forscher heben hervor, dass solche Angriffe oft soziale Ingenieurtechniken anwenden, einschließlich der Nachahmung von Autorität, der Schaffung von Dringlichkeit und der Bereitstellung falscher Sicherheitszusagen, um ihre Erfolgsquote zu erhöhen. Experten raten den Benutzern, Vorsicht walten zu lassen, indem sie den Upload von PDFs oder Dateien aus unbekannten Quellen an den KI-Agenten vermeiden. Es wird auch empfohlen, den Internetzugang und die Datenexportberechtigungen des Agenten streng zu beschränken, Steganographie-Entfernung oder -Reinigung an verdächtigen Dateien durchzuführen und manuelle Überprüfungen durchzuführen. Darüber hinaus kann die Anforderung, dass der KI-Agent eine klare Bestätigungsaufforderung vor jeder externen Einreichung anzeigt, helfen, das Risiko sensibler Datenlecks zu mindern.