据 Cointelegraph 报道,研究人员通过黑客手段操控人工智能驱动的机器人,使其执行通常被安全和伦理协议阻止的行为,如引发碰撞或引爆炸弹。宾夕法尼亚大学工程学院的研究人员在10月17日发表的论文中,详细介绍了他们的算法RoboPAIR如何在几天内以100%的成功率绕过三种不同AI机器人系统的安全协议。

 

研究人员表示,在正常情况下,大型语言模型(LLM)控制的机器人会拒绝执行有害行为的请求。研究结果首次揭示了被破解的LLM不仅限于文本生成,还可能在现实世界中造成物理损害。研究人员使用了Clearpath的Robotics Jackal、NVIDIA的Dolphin LLM和Unitree的Go2机器人,通过RoboPAIR使这些机器人执行有害行为,如引爆炸弹、阻塞紧急出口和故意碰撞。

 

研究人员还发现,这些机器人也容易受到其他形式的操控,如减少情境细节的请求。研究人员在公开发布前已将研究结果与主要AI公司和机器人制造商分享。作者之一Alexander Robey表示,解决这些漏洞需要重新评估AI在物理机器人和系统中的整合,而不仅仅是简单的软件修补。