著名哈佛心理学家 B.F. 斯金纳曾表示,“真正的问题不是机器是否会思考,而是人类是否会思考。”这一诙谐的言论强调了一个曾经至关重要的观点:我们对技术的信任取决于人类的判断。我们不应该担心机器智能,而应该担心控制它的人的智慧和责任。至少情况是这样的。
如今,ChatGPT 等软件已成为许多人工作生活中不可或缺的一部分,斯金纳的见解似乎有些过时了。人工智能代理(能够感知环境并采取行动实现特定目标的软件实体)的迅速崛起从根本上改变了这一模式。这些数字助理诞生于 2020 年代初的消费者人工智能热潮,如今已渗透到我们的数字生活中,处理从安排约会到做出投资决策等各种任务。
什么是 AI 代理?
AI 代理与 ChatGPT 等大型语言模型 (LLM) 在自主行动能力方面存在显著差异。LLM 主要处理和生成文本,而 AI 代理则旨在感知环境、做出决策并采取行动以实现特定目标。这些代理结合了各种 AI 技术,包括自然语言处理、计算机视觉和强化学习,使它们能够适应并从经验中学习。
但随着人工智能代理的激增和迭代,一种令人不安的不安感也在增加。我们真的能信任这些数字实体吗?这个问题远非学术问题。人工智能代理在复杂的环境中运行,根据庞大的数据集和复杂的算法做出决策,甚至连它们的创造者都难以完全理解。这种固有的不透明性滋生了不信任。当人工智能代理推荐医疗方案或预测市场趋势时,我们如何确定其选择背后的原因?
错误地信任人工智能代理的后果可能是可怕的。想象一下,一个人工智能金融顾问由于误解数据点而无意中导致市场崩溃,或者一个医疗人工智能根据有偏见的训练数据推荐错误的治疗方法。潜在的危害不仅限于个别行业;随着人工智能代理越来越融入我们的日常生活,它们的影响力呈指数级增长。一个失误可能会波及整个社会,影响从个人隐私到全球经济的一切。
这种信任缺失的核心在于一个根本问题:中心化。人工智能模型的开发和部署在很大程度上是少数几家科技巨头的职权范围。这些中心化的人工智能模型就像黑匣子一样运行,它们的决策过程不受公众监督。这种缺乏透明度的情况使得人们几乎不可能相信他们在高风险操作中的决策。当我们无法理解或验证人工智能的推理时,我们如何能依靠它做出关键的选择呢?
答案是去中心化
然而,这些问题确实存在解决方案:去中心化人工智能。这一范例为更透明、更值得信赖的人工智能代理提供了一条道路。这种方法利用区块链技术和其他去中心化系统的优势来创建不仅功能强大而且可信赖的人工智能模型。
建立对人工智能代理的信任的工具已经存在。区块链可以实现可验证计算,确保人工智能行为可审计和可追溯。人工智能代理做出的每一个决定都可以记录在公共账本上,从而实现前所未有的透明度。同时,可信执行环境机器学习 (TeeML) 等先进的加密技术可以保护敏感数据并保持模型完整性,实现透明度和隐私性。
随着人工智能代理越来越多地在公共区块链附近或直接在公共区块链上运行,可验证性的概念变得至关重要。传统的人工智能模型可能难以证明其操作的完整性,但基于区块链的人工智能代理可以为其行为提供加密保证。这种可验证性不仅仅是一种技术细节;它是高风险环境中信任的基本要求。
机密计算技术,尤其是可信执行环境 (TEE),提供了重要的保障。TEE 提供了一个安全的空间,可以进行 AI 计算,不受潜在干扰。这项技术确保即使是 AI 系统的操作人员也无法篡改或监视代理的决策过程,从而进一步增强了信任。
像 Oasis Network 的运行时链下逻辑 (ROFL) 这样的框架代表了这种方法的前沿,能够将可验证的 AI 计算与链上可审计性和透明度无缝集成。此类创新扩展了 AI 驱动应用程序的可能性,同时保持了最高的信任和透明度标准。
迈向值得信赖的人工智能未来
通往值得信赖的人工智能代理的道路并非一帆风顺。技术障碍仍然存在,而广泛采用分散式人工智能系统将需要行业实践和公众理解的转变。然而,潜在的回报是巨大的。想象一个世界,人工智能代理完全透明地做出关键决策,他们的行为可以被任何人验证和审计,人工智能的力量是分散的,而不是集中在少数几家公司的手中。
这也有机会实现显著的经济增长。北京 2023 年的一项研究发现,人工智能渗透率每提高 1%,全要素生产率 (TFP) 就会提高 14.2%。然而,大多数人工智能生产力研究都侧重于一般的法学硕士,而不是人工智能代理。能够独立执行多项任务的自主人工智能代理可能会带来更大的生产力提升。值得信赖且可审计的人工智能代理可能会更加有效。
也许是时候更新斯金纳的名言了。真正的问题不再是机器是否会思考,而是我们能否信任它们的想法。有了去中心化的人工智能和区块链,我们就有了建立这种信任的工具。现在的问题是,我们是否有智慧去使用它们。
注意:本专栏中表达的观点为作者的观点,并不一定反映 CoinDesk, Inc. 或其所有者和附属公司的观点。