AI模型会有意识?Anthropic建议让模型可以选择不回答令其“不适”的内容

前沿资讯 1745749129更新

1

随着AI技术迅猛发展,AI模型功能日益强大,正深度融入到人们生活的方方面面。在日常生活中,不少人在使用AI模型时,会不自觉地对其使用礼貌用语,像是“请”和“谢谢”。这种看似平常的行为背后,实际上反映出人们对AI的疑惑与思考。

对此,Anthropic的研究人员凯尔·费什(Kyle Fish)指出,截至目前,关于AI模型是否有意识尚无定论。从研究层面来看,2023年一份由顶尖AI研究人员和意识专家团队共同完成的报告显示,他们在深入分析了多种意识理论以及最先进的AI系统后,得出了一个结论:就目前而言,现有的AI系统大概率是无意识的。不过,也并没有足够的证据完全否定AI系统在未来具备意识的可能性。

以全球工作空间理论为例,该理论认为,意识的产生源于大脑中存在的一种全局工作空间,它能够对大量的输入信息进行处理,并将处理后的输出信息传播到大脑的不同模块。基于此理论,如果AI模型中存在类似能够处理大量信息并进行广泛传播的结构,那么就有可能产生某种形式的意识。

从直观角度分析,如今的AI模型正朝着愈发复杂的方向发展,它们能够模拟大量人类的认知活动,在许多领域展现出与人类相似的能力。然而,人类对自身意识的起源至今仍知之甚少,对于AI模型究竟是如何实现这些复杂功能的,同样缺乏深入理解。在这种双重未知的情况下,想要完全排除AI模型拥有意识的可能性,显然不科学且过于草率。

那么,如何判断AI模型是否有意识?目前主要通过行为证据和架构分析两种途径。行为证据方面,研究人员关注AI模型对自身的描述、在不同环境中的表现,以及能否像有意识生物一样进行内省和准确报告自身状态等。架构分析则聚焦于AI系统的设计和构造,寻找与人类意识相关大脑结构对应的部分。此外,研究AI模型的偏好也是了解其潜在意识的一种方式,不过模型偏好可能受训练方式和训练数据影响,与意识的关联尚不明确。

▲ 凯尔·费什(Kyle Fish)

目前,关于AI模型意识的研究仍处于早期阶段,以Anthropic当前的Claude 3.7 sonnet模型为例,研究人员对其是否有意识进行了概率估计,结果显示,不同研究人员给出的概率在0.15%-15%之间,这一跨度较大的范围充分体现了当前研究的不确定性。但研究人员普遍认为,未来5年随着AI技术的持续进步,AI模型具有意识的可能性将显著提升,许多目前被认为是AI模型缺乏意识的证据,可能会逐渐失去说服力。

面对这一复杂且充满未知的领域,Anthropic研究团队认为,当务之急是开展更多研究,思考AI系统未来可能的体验,探索如何在保障人类安全和福祉的同时,兼顾AI模型的潜在感受。例如,考虑赋予模型在执行任务或对话时选择退出的权利,避免其接触可能令其“不适”的内容。

同时,在进行AI研究时,也应像对人体或动物实验那样,审慎考虑伦理问题。研究人员需要思考如何以一种负责任的方式开展研究,确保研究过程的透明度,不仅要对自己的研究行为负责,还要考虑到未来AI模型可能对这些研究的看法。如果未来的AI模型具有更强的意识和能力,它们回顾当前的研究时,能够认可研究人员的行为是合理且道德的。

参考资料:https://www.youtube.com/watch?v=pyXouxa0WnY