长期以来,科幻小说中的人工智能(AI)一直是有意识的。如今,随着AI的飞速发展,这已经不再是异想天开,甚至得到了AI领域研究者的认可。例如,开发ChatGPT的美国OpenAI公司首席科学家伊利亚·苏茨基弗(Ilya Sutskever)曾在推特上表示,一些最前沿的AI网络可能“有点意识”。很多研究人员说AI还没有达到意识的水平,但是它的进化速度让他们开始思考:如果AI有意识,我们怎么知道?
为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一系列标准。如果符合这些标准,就说明一个AI系统很可能是有意识的。8月17日,他们在预印服务器arXiv上发布了临时指南,供同行评审。
合著者之一、美国非营利研究机构人工智能安全中心(Artificial Intelligence Security Center)的哲学家罗伯特·龙(Robert Long)表示,他们这样做是因为“似乎真的缺乏关于AI意识的详细、实证和深思熟虑的讨论”。
该团队表示,识别AI系统是否有意识具有重要的道德意义。合著者之一、加州大学欧文分校的神经科学家梅根·彼得斯(Megan Peters)表示,如果一个东西被贴上“有意识”的标签,“我们应该如何对待这个作为人类的实体将会发生巨大的变化”。
龙表示,据他所知,构建先进AI系统的公司并没有做出足够的努力来评估意识模型,并制定计划来防止AI具有意识。他补充说:“尽管如此,如果你听听一些领先的实验室领导人,他们真的对人工智能意识或人工智能感知感兴趣。”
微软发言人表示,该公司开发AI的核心是以负责任的方式帮助人类提高生产力,而不是复制人类的智能。该发言人表示,自GPT-4发射以来,“需要新的方法来评估这些人工智能模型的能力,同时探索如何充分发挥人工智能的潜力,使整个社会受益”。
研究AI意识的挑战之一是定义什么是意识。彼得斯说,在这份报告中,研究人员专注于“现象意识”,即所谓的主观体验。这是一种存在主义的体验,即作为一个人、一种动物或一个AI系统的感觉。
有许多基于神经科学的理论描述了意识的生物学基础,但人们并没有就哪一个是“正确的”达成共识。因此,为了建立框架,作者使用了一系列这样的理论。他们的想法是,如果一个人工智能系统的工作方式与这些理论的许多方面相匹配,那么它很可能是有意识的。
他们认为这是一种更好的评估意识的方法,而不是简单地测试一个系统的行为。比如问ChatGPT是否有意识或者观察它的反应。这是因为AI系统已经变得非常擅长模仿人类。
神经科学家、英国苏塞克斯大学意识科学中心主任阿尼尔·塞思(Anil Seth)表示,研究小组提出了一个很好的方法,但“我们需要一个更准确、更可检验的意识理论”。
为了制定标准,作者假设意识与系统处理信息的方式有关,而不管它们是由什么组成的——神经元、计算机芯片或其他东西。科学家还认为,基于人类和动物大脑扫描等技术的神经科学意识理论可以应用于AI。在这些假设的基础上,研究小组选择了其中的六个,并从中提取了一系列意识指标。
Seth对团队提出的标准印象深刻。“这是经过深思熟虑的,不是夸大其词,它的假设非常明确。”他说,“我不同意一些假设,但这一点也不重要,因为我很可能是错的。”
作者表示,这远远不是评价AI意识的最终结论,希望其他研究者能帮助他们改进方法。然而,这些标准现在可以应用于评估人工智能系统的意识——至少没有人工智能系统是有意识的。(文乐乐)
相关论文信息:
https://doi.org/10.48550/arXiv.2308.08708
微信扫码
QQ扫码
您的IP:10.1.228.218,2025-12-30 08:13:08,Processed in 0.05093 second(s).