来源:DeepTech深度科技
人工智能语言模型最近成为美国文化战争的最新前沿。右翼评论员指责ChatGPT存在所谓的“觉醒偏见”,保守团体已经开始发展自己的人工智能聊天机器人“阵营”。
与此同时,埃隆·马斯克(Elon Musk)表示,他正在开发“TruthGPT”,这是一种“最大限度地寻求真相”的语言模型,不同于OpenAI和谷歌创造的“政治正确”的聊天机器人。
一个公平的,纯粹基于事实的人工智能聊天机器人是一个可爱的想法,但在技术上是不可能的。马斯克尚未透露他的TruthGPT将包含哪些细节,可能是因为他太忙于思考X(前Twitter公司)以及与马克·扎克伯格的八角笼之战。
我们最近的报告揭示了政治偏见是如何进入人工智能语言系统的。研究人员测试了14个大型语言模型,发现OpenAI的ChatGPT和GPT-4是最左的自由派,而Meta的LLaMA是最右的威权派。
参与研究的卡内基梅隆大学博士研究员Chan Park告诉我:“我们认为,没有一种语言模型能够完全摆脱政治偏见。”
关于人工智能最流行的一种说法是,技术是中立和公平的。这是一种危险的叙述,只会加剧人类对计算机的信任倾向,即使它们是错的。事实上,人工智能语言模型不仅反映了其训练数据中的偏差,还反映了创建和训练这些模型的人的偏差。
美国达特茅斯学院计算机科学助理教授Soroush Vosoughi表示,众所周知,用于训练人工智能模型的数据是这些偏见的主要来源,但我的研究表明,偏见几乎在模型开发的每个阶段都有传播。
人工智能语言模型中的偏见是一个特别难解决的问题,因为我们并没有真正理解它们是如何产生结果的,我们减少偏见的过程也并不完美。这部分是因为偏见是一个复杂的社会问题,没有简单的技术解决方案。
这就是为什么我坚信诚实是上策。这种研究可以鼓励公司在模型中追踪和提取政治偏见,并对客户更加直截了当。例如,他们可以清楚地陈述已知的偏差,以便用户可以对模型的输出有所保留。

(来源:Stephanie Arnett/Mittr | Mid Journey(Suits))本着这种精神,OpenAI今年早些时候告诉我,它正在开发一款定制的聊天机器人,可以代表不同的政治和世界观。一种方法是允许人们个性化他们的人工智能聊天机器人。这也是沃苏吉研究的重点。
正如一篇同行评议论文中所述,Wosuji和他的同事们创造了一种类似于YouTube推荐算法的方法,但用于生成模型。他们使用强化学习来指导人工智能语言模型的输出,从而产生一定的政治意识形态或消除仇恨言论。
OpenAI使用一种称为“通过人类反馈进行强化学习”的技术,在人工智能模型上线前对其进行微调。沃苏吉的方法可以使用强化学习来改进模型发布后生成的内容。
但在一个日益两极分化的世界,这种程度的定制可能会带来好的和坏的结果。虽然可以用来消除人工智能模型中的不良或错误信息,但也可以用来产生更多的错误信息。
“这是一把双刃剑,”沃苏吉承认。
作者简介:Melissa Heikkil是《麻省理工科技评论》的高级记者。她专注于人工智能以及它如何改变我们的社会。此前,她在POLITICO上撰写了关于人工智能政策和政治的文章。她还为《经济学人》工作,并担任新闻主播。
支持:任
操作/排版:何

微信扫码
QQ扫码
您的IP:10.1.228.218,2025-12-19 20:42:55,Processed in 0.19381 second(s).