收藏文章 楼主

卡内基梅隆大学校园(卡内基梅隆大学建筑)

版块:科技头条   类型:普通   作者:科技资讯   查看:56   回复:0   获赞:0   时间:2023-08-10 17:18:11

来源:DeepTech深度科技

人工智能语言模型最近成为美国文化战争的最新前沿。右翼评论员指责ChatGPT存在所谓的“觉醒偏见”,保守团体已经开始发展自己的人工智能聊天机器人“阵营”。

与此同时,埃隆·马斯克(Elon Musk)表示,他正在开发“TruthGPT”,这是一种“最大限度地寻求真相”的语言模型,不同于OpenAI和谷歌创造的“政治正确”的聊天机器人。

一个公平的,纯粹基于事实的人工智能聊天机器人是一个可爱的想法,但在技术上是不可能的。马斯克尚未透露他的TruthGPT将包含哪些细节,可能是因为他太忙于思考X(前Twitter公司)以及与马克·扎克伯格的八角笼之战。

我们最近的报告揭示了政治偏见是如何进入人工智能语言系统的。研究人员测试了14个大型语言模型,发现OpenAI的ChatGPT和GPT-4是最左的自由派,而Meta的LLaMA是最右的威权派。

参与研究的卡内基梅隆大学博士研究员Chan Park告诉我:“我们认为,没有一种语言模型能够完全摆脱政治偏见。”

关于人工智能最流行的一种说法是,技术是中立和公平的。这是一种危险的叙述,只会加剧人类对计算机的信任倾向,即使它们是错的。事实上,人工智能语言模型不仅反映了其训练数据中的偏差,还反映了创建和训练这些模型的人的偏差。

美国达特茅斯学院计算机科学助理教授Soroush Vosoughi表示,众所周知,用于训练人工智能模型的数据是这些偏见的主要来源,但我的研究表明,偏见几乎在模型开发的每个阶段都有传播。

人工智能语言模型中的偏见是一个特别难解决的问题,因为我们并没有真正理解它们是如何产生结果的,我们减少偏见的过程也并不完美。这部分是因为偏见是一个复杂的社会问题,没有简单的技术解决方案。

这就是为什么我坚信诚实是上策。这种研究可以鼓励公司在模型中追踪和提取政治偏见,并对客户更加直截了当。例如,他们可以清楚地陈述已知的偏差,以便用户可以对模型的输出有所保留。

卡内基梅隆大学校园(卡内基梅隆大学建筑)

(来源:Stephanie Arnett/Mittr | Mid Journey(Suits))本着这种精神,OpenAI今年早些时候告诉我,它正在开发一款定制的聊天机器人,可以代表不同的政治和世界观。一种方法是允许人们个性化他们的人工智能聊天机器人。这也是沃苏吉研究的重点。

正如一篇同行评议论文中所述,Wosuji和他的同事们创造了一种类似于YouTube推荐算法的方法,但用于生成模型。他们使用强化学习来指导人工智能语言模型的输出,从而产生一定的政治意识形态或消除仇恨言论。

OpenAI使用一种称为“通过人类反馈进行强化学习”的技术,在人工智能模型上线前对其进行微调。沃苏吉的方法可以使用强化学习来改进模型发布后生成的内容。

但在一个日益两极分化的世界,这种程度的定制可能会带来好的和坏的结果。虽然可以用来消除人工智能模型中的不良或错误信息,但也可以用来产生更多的错误信息。

“这是一把双刃剑,”沃苏吉承认。

作者简介:Melissa Heikkil是《麻省理工科技评论》的高级记者。她专注于人工智能以及它如何改变我们的社会。此前,她在POLITICO上撰写了关于人工智能政策和政治的文章。她还为《经济学人》工作,并担任新闻主播。

支持:任

操作/排版:何

 
回复列表
默认   热门   正序   倒序

回复:卡内基梅隆大学校园(卡内基梅隆大学建筑)

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:10.1.228.218,2025-12-19 20:42:55,Processed in 0.19381 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com