收藏文章 楼主

堪比流行病与核战争,350余位AI大佬呼吁防范人工智能灭绝人类

版块:科技头条   类型:普通   作者:科技资讯   查看:46   回复:0   获赞:0   时间:2023-06-01 11:52:16

界面新闻记者|陆柯言



美国当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)发布了一份联名公开信。这封信的内容仅有22个英文单词——减轻人工智能灭绝人类的风险,应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项。


这封公开信由350多名从事AI工作的高管、研究人员和工程师签署,其中包括来自3家头部AI公司的高管:OpenAI CEO山姆·奥特曼(Sam Altman)、DeepMind CEO戴米斯·哈萨比斯 (Demis Hassabis),以及Open AI离职人员创办的公司Anthropic CEO达里奥·阿莫迪(Dario Amodei)。


图灵奖获得者杰弗里·辛顿 (Geoffrey Hinton)与约书亚·本吉奥 (Yoshua Bengio)也在签署人员之中,他们被称为现代人工智能运动的“教父”。


另外,中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园也签署了这一公开信。


自ChatGPT风靡全球后,不断推陈出新的AI技术成果开始引发人们的担忧——人工智能可能很快被大规模用于传播错误信息,也可能会让数百万人在一夜之间丢掉工作。


担忧者认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏。这些担忧者包括许多人工智能公司的高管,他们同样认为,同行近乎疯狂的开发速度会带来严重的风险,应该受到更严格的监管。


今年3月,超过1000名技术专家和研究人员也曾签署一封公开信,呼吁暂停六个月的最大人工智能模型的开发。其中提到,“不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的,才能继续开发。


这封信由另一个专注于AI的非营利组织Future of Life Institute发布,埃隆·马斯克 (Elon Musk) 和其他知名技术领袖参与了签署。

 
回复列表
默认   热门   正序   倒序

回复:堪比流行病与核战争,350余位AI大佬呼吁防范人工智能灭绝人类

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:18.188.161.182,2025-05-05 03:38:13,Processed in 0.03318 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com