当地时间5月23日,微软推出了人工智能(AI)服务型产品内容审核驱动——Azure AI Content Safety(Azure 人工智能内容安全服务)旨在创造一个更安全的网络环境。该产品提供了一系列训练有素的人工智能模型,可以检测图片或文本中与偏见、仇恨、暴力等相关的负面内容。
报告称,该产品将内置在Azure中 OpenAI服务向第三方开发者开放。据了解,Azure OpenAI服务是微软管理的以企业为中心的服务产品,旨在让企业访问AI实验室OpenAI技术,增加治理功能。值得一提的是,Azure 人工智能内容安全服务不仅用于Azure OpenAI服务也可用于游戏平台、在线社区等非AI平台。
据悉,Azure 人工智能内容安全服务“精通”八种语言,包括英语、西班牙语、德语、法语、汉语、日语、葡萄牙语和意大利语。换句话说,它可以理解和测试包含这八种语言的图片或文本,并对标记的内容的严重性进行评分,以指示手动审计师需要采取行动。
此外,微软发言人表示,该产品可以更好地理解文本内容和文化背景,而不是以前的相同类型。”以前的相同类型的产品不能捕捉到上下文,这可能会导致标记内容的错误。该发言人补充说:“我们有一个致力于考虑文化、语言和背景的语言和公平专家团队。但该报告还指出,微软承认目前还没有完美的人工智能,希望人类在使用人工智能的过程中能够得到改进。
报告指出,与所有人工智能审计程序面临的问题一样,Azure 人工智能内容安全服务最终依赖于人工审计人员标记的数据和内容,这意味着其公平性最终取决于人类。报告称,人工处理数据和内容时,可能会有自己的偏见,这将是一个令人头疼的问题。谷歌的AI图像识别软件在2015年将有色(黑色)人种标记为猩猩,引起了很大的争议。美国媒体称,八年过去了,科技巨头们仍然担心“重蹈覆辙”。
事实上,如何处理人工智能带来的风险一直是公众和科技界的热门话题。就在本月22日,一张被认为是人工智能合成的关于“五角大楼附近爆炸”的假照片在互联网上流传,引起了恐慌,美国国防部发言人紧急否认了谣言。随后,美国媒体分析称,该图像具有人工智能生成的所有特征。本月早些时候,OpenAI首席执行官山姆·阿尔特曼在美国参议院小组委员会听证会上呼吁政府对人工智能进行听证(AI)进行监管。他指出,如果这项技术出了问题,就会出现严重的错误,对世界造成重大伤害。
红星新闻记者 黎谨睿
编辑 何先锋 责编 李彬彬
您的IP:3.137.178.51,2025-05-13 22:25:48,Processed in 0.03204 second(s).