科技日报北京8月29日电(记者刘霞)来自荷兰拉德堡大学和乌得勒支大学的科学家成功将人类大脑信号转换成可听见的语音。在植入物和人工智能解码大脑信号的帮助下,他们可以预测用户想说什么,准确率达到92%至100%。研究人员希望这项技术能够帮助瘫痪、无法再次交流“声音”的患者。相关论文发表在最新一期《神经工程杂志》上。
拉德堡大学的研究小组要求带有临时大脑植入物的非瘫痪用户在测量他们的大脑活动时大声说出一些单词。通过这种方法,他们在大脑活动和语音之间建立了直接的映射关系,然后利用先进的人工智能模型,将大脑活动直接转换为可听见的语音。这意味着他们不仅可以猜测用户在说什么,还可以立即将这些话转换成可以理解的声音。更重要的是,重建的声音甚至在音调和说话方式上听起来像瘫痪者的声音。
在最新的研究中,研究人员用相对较小的数据集重建了可理解的语音,表明该模型可以用有限的数据揭示大脑活动和语音之间复杂的映射关系。他们还对志愿者进行了听力测试,以评估合成单词的可识别性。结果表明,这项技术不仅能以92%到100%的准确率正确识别单词,还能让这些单词像真实的声音一样被听到和理解。
然而,研究人员强调,最新技术仍有一些局限性。他们的目标是仅根据人的大脑活动来预测他们想说的完整句子和段落。为了实现这一目标,我们需要进行更多的实验,开发更先进的植入物,收集更大的数据集,并创建更先进的人工智能模型。