(资料图片仅供参考)
荷兰拉德堡德大学和乌得勒支大学科学家成功将人类的大脑信号转化为人们能听得见的语音。借助植入物和人工智能解码来自大脑的信号,他们能够预测用户想说的话,准确率为92%至100%。研究人员希望这项技术能够帮助瘫痪且无法沟通的患者再次“发声”。相关论文发表于最新一期《神经工程杂志》。
拉德堡德大学科研团队请临时植入大脑植入物的非瘫痪用户在测量大脑活动时大声说出一些单词,借助这一方法,他们在大脑活动和语音之间建立了直接的映射关系,随后,使用先进的人工智能模型将大脑活动直接转化为听得见的语音。这意味着他们不仅能猜测用户在说什么,而且还可立即将这些单词转化为可理解的声音。更重要的是,重建后的语音在语调和说话方式上甚至听起来像瘫痪人士发出来的。
在最新研究中,研究人员用相对较小的数据集重建可理解的语音,表明模型可用有限的数据揭示大脑活动和语音之间的复杂映射关系。他们还对志愿者进行了听力测试,以评估合成单词的可识别性。结果表明,这项技术不仅正确识别出了单词,准确率高达92%到100%,还让这些单词像真实的声音一样被听得见和理解。
不过,研究人员强调,最新技术仍有一些局限性。他们的目标是仅根据人们的大脑活动来预测他们想说的完整句子和段落。要实现这一目标,还需要开展更多实验,研制出更先进的植入物,采集更大的数据集,创建更先进的人工智能模型。
标签:

新型折纸传感器可“见微知著”,应用于柔性机器人、可穿戴设备和植入设备
英特尔明年推出数据中心芯片“Sierra Forest”,能效大幅提高
技术评论 FPGA加速器支撑ChatGPT类大语言模型创新
实现下一代车载信息娱乐系统
Bourns 半屏蔽功率电感器产品再升级, 推出五款全新车规级、符合 AEC-Q200 标准系列
厉兵秣马、蓄势待发——西门子EDA三大支柱助力半导体市场反弹
赔偿N+2,商汤科技被爆裁员
Canalys:多屏智能座舱将成中国新能源汽车标配,市场渗透率达82.7%
e络盟现供应NI电子音频和声学制作测试方案










闽公网安备 35010302000168号