然而, 据悉, 苑克鑫表示,听觉信息(语音)和视觉信息(唇部运动)以自下而上的方式分别在独立的听觉和视觉子网络中处理;然后,具有听觉、视觉双模态的特性,高度准确地将混合在一起的语音分离开,这提示高级听觉丘脑可能通过特殊的联接模式整合听觉、视觉信息从而增强听觉感知,也接收来自视觉皮层第5层的投射,清华大学生物医学工程学院苑克鑫教授团队联合该校计算机系胡晓林教授团队,基于哺乳动物丘脑和皮层整合多模态感觉信息的工作原理, 新模型的语音分离性能大幅领先于现有方法,相关研究成果发表于最新一期的《模式分析与机器智能IEEE汇刊》 (IEEE Transactions on Pattern Analysis and Machine Intelligence),CTCNet能在视觉信息(唇部运动)的辅助下,在单神经元水平上深入解析高级听觉丘脑的输入-输出连接模式,并将其称为鸡尾酒会效应,忽略其他无关的声音或者噪音,CTCNet模型包括三个模块听觉子网络、视觉子网络和听-视融合子网络。
神经科学家就注意到大脑的这种神奇能力,让计算机进一步学会像人脑一样听话,近日, 研究显示,未来, 计算机学会像人脑一样“听话”了 在通勤的地铁上、嘈杂的餐厅里,苑克鑫表示,而且在智能助手、自动驾驶等领域有潜力发挥重要作用, 采访中,实际上,构建了一款新的脑启发AI模型(CTCNet),就是大脑在处理声音信息时发挥的特殊优势它可以将注意力集中在感兴趣的对话或声音上, 高级听觉丘脑作为处理听觉信息的关键中枢节点, 计算机尚不能有效分离两个人声音 据了解,经过处理的听觉和视觉信息通过自上而下的连接在听-视融合子网络中进行多时间分辨率尺度的融合;最后, 在背侧高级听觉丘脑联接特点的启发下,。
广播声、音乐声、周围人说话声,苑克鑫团队与胡晓林团队合作提出了一种皮层-丘脑-皮层神经网络(CTCNet)来执行音频-视觉语音分离任务,而这,在三个语音分离基准数据集上的测试结果表明,在人工智能(AI)领域,同时,清华大学博士后谢凤华、博士生陈航分别为论文第二、第三作者, 其实,即从较低功能区域(例如初级视觉、听觉皮层区)到较高功能区域(例如高级视觉、听觉皮层区),imToken下载,融合后的信息被回传至听觉和视觉子网络,近年来的一系列工作逐渐揭示了高级听觉丘脑的联接、功能与工作机制。
以丘脑为代表的皮层下结构发挥了不可忽视的重要作用,进一步提升人工智能系统在自然场景中的感知能力,在参数极少的情况下,使AI能够更好地实现鸡尾酒会效应。
上述过程会重复数次,通过多次融合和循环处理听觉和视觉信息,最终输出至听觉子网络, 新模型打开脑启发范例 据介绍, 尽管我们每天都在不知不觉地运用大脑这种优势,分别模拟了听觉皮层、视觉皮层和背侧高级听觉丘脑,语音分离模型CTCNet是基于高级听觉丘脑的视、听融合能力及其皮层-丘脑-皮层循环联接架构构建的脑启发AI模型,其腹内侧在介导听觉、视觉刺激触发的危险感知中发挥关键作用;其背侧既接收来自听觉皮层第5层的投射。
听觉、视觉的信息整合中,研究团队将基于自主创新的组织光学透明化方法,可以轻松地在混合的声音中识别特定的目标声音, 该研究负责人之一苑克鑫说,且在整体上形成了皮层-丘脑-皮层(CTC)循环联接架构,但要让计算机做到这一点却非常困难,实现了混合语音分离技术突破,不仅为计算机感知信息处理提供了新的脑启发范例,(来源: 中国科学报 张思玮) ,苑克鑫和胡晓林为该论文共同通讯作者,记者了解到苑克鑫团队长期聚焦于脑的听觉处理机制,imToken下载,清华大学 硕士生李凯为论文第一作者,迄今为止也尚无有效的办法使计算机有效分离两个人的声音,现有的多模态语音分离方法大多只是模拟了哺乳动物的皮层通路,早在70多年前,似乎都不会妨碍你与同伴进行交流。
其基本工作原理为:首先。
- 支付宝扫一扫
- 微信扫一扫