字节跳动发布全双工语音大模型Seeduplex,AI语音交互迈入「边听边说」时代
发布时间:2026-04-09
Edge Huiwang quantification 消息,4 月 9 日,字节跳动 Seed 团队发布原生全双工语音大模型 Seeduplex,并已在豆包 App 全量上线,标志着语音交互从「回合制」向实时自然对话升级。Seeduplex 通过语音与语义联合建模,实现「边听边说」的同步处理能力,在复杂环境下抗干扰表现显著提升。数据显示,相比传统半双工方案,其误回复率与误打断率下降约 50%。在交互体验上,该模型引入动态判停技术,将响应延迟缩短约 250 毫秒,抢话现象下降 40%,可更准确区分用户停顿与对话结束。同时,通过投机采样与量化优化,系统在高并发场景下仍保持低延迟与流畅性,整体通话满意度提升约 8.34%。此次升级意味着 AI 语音正向「实时、多模态、类人交互」演进,未来有望结合视觉能力,推动智能助手向「听、看、想、说」一体化发展。----------缘辉旺盾网量化工具温馨提示:数字货币投资有风险,入市需谨慎;本文章不作为投资依据,仅供参考----------交流群:https://t.me/dunwangyuanhuiwang

Edge Huiwang quantification 消息,4 月 9 日,字节跳动 Seed 团队发布原生全双工语音大模型 Seeduplex,并已在豆包 App 全量上线,标志着语音交互从「回合制」向实时自然对话升级。


Seeduplex 通过语音与语义联合建模,实现「边听边说」的同步处理能力,在复杂环境下抗干扰表现显著提升。数据显示,相比传统半双工方案,其误回复率与误打断率下降约 50%。


在交互体验上,该模型引入动态判停技术,将响应延迟缩短约 250 毫秒,抢话现象下降 40%,可更准确区分用户停顿与对话结束。同时,通过投机采样与量化优化,系统在高并发场景下仍保持低延迟与流畅性,整体通话满意度提升约 8.34%。


此次升级意味着 AI 语音正向「实时、多模态、类人交互」演进,未来有望结合视觉能力,推动智能助手向「听、看、想、说」一体化发展。

----------缘辉旺盾网量化工具温馨提示:数字货币投资有风险,入市需谨慎;本文章不作为投资依据,仅供参考 ----------交流群:https://t.me/dunwangyuanhuiwang