微信扫码
添加专属顾问
我要投稿
阿里Qwen版语音视频聊天模式,全能AI模型Qwen2.5-Omni-7B来袭,每天可试用10次。 核心内容: 1. 阿里Qwen Chat新增实时语音和视频聊天功能 2. Qwen2.5-Omni-7B模型:全能AI,支持文本、音频、图像、视频多种输入 3. Qwen2.5-Omni性能评估:跨模态能力达到SOTA水平
阿里的 Qwen Chat (通义千问聊天) 现在可以直接进行实时语音和实时视频聊聊天了,每天10次
支撑这项新功能的,是刚刚发布的 Qwen2.5-Omni-7B 模型,它是一个 Omni(全能)模型。简单说,就是一个模型能同时理解 文本、音频、图像、视频 多种输入,并且能输出 文本和音频
阿里继续大搞开源,直接将 Qwen2.5-Omni-7B模型基于 Apache 2.0 许可证开源 了!同时,详细的技术报告也已公开,干货满满
这里是所有传送门,方便大家深入研究和上手:
Qwen2.5-Omni 实现这种全能能力的关键,在于其设计的 「Thinker-Talker」(思考者-说话者) 架构。这个设计非常巧妙,让模型能 同时思考和说话:
关键点在于,Talker 并非独立工作,它能直接获取 Thinker 产生的高维表示,并且 共享 Thinker 全部历史上下文信息。这使得 Thinker 和 Talker 构成了一个紧密协作的 单一整体模型,可以进行端到端的训练和推理。这种设计是实现低延迟、高流畅度语音交互的核心
研究团队对 Qwen2.5-Omni 进行了全面评估,结果相当亮眼:
跨模态能力 SOTA: 在需要整合多种模态信息的任务上(如 OmniBench 基准测试),Qwen2.5-Omni 达到了当前最佳水平(State-of-the-Art)
单模态能力不俗: 与同等规模的单模态模型(如 Qwen2.5-VL-7B、Qwen2-Audio)以及一些强大的闭源模型(如 Gemini-1.5-pro)相比,Qwen2.5-Omni 在各项单模态任务上也展现出强大的竞争力。具体包括:
*语音识别:Common Voice
*语音翻译:CoVoST2
*音频理解:MMAU
*图像推理:MMMU, MMStar
*视频理解:MVBench
*语音生成: Seed-tts-eval 及主观自然度评估
可以说,Qwen2.5-Omni 在保持全能的同时,并没有牺牲在各个垂直领域的能力
总结:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
Dify工具插件开发和智能体开发全流程实战
2025-05-27
一个让工作效率翻倍的AI神器,Cherry Studio你值得拥有!
2025-05-27
Docext:无需 OCR,本地部署的文档提取神器,企业数据处理新选择
2025-05-26
太猛了,字节把GPT-4o级图像模型开源了!
2025-05-26
Qwen3硬核解析:从36万亿Token到“思考预算”
2025-05-26
蚂蚁集团开源antv的MCP服务:AI智能体与数据可视化的桥梁如何搭建?
2025-05-26
MinerU:高精度纸媒文档解析与数据提取一站式解决方案
2025-05-26
顶级开发者默默换掉了基础大模型
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-12-26
2024-08-13
2025-05-26
2025-05-25
2025-05-23
2025-05-17
2025-05-17
2025-05-17
2025-05-16
2025-05-14