12月25日,阿里云通义千问发布业界首个开源多模态推理模型QVQ-72B-Preview。QVQ展现出超预期的视觉理解和推理能力,在解决数学、物理、科学等领域的复杂推理问题上表现尤为突出。多项评测数据显示,QVQ超越了此前的视觉理解模型「开源王者」Qwen2-VL,整体表现与「满血版」OpenAI o1、Claude3.5 Sonnet等推理模型相当。目前,开发者可在魔搭社区和HuggingFace平台上直接体验。
人类的推理能力植根于语言思维和视觉记忆中,正因此,利用视觉理解增强大模型推理能力,成为AI技术的前沿探索之一。阿里云方面表示,QVQ是一个会基于视觉进行深度思考推理的大模型。QVQ不但能感知更准确的视觉内容,并据此作出更细致的分析推理,还会质疑自身假设,仔细审视其推理过程的每一步,经过深思熟虑后给出最后结论。QVQ可以轻松识别“梗图”内涵;看真实照片可合理推断出物体个数及高度等信息;在面对数学、物理、化学等各科学领域难题,QVQ能像人甚至科学家一样,给出思考过程和准确答案。
还没有评论,快来发表第一个评论!