0:00 远程 “闻” 香,数字嗅觉公司 Osmo 用 AI 技术实现气味“传送”
1:14 慢思考准确率反降30%!普林斯顿揭示思维链某些任务上失效的秘密
2:17 商汤徐冰最新访谈:商汤最近在做什么?数万亿AI投资能回本吗?
3:41 微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑
5:01 o1满血版泄露!奥数题图片推理手拿把掐,奥特曼上线剧透o2
6:11 GenAI饱受数据过载之苦,企业应专注于更小、更具体的目标
7:19 消息称马斯克正与英伟达就 xAI 投资事宜进行谈判
8:30 微软在英国启动生成式 AI 加速器计划,与英伟达、GitHub 联手帮助初创公司成长
文字版
#数字嗅觉技术公司Osmo近日宣布了一项突破性进展:成功实现了气味的远程“传送”。该公司利用人工智能技术,无需人工干预即可将一处地点的气味完整复制到另一处。
这项技术的工作原理是,首先通过传感器采集目标气味,再用气相色谱质谱仪进行详细分析。分析数据随后被传输到特制的分子打印机,由打印机合成和混合相应的化学物质,从而重现原始气味。整个过程依赖于Osmo自主研发的主要气味图数据库,能够准确预测不同分子组合与特定气味之间的对应关系。
在10月30日,Osmo首席执行官Alex Wiltschko展示了这一技术的最新成果——成功复制了“新鲜夏季李子”的气味。这次是首次实现全自动化操作。
#普林斯顿大学计算机系与心理系的最新研究发现,思维链(CoT)方法在某些任务上可能会降低模型的表现。例如,在生造词分类任务中,GPT4的零样本提示准确率高达94%,而采用CoT方法后的准确率骤降至64.4%。
研究团队通过心理学文献中的六项任务,发现深思熟虑可能损害人类表现,且影响人类表现的约束条件也可能适用于大模型,从而导致性能下降。这些任务包括隐式统计学习、面部识别和异常数据分类任务。相反,在自然语言推理、空间直觉和涉及工作记忆限制的任务中,CoT方法能够提升大模型的性能。
这项研究首次将认知心理学与大模型相结合,提供了新的见解。相关论文已上传至arXiv。
#商汤科技联合创始人徐冰近日在香港金融科技周活动上透露,公司正在打造中国最大的AI云平台之一,目前已接入超5万块GPU。商汤从深度学习实验室起步,现已成长为中国领先的AI云服务商之一。
徐冰表示,AI算力需求每两年增长十倍,未来三大领域有望产生超级应用:一是机器人领域,他预测人类很可能在有生之年将与数量超过人类的机器人共存;二是AI助手领域,未来每个人都可能拥有多个扮演不同角色的AI伴侣;三是自动驾驶领域,通过智能汽车与智能道路的协同建设,由AI组织交通运输。
在竞争格局方面,商汤是目前中国唯一一个独立于互联网巨头的大型AI云平台。徐冰认为,现有的万亿美元数据中心市场需要被重新定义。基于CPU的数据中心已不再产生有吸引力的回报,而AI数据中心已成为一个三位数增长的市场。对于高额投资是否值得的质疑,他表示不投资可能错失重大机会,这种风险远大于初始投资成本。
#微软亚洲研究院与清华大学团队联合推出了一种改进版的Transformer模型——Differential Transformer。该模型通过引入类似降噪耳机的差分注意力机制,有效解决了传统Transformer在处理信息时容易将注意力分散到不相关内容的问题。
Differential Transformer在保持原有架构不变的情况下,通过在注意力层增加一个Softmax并进行减法运算,显著提升了模型的性能。实验表明,该模型只需约65%的参数量或训练数据量,就能达到传统Transformer的表现水平。
在长文本理解和关键信息检索等多个任务中,Differential Transformer展现出明显优势,尤其是在64K长度的上下文中检索关键信息时,其准确率比传统模型提高了76%。此外,该模型在减少模型幻觉和提升上下文学习能力方面也有显著改进。
在激活异常值方面,Differential Transformer的表现更佳,经过4比特量化后的准确率比传统Transformer提升约25%。相关代码已在微软unilm项目下开源。
#OpenAI的最新版本GPT4 Turbo(代号o1)意外泄露。网友发现,OpenAI在ChatGPT官网上部署了完整版o1,并通过一个漏洞可以直接使用。这次泄露持续了3小时,许多用户因此提前体验到了o1的完整功能。
泄露版本显示了强大的图像理解和数学推理能力。例如,在测试中,o1能够准确解答普特南数学竞赛的复杂证明题,并且能识别人类史上首张黑洞照片。然而,在计数任务上,o1仍有一些瑕疵,比如在统计三角形数量时出现了错误。
有趣的是,这次泄露被一些人认为是OpenAI的营销策略,因为泄露后不久,OpenAI CEO山姆·奥特曼就在社交媒体上开始预告下一代模型o2,这一时间点恰好在竞争对手Anthropic发布新产品之前。
从泄露版本的完整度来看,分析人士认为o1的正式版可能会在一周内发布。
#在TechCrunch Disrupt 2024上,DataStax的Chet Kapoor、NEA的Vanessa Larco和Fivetran的George Fraser共同探讨了现代AI应用中的新数据管道。Kapoor强调了非结构化数据在AI中的重要性,并指出在AI发展的早期阶段,产品市场契合度比规模更为重要。专家建议企业不要一开始就过于雄心勃勃,而应专注于实际和逐步的进步。Larco建议企业从目标出发,找到所需的数据并使用它,而不是一开始就将所有数据投入大型语言模型。Fraser则强调企业应专注于解决当前面临的问题,而不是提前规划规模。尽管生成性AI的应用和用例展示了AI的强大潜力,但目前还没有达到改变游戏规则的程度。Kapoor将当前的生成性AI时代比作“愤怒的小鸟时代”,预示着明年将是企业开始通过应用改变公司发展轨迹的转型之年。
#据纽约邮报报道,芯片巨头英伟达正在与特斯拉CEO埃隆·马斯克就投资其人工智能公司xAI进行谈判。xAI是马斯克新创立的AI公司,其开发的大语言模型Grok已在社交平台X上线。尽管Grok推出较晚,但其发展速度惊人。
英伟达CEO黄仁勋对xAI表现出浓厚兴趣。在近期采访中,他透露xAI团队仅用19天就建成了一个拥有10万个H200 Blackwell GPU的超级计算机集群,而这样的项目通常需要4年时间才能完成。他称赞马斯克在工程、建设和资源调配方面的能力。
关于xAI的融资消息不断浮出水面。华尔街日报报道称,该公司正在与投资者商谈筹集数十亿美元资金,估值约400亿美元。此外,媒体The Information指出,xAI计划以450亿美元的估值融资50亿美元。
#微软宣布将在英国推出一个生成式AI加速器计划,旨在支持本土AI初创企业的发展。该计划将与全球领先的芯片制造商英伟达以及代码托管平台GitHub合作,预计于2025年1月至3月初运行,主要面向已获得种子轮融资、正寻求进一步发展的AI创业公司。
入选的企业将获得全面支持,包括微软AI“黑带”专家团队的一对一技术指导、市场策略咨询以及投资人对接等资源。此外,英伟达和GitHub也将为这些企业提供专业研讨会与技术支持,帮助它们在生成式AI领域构建创新产品和服务。
还没有评论,快来发表第一个评论!