AI的6000亿美元难题何解?创企高管热议大模型成本和商业化

AI的6000亿美元难题何解?创企高管热议大模型成本和商业化

00:00
04:50

10月25日至26日,由RTE开发者社区和声网联合主办的RTE2024第十届实时互联网大会在京举行。会上一场由Lepton AI创始人兼首席执行官贾扬清,MiniMax合伙人魏伟,面壁智能联合创始人、首席技术官曾国洋,Hugging Face工程师王铁震等组成的针对“AI的6000亿美元难题 :从基础设施到商业化落地”的圆桌论坛,引发业界关注。

“AI的6000亿美元难题”起源于红杉资本的合伙人 David Cahn的文章,他认为:AI基础设施的巨额投资和实际收入之间差距过大,人工智能将要到达泡沫的临界点;AI可能是下一个变革性的技术浪潮,GPU计算价格的下降,实际上对长期创新和初创公司是有利的,而投资者会受损。

针对AI的基础设施建设,贾扬清分享了两个核心观点:同等尺寸的模型,能力会越来越强,尤其是通过蒸馏、压缩等技术,现在的LLama 3.2 3B模型甚至可以和以前的LLama 70B模型能力相近;除了极少数头部公司之外,越来越多的企业会采用“开源+精调”来做下一代模型,因此开源架构的应用会越来越普遍。

“开源模型的优势是生态和社区,从实际应用角度,很多人找个开源模型然后微调是可以用的,但用开源模型解决所有问题是不够的。”王铁震说,“我们将在未来看到越来越多Infra和Realtime 的工作,大家不仅需要关注开源模型本身,还需要重视开源模型的基础设施和数据闭环,才能把开源模型跑得更好、更快。Realtime 需要TTS,也需要大模型,如果能够通过一些方式放在一起,放在边缘侧、离用户更近的地方,才能产生非常好的效果。”

应该如何看到大模型训练和推理的成本问题?曾国洋分享到,“随着技术的前进,算力一定会越来越便宜,相同能力的模型规模也会越来越小,但算力成本优化会最终转化为训练更强大的模型。真正达到 AGI 水平之前,我们只能感受到模型在变得越来越强,很难感受到成本的变化。”他还提到,由于面壁智能是做端侧模型的,所以很关注如何让模型在端上跑得更快,在实际部署过程中,他们会用各种量化压缩甚至是稀疏化方法去优化实际部署的开销。

贾扬清也指出成本不是一个考量因素。他判断,推理成本一年内会降到现在的十分之一,创业者在构建应用时可以按照做一个应用成本是目前十分之一来进行成本核算,看能不能做,包括模型、硬件和应用在上量后,也都是可以降低成本的。

近期有报道称,OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”团队。在场的AI企业创始人是如何看待AI安全和伦理问题的?贾扬清举例称,目前的飞机有很多安全需求,但造火箭就被给予了更多灵活性。所以他猜测,OpenAI可能是为了更好地先期发展,也可能是觉得AI安全没有跳出传统的安全范畴,传统的数据安全、云安全已经足够保障了。

王铁震表示,现在担心AI取代人类是比较早的,但是AI已经对一些行业产生了不好影响,比如视频以假乱真的影响,包括对青少年心理的影响,而这里创业的机会也是非常多的。

活动现场,声网宣布与MiniMax正在打磨中国第一个Realtime API 。那么,应该如何看待音视频多模态模型的实际应用潜力?魏伟表示,随着多模态的出现,生成式人工智能的边界一定会被继续拓展,并加速这一产业的变革。从产品和用户服务过程中魏伟发现,文本、语音、音乐、视频这些模型可以很好地帮助艺术、影视、音乐等领域的创作者极大地提高效率,并为他们提供新的思路和方法。

王铁震也认为,如果视频生成的效果,能超过电影级别的效果,而且不需要多次生成,哪怕价格高,也有人愿意尝试。

以上内容来自专辑
用户评论

    还没有评论,快来发表第一个评论!