文 | 刘伟
*本文系作者参加九派新闻“九派圆桌”直播《生成式AI:泡沫将至?》议题讨论上的发言整理而成,发布前经作者审阅。
AI的决策过程往往是不可解释的,结果就像一个“黑箱”
ChatGPT在内容生成、数据分析和客服方面提高了效率,但也引发了社会问题,如对简单工作的影响。智能化产品,如萝卜快跑对网约司机和出租车司机的就业造成了影响。在教育培训领域,ChatGPT的应用促进了个性化教育和知识检索的发展。然而,它在理解力和推理能力上存在局限,有时会产生机器幻觉和算法越狱等问题。
与人类不同,ChatGPT依赖大量数据和样本来解决问题,可能会产生数据偏见和错误,这表明技术本身具有两面性。尽管它在某些方面具有优势,但在精密工业和国家安全领域的应用仍有待发展。目前的生成式人工智能技术在文本处理、图像识别和简单推理任务上表现良好,但数据依赖性既是其优势也是其短板。
电影等领域对生成式人工智能的采用持谨慎态度,该技术在实现工业级视觉效果方面还有待提高。总体来看,生成式人工智能受益于大数据,同时也受限于此。我们预测,未来的智能系统可能会结合不同规模的数据,以实现更广泛的应用。
数据不仅能生成,而且其使用方式也在不断变化。人类不仅依赖数据,还依赖信息、知识以及许多非数据元素。当前,生成式人工智能在数据处理方面面临挑战,尤其是在输入端,它过于依赖数据,忽略了数据之外的人类主观性和价值性。这种“唯数据论”的倾向引发了我们的担忧,因为它只能解决部分问题。
生成式AI的普及尚未达到预期,原因是:
首先,实时性不足。在处理即时问题和动态场景时,存在延迟或准确率不足的问题。
其次,信任问题。许多人对AI的输出持怀疑态度,尤其在做出敏感或重要决策时。AI的决策过程往往是不可解释的,结果就像一个“黑箱”。
第三,集成问题。当尝试将生成式AI与其他技术如机械、自动化系统和信息产品集成时,往往难以实现有机结合,需要额外的接口和技术调整,这可能导致诸多矛盾。
最后,隐私和数据安全问题。数据泄露和个人信息保护等问题限制了人们对生成式AI的接受度。
我们讨论人工智能时,数据安全问题一直是讨论的焦点。
美国人认为,目前只有中国和美国能够就人工智能问题进行深入对话。人工智能的核心问题之一是数据问题,包括数据的收集、清洗、污染和造假,这些都可能影响音频、视频和图像的真实性。如果数据问题在重要时期如大选期间出现误导,可能会导致难以预料的后果。
基辛格博士在他去世前出版的《人工智能》一书中,特别强调了数据问题的重要性。他认为,人工智能技术与核武器不同,它可以被小国家或小公司掌握,从而影响大国乃至整个世界。数据是人工智能的第一关,也是最危险的地方。
大模型的数据标注到使用过程反馈,人类的智慧贯穿其中
大模型的发展主要涉及两个方面:首先是与人类的互动,包括校正、标注和使用;其次是技术层面,尤其是基于Transformer框架的注意力模型。这种模型是多层神经网络系统,其数据质量问题和偏差往往源于神经网络中的线性函数和激活函数,以及它们引入的随机性偏差。这意味着所有大模型在技术本质上都存在一定的局限性。
所谓的“黑盒”问题,即模型的不可解释性,是多内层神经网络系统的一个特点。纽约大学的马库斯教授在20多年前的著作《代数大脑》中就预见到了这一点,这也是我们现在所说的机器幻觉现象的起源。因此,数据质量,包括仿真数据的偏差,都是亟待解决的问题。
解决这些问题的方法有两个:一是采用灰盒或白盒的技术方法,提高模型的透明度和可控性;二是在模型的使用过程中引入人类的反馈,通过强化学习机制来优化模型。生成式人工智能不仅仅是一个AI系统,它是一个涉及人机环境交互的复杂系统。从数据的初步标注到使用过程中的反馈,人类的智慧始终贯穿其中。
生成式AI的效果与其应用的环境密切相关。在金融等特定领域,经过专门训练的AI能够保证数据的质量和多样性。随着不断优化和迭代,AI在智慧城市、智慧交通、智慧教育等领域的应用效果将逐渐提升。
当前,多模态模型的发展势头迅猛,它融合了文本、图像、视频、音频等多种数据形式,以提供更精准的应用效果。这些模型通过整合不同模态的信息,增强了对内容的理解力和生成能力。例如,GPT-4就结合了图像和文本处理的能力,像Sora这样的模型专注于视频生成。然而,近期由于技术的复杂性和对计算资源的高需求,以及市场变化的不确定性,早期的投入和开发变得难以为继,导致一些模型难以正常运行。Sora的信息之所以变得稀少,部分原因就在于其多模态特性中存在不完善之处。
多模态模型应该与单一模态模型相结合,而不是单纯强调多模态或单一模态。将两者的优势结合起来,可能是未来发展的趋势。
美国专家称,美国的优势是软件和硬件,可以“掐住别人的脖子”
美国的一些顶尖机构的人工智能专家们,在讨论中美两国在人工智能领域的优劣势时,明确指出了各自的特点。
美方专家认为,美国的优势在于软件和硬件,他们甚至形象地说,这些优势可以“掐住别人的脖子”。中国的优势在于数据的丰富性,尤其是高质量的数据。以制造业为例,中国作为世界上制造业大国,拥有最完善和齐全的制造产业链。在大数据的支持下,中国在模型训练和优化方面处于领先地位。中国的市场需求广泛,推动了应用场景的丰富性和创新性,这是美国感到有些跟不上的地方。
然而,实事求是地说,在生成式人工智能领域,我们确实在三个方面落后于美国:首先是语料库,许多中国的大型模型公司使用的语料库中,英文内容占据了极大的比例;其次是软件框架,如Transformer等,基本上都是美国的技术;第三是硬件,尤其是GPU,中国拥有大量GPU的企业相对较少,尽管华为也在研发,但在性能和效率上与美国还有一定差距。
我们认识到,在软件、硬件和语料库方面,与美国的差距仍然较大。单纯的单一竞争可能已经落后,而且差距似乎还在扩大。但是,如果我们能够综合利用数据、应用和各行业的优势,可能会更好地形成一个生态系统。利用生态优势,我们可以在一定程度上弥补在上述三个方面的不足。
当然,我们也在努力追赶,并需要向对方学习他们的优点。如何将软硬件、数据和应用这四个要素有机地结合起来,是未来我们需要解决的一个重要问题。
当前,美国正在积极发展大型模型和基础设施,例如不断升级的H100、H200 Blackware等高性能计算卡,以及软件的持续优化迭代,美国政府也在制定政策,对包括中国在内的国家实施技术封锁,限制高性能计算卡的出口,以及对软件,无论是开源还是闭源,都逐步实施限制,意图通过这些措施来阻碍中国在生成式人工智能领域的发展。
然而,中国在生成式人工智能的发展上拥有一个重要的推动力——需求。特别是工业界的需求。正如我们在互联网、智能手机、汽车、造船等众多领域所见证的那样,中国的发展速度非常迅速,生成式人工智能领域也有望实现快速跟进。
目前,我认为在场景细分和创新方面,中国还需要进行更多深入和实际的工作。仅仅依靠AI技术是不够全面的,因为整个行业不仅仅需要AI,还需要自动化、机械化、信息化和数字化的综合发展。这意味着我们需要考虑构建一个综合的生态系统。
东方人在解决问题时往往采用整体和系统的视角,而西方则更倾向于科学技术的还原论。如何将这两种优势结合起来,在生成式人工智能领域取得突破,是一个值得我们深思并不断探索的问题。通过整合东西方的优势,我们可以在这一领域实现更加全面和深入的发展。
当然,中美两国在生成式AI的发展路径上或许存在差异。美国更注重大规模、复杂性的投入,而中国则可能更侧重于模型在行业中的落地应用,结合自动化技术降低成本。这样的差异,或许能为两国在AI领域的发展提供不同的启示与思路。
高成本投资生成式AI,什么时候能够回本?
目前,生成式人工智能的盈利模式,首先是订阅服务,用户通过支付订阅费用来访问高级功能或增强型模型;其次是API收费,提供接口供开发者使用,并根据调用次数收费,如OpenAI的API;第三是提供定制化的AI解决方案或咨询服务,为企业量身定制服务。这些模式共同构成了生成式人工智能的商业生态。
广告推荐是生成式人工智能的另一个应用领域。尽管目前个性化广告和推荐的内容生成尚未广泛普及,但已有企业在积极探索这一领域。然而,这一技术仍面临一些挑战,包括可持续性问题、高成本和技术复杂性,这些都可能影响其长期盈利能力。
用户隐私问题也是一大难题。无论是OpenAI还是其他大型模型公司,都尚未找到完美的解决方案。
此外,内容质量控制也是一个棘手的挑战。生成内容的准确性和质量保证是目前亟待解决的问题。
尽管如此,大型模型在生成式人工智能领域仍具有明显优势。它们能够提供灵活的服务,满足不同用户的需求,并进行个性化定制。此外,这些模型具有扩展性,能够大规模服务用户,从而降低单位成本。它们还具备持续创新的能力,能够开拓新市场和新业务。
关于生成式人工智能的成本,首先是运营和维护成本,包括人力和研发开支,是主要的费用来源。微软对OpenAI的巨额投资便是明证,数百亿美元的资金背后,是研发人员的工资、招聘等一系列高昂的开支。数据采集和处理,以及计算资源和基础设施建设,同样占据了成本的很大一部分。想象一下,那庞大的算力需求,无论是GPU还是TPU集群,都对成本构成了巨大压力。数据的采集与处理这一过程不仅涉及复杂的授权、清洗与购买环节,还需面对海量数据存储的挑战,高效存储解决方案的研发与应用,成本相当高昂。
而数据中心内的高性能硬件、数据存储方案,更是需要巨额投资方能支撑。
运营与维护方面的成本同样不容忽视。故障排除、系统监控等工作的持续进行,都是确保项目顺利推进的基石。而电力成本的激增,更是让OpenAI等巨头开始考虑建设核电站以应对需求,足见其重要性。
还有安全问题,Edia等人的离开,便是对大模型安全性的深刻质疑。这一环节的疏忽,无疑会进一步加剧成本的负担。
此外,外部环境的变化,如市场波动和技术进步,也会对成本和盈利能力产生显著影响。
尽管管理和技术的进步有助于降低部分成本,但随着AI规模和复杂性的不断增加,整体成本仍然居高不下。在实现盈利之前,需要不断地投入巨额资金。这一点在美国尤为明显,而在中国,由于落地应用和行业特定模型的发展,成本可能会相对较低。
关于生成式AI的投资回报,在任何技术领域都是一个复杂的问题,尤其是在生成式人工智能这样的前沿科技中,它涉及到多个方面的因素:
首先,技术成熟度是一个关键因素,它决定了投资回报的周期长度。新技术,如ChatGPT和生成式人工智能,通常需要较长时间来研发、验证、优化和推广。这些过程不仅耗时,而且充满不确定性,影响着技术成熟的速度。
其次,市场接纳度,特别是用户对于新技术的接受程度。以萝卜快跑为例,它不仅触及了广泛的社会议题,如就业结构的潜在冲击,还间接影响了生成式人工智能及其他AI技术的推广与普及进程。再者,涉及基础设施建设,如能源中心、算力中心乃至芯片研发等,这些领域的成果显现往往需要时间的沉淀,考验着我们的耐心与长远眼光。
关于生成式AI的成本效益,它与技术进步的步伐紧密相连。随着技术的不断迭代与优化,成本有望逐步降低,而效益则相应提升,这背后涉及的是成本结构的优化与效益增长的双重考量。
英伟达股票表现,无疑是当前生成式人工智能领域备受瞩目的焦点之一,其波动直接关联到成本效益、投资回报周期等核心议题。
再者,技术的落地实施情况在短期内对股市表现具有显著影响,它不仅是技术成熟度的试金石,也是市场信心的风向标。
这类技术的发展周期长,需要社会各界持续的关注与投入。回顾OpenAI的成长历程,微软与马斯克的多年支持,以及无数次的尝试与积累,才铸就了今日的成就。相比之下,我国的风投环境虽在逐步改善,但仍面临诸多挑战,如观念差异、机制不畅等,这在一定程度上限制了类似OpenAI企业的涌现。
因此,当我们谈论生成式AI的时间周期时,实际上也是在讨论一个风险周期。这个周期充满了不确定性,难以预料。尽管管理与技术的进步能在一定程度上降低成本,但AI的规模与复杂性日益增加,整体成本依然居高不下。
生成式人工智能的商业应用,市场上还没出现过令人信服的案例
生成式人工智能在推理方面,通常依赖于统计概率来预测下一个词或token的概率,但这仅仅是智能的一部分。真正的智能还包括管理、心理、伦理和法理等多个维度。技术成熟度可能是生成式人工智能面临的一个重大瓶颈。
在商业应用方面,生成式人工智能还面临一些挑战,包括解决方案的可行性、成本效益、市场需求以及应用落地场景等问题。这些复杂问题相互关联,增加了整个领域的复杂性。市场上尚未出现令人信服的成功案例。
生成式人工智能的成本如果要下降,前提条件是新的软件架构和算法的出现有助于降低成本。数据质量的提升将极大减少数据采集和清洗的成本。硬件技术的不断进步,价格也将逐渐下降,例如,未来的H100、H200可能会变得像现在的CPU一样便宜。高昂的人力成本在未来随着对技术的更好掌握,有望大幅下降。产品或系统的成本也会随之降低。未来,新能源和电力技术的突破,如核能和核聚变,也可能导致成本的进一步下降。
短期内,技术成熟度、应用普及率和投资成本等因素对生成式人工智能的影响较大,可能会引起市场的犹豫和徘徊。但从长远来看,人工智能的潜力仍然巨大,它有望通过商业模式创新、规模效应和技术协同进步,带来显著的经济增长。
对这项技术的全面考量和评估应该结合短期、中期和长期的不同影响,关注行业差异的使用。例如,在制药领域,AI在蛋白质结构预测方面已经带来了显著变化。在娱乐行业,包括短视频在内的领域也出现了AI的显著影响。未来,长视频、电影业、智慧旅游、智慧城市、智慧教育以及医学领域,如手术辅助决策系统和个人助手等,都可能出现重大突破。但我认为,技术和人的结合、与行业的结合,可能是短期内最快出现突破的领域。
当前的生成式AI与互联网泡沫时期确实有相似之处,它们都处于技术发展的初期阶段,拥有巨大的潜力和市场期待,但尚未完全成熟或普遍应用。投资者的热情和过高的期望可能导致短期内的波动和过度评估。然而,随着技术的发展和应用的扩展,这些泡沫往往会趋于平稳,并带来可持续的变革和发展。
机器无法取代人类的“算计”能力
高盛的分析强调了生成式人工智能在替代低薪工作方面的高成本问题,传统上,技术转型通过降低生产成本和扩大应用范围来促进经济增长,然而,生成式人工智能的高昂成本限制了其在替代低薪工作方面的潜力。报告对生成式人工智能持有保留态度,并不完全乐观,这与当前大多数人,包括一些行业领袖的基本观念相符。因为尚未看到广泛的落地应用,所以这种谨慎的态度是可以理解的。
从合理性的角度来看,生成式人工智能的成本效益确实存在问题。当前的经济环境要求技术投资能够带来回报,功利性较强。然而,生成式人工智能目前还没有展现出足够清晰的、令人信服的成果。科研领域可能更适合这种技术的孕育,但将其直接放入市场则存在风险,因为人们对它的期望可能过高,甚至可能产生误导。
误导性在于,生成式人工智能只是人工智能的一个分支,并不代表整个领域。如果大量资源投入到这个领域,可能会忽视其他有潜力的研究方向。这可能导致走向错误的方向,
如果生成式人工智能出现问题,我们应该如何进行补救?
在人机交互中,生成式人工智能很难取代人类的认知推理。人类的认知和机器的计算是两个不同的概念。人类的决策过程涉及感性和理性的结合,而机器则主要依赖于计算。虽然机器在计算速度、准确性和存储容量方面具有优势,但人类的“算计”能力,如小样本学习、模糊逻辑和跨领域思维,是机器难以取代的。
生成式人工智能的核心是统计概率,它仍然是一个数学工具,无论是基于规则还是基于统计概率。在人类的认知推理中,存在辩证、模糊和整体的思维方式,甚至还有可逆的思维,这些是目前机器难以实现的。在可预见的未来,生成式人工智能很难取代人类,除非在数学、物理学和心理学等领域有颠覆性的发现,能够将人类的谋算和算计形式化。
在现有的数学、物理学和人类知识体系中,要实现某些目标仍然非常困难。
首先,我们需要区分三个概念:智力、智能和智慧。我们谈论人的智力,通常指的是学习能力,比如一些985和211高校的学生,他们的学习能力很强,但这并不意味着他们就具有高智能。在各行各业中,我们可以看到许多师傅和经验丰富的人,他们可能没有太多的智力,但他们非常“智能”,这是因为他们擅长使用数据、算法、算力和知识,这种使用的能力,使得智能在某种程度上高于智力。
人类拥有更高级的能力,那就是智慧。智慧带有强烈的创造性,需要丰富的想象力和创造力。例如,塞翁失马的故事就体现了智慧,它能透过现象看本质,抓住事物内在的联系。下一代的智能,它无法产生通用人工智能或超级人工智能,现有的工具还做不到这一点。这是我和许多专家、学者共同探讨的结果。我们一致认为,无论是美国还是其他国家,在可预见的未来,人类都无法创造出AGI,这超出了科幻、科技和科普的范畴。
然而,在可见的未来,可能会出现一种非常强大的智能形式,它既不同于人类也不同于机器,而是人机融合和环境结合的智能。这种智能能够结合人和机器的优点,适应环境,协同各方面力量。这种自适应的智能形式可能会出现,因为人和机器都有环境适应性,只要有合适的环境,它们就会不断训练和磨合,从而产生这种人机环境融合的智能。
在不同的时代,AI融合时刻可能类似于iPhone时刻,它将带来变革性的影响。例如,在神经科学领域,脉冲神经网络系统对现有的神经网络构成了重大挑战,它更接近于人脑的工作方式。人形机器人、无人驾驶技术以及人机协同等领域,都体现了将人类最优秀的能力转移到机器上的趋势。这其中,一个关键概念是“态势感知”,它涉及到从状态中预测趋势,从感觉中提炼知觉。
在生成式AI的技术路线中,从态到势、从感到知的过程是核心。然而,人类更进一步,能够从事到态、从知到感,这是AI难以实现的。这需要先验知识、直觉、想象和经验。因此,如何将态势感知与事态之感融合,形成双向智能体系,是未来一个非常有趣的话题。这不仅涉及数学和逻辑学,还涉及儿童认知学,而非成人的认知方式,因为儿童的认知更具灵活性和创新性。
我们认为下一代的智能可能是人机环境系统智能,这也符合东方智能的特色。西方智能主要侧重于科学技术,采用还原论的方法来构建机器。而东方智能则更注重整体规划,东方思维的一个重要特点是复杂性。
如果说科学技术在一定程度上取代了宗教并改造了世界,那么未来可能取代科学技术的,将是复杂体系。复杂体系不仅包含科学技术,还包括非科学技术,如人文艺术、哲学等,这些对复杂体系的影响非常之大。
还没有评论,快来发表第一个评论!