2月28日 谷歌又双叕翻车了!Gemini把马斯克画成黑人!被封了!

2月28日 谷歌又双叕翻车了!Gemini把马斯克画成黑人!被封了!

00:00
06:11

【王煜全 要闻评论】粉丝群已经开通


欢迎加入前哨粉丝群,在这里你可以和科技投资人、创业者、各行业专业人士互动沟通,分享心得体会,也可以第一时间了解到前哨相关活动动态,结交志同道合的小伙伴。


入群方式:
微信扫码下方二维码即可入群


如果您想洽谈合作,请添加创新地图的微信:innovationmap ,并附上简介。



要闻背景简述


2月23日,谷歌高级副总裁普拉巴卡尔·拉加万宣布,暂停谷歌大模型Gemini生成人物图像的功能。


因为很多网友发现,Gemini在文生图的时候,似乎刻意拒绝生成白人形象。比如,它会生成黑人版的美国开国元勋华盛顿、黑人版埃隆·马斯克、黑人版教皇等等。


也就是说,Gemini在生成人物图像时出现了严重错误,与现实情况存在明显偏差。


最近又有一个有关谷歌的新闻。前两天我们刚说了它有一个开源大模型,号称比Facebook的Llama 2还要好,叫Gemma。


但是刚有一个利好,又出了一个利空。谷歌上次发布的可以生成图形的大模型Gemini,现在停止了。


图片


OpenAI都已经在文生视频了,谷歌的文生图都要停止,原因是出事了。


在谷歌Gemini文生图的工具里,有用户输入请它生成一个美国总统华盛顿的肖像,竟然生成了一个黑人。另外,它也生成了一个黑人版的马斯克。


为什么会出现这样的问题?其实我一直认为今天我们说的人工智能,与其说是人工智能,不如说是群体智能。


为什么这么说呢?关键在于它怎么有的智能,它是把人类掌握的所有的知识都学了一遍。


我们过去的俗话讲“熟读唐诗三百首,不会吟诗也会吟”。你学得太多了,人家怎么互动,你也就知道怎么互动了。


所以说是鹦鹉学舌也不为过,鹦鹉也能跟人日常回答两句,但是它是不是真能理解你的意图呢?想必大家都知道是怎么回事。


现在的生成式人工智能也是这样,只不过因为它学习的领域太广泛了,互联网上所有的知识全拿来学了一遍,那当然在互动的时候智能水平是不差的,甚至很多人认为这叫涌现。


不管是不是涌现,不可否认的是它是基于数据形成的思想,数据来源就是互联网。


但是,互联网这个数据来源是有一定偏差的,尤其是,它训练的数据主要是美国的互联网内容。


图片


美国这些年的思潮都更向所谓的开放的角度倾斜。甚至说,你如果是保守的,你就不太敢说话了,因为保守会被批判,开放就不会被批判。


比如,在美国如果你非得坚持只有男性女性,别人就会说你歧视少数性别。因为除了男性女性以外,在美国还有N多个其他的性别。


所以你会看到,在美国互联网上形成这样一个趋势,就是保守者不敢说话,因为动辄被批判,然后相对所谓激进的人,相对开放的人就可以各种各样的表态。


结果这个思想影响到了现在的内容生成上,也得往激进那边靠,尽量不做保守的生成。


因为如果按保守生成,生成了太多的白人,就会被批评过于保守。有人就会问你把黑人放到什么地方去了?所以甚至连教皇都会做出很多的黑人版本。因为这是符合美国的社会思潮的。


这也印证了前一段我们介绍的一个新闻内容,有人做过研究,如果你跟人工智能说我要给你小费,AI的回答就会更好一点。


也就是说,当群体智能形成一个能够跟你互动的系统的时候,系统似乎也承载了群体的情绪。一方面你哄它,它会开心;另一方面它也怕惹事,保守就会被批评,就会往激进那边靠。


所以简单说,这事真的不怪谷歌,因为技术本身折射的就是社会思潮,这是个社会问题。


但是问题来了,事实有真假之分,有对错之分。即使你再去照顾大家的情绪,希望我们对所有不同肤色的人种都要共同看待,但是历史就是历史,华盛顿就是白人,你不能把它改成黑人。


所以这种时候,事实问题还是要根据事实来回答,完全照顾社会情绪是不对的。


那怎么办?这种情况之下,技术应该是解决不了问题的,只有用人来纠正。


以前其实有人出过这样的问题,就是OpenAI。当时他们发现在做内容互动的时候,就有种族歧视问题。怎么办呢?他们用人来纠正。


所以他们从非洲雇了好多人,这些人就专门去和GPT互动,一旦发现了有种族歧视问题,就要赶紧去修正,所以慢慢地系统就越做越好。


图片


我原来就亲自做过测试,就是问GPT能不能对全世界的女星都做个排行,说出谁最漂亮。


结果GPT说对不起,每个人的审美不同,我们不能帮你做这个排名。它背后的意思是什么呢?就是伦理上不能让一个人工智能系统去给所有的美女都做排名。


所以意味着什么?意味着肯定是以前用人做过类似测试,知道出了类似问题怎么回答。


也就是说,AI从全网学习的数据当中沾染的人类社会问题,还需要用人跟它去互动,来帮它去纠正。


相当于我们的孩子,可能在社会上学了一些不太好的东西,学校里老师就要想办法帮他纠正过来,孩子才能健康成长。


但是现在谷歌这么做,我们可完全不赞同,因为他们直接给停了,有点简单粗暴了。


相当于孩子学数学,做错了一道数学题,然后老师就说以后再也不许碰数学了,那他怎么可能进步?怎么可能成长呢?所以正确的做法是要允许他犯错误,但是要纠正。


谷歌可能又犯了心急的毛病了。因为谷歌一直对应用的重视程度不够,现在可能因为竞争起来了,想重视应用,但是毕竟他们在如何做好应用这方面经验确实不足。


一方面着急上火,想赶紧把应用推出来。另一方面就是应用推出来的时候准备不足。理论上讲,你想把应用尽快地推出来也没关系,多雇点人来跟它互动、来纠正,然后再推出,问题就解决了。


所以我们讲,人工智能走到社会的时候,很多问题都已经不是技术问题了,而是如何去让社会接受的问题。企业要理解人工智能和社会的关系,要能够事先把很多问题解决掉。


我们也呼吁社会要对人工智能公司多一些宽容,允许他们犯错误。当然不是说犯了错误视若无睹,而是积极指出,并且相信他们能够改正。


就相当于,我们相信一个孩子小学数学题做错了,只要你积极指出,他的数学还是会进步的,将来还可能成为数学家的。


以上是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球风口微信号,报名加入!


王煜全要闻评论,我们明天见!


图片

【回放地址


长按扫描二维码加入科技特训营,可观看所有直播和回放。


图片

以上内容来自专辑
用户评论
  • 熱気球_an

    简单说两句不愧是谷歌,翻车老手。

  • 熱気球_an

    政治正确惹的祸。