chatGPT问题持续火暴!衍生出大量讨论,并突然让AICG行业爆火,但chatGPT到底能做到什么?在自然语言处理领域,它的能力是无限增长的吗?我们是否在见证人造智慧的崛起?我们这次深入chatGPT的运作原理,了解它与人的差异。
内容包括:
11:30 chatGPT到底是什么?纯能指接下岔程序
29:58 从语词到数字,chatGPT如何编织能指
01:08:28 long-tailness of every important things
01:30:52 到底谁会被替代?社会的塔勒布化
希望今天的内容能够对你有所启发。
[ 欢迎在Patreon和爱发电支持翻转电台 ]
如果你过去有在Patreon支持其他项目的经验,优先推荐使用Patreon,因为其有按月订阅的制度:
https://www.patreon.com/flipradio
如果你从来没有在Patreon支持其他项目的经验,可以在爱发电: https://afdian.net/@flipradio
感谢大家对翻转电台的支持。大家要记得敢于去相信。并敢于分享你的相信。
补充一句关于词汇分布的generality问题,针对每一个词汇,横轴是词汇分布远近,左边是最近,右边是最远,纵轴是词汇数量。那么最终呈现是正态分布的,最近的大概是is was do don’t 这些词,最远是语料中最少出现的。在这个正态分布中,根据attention和算法机制,机器最容易接下岔的是正态分布峰值的词汇,左侧是被attention机制排除的,右侧是被函数排除的。对于一个词如此,多个词语的分布关系就更是如此,但重要的“long-tailness”都分布在最右侧,就是看似长尾,其实肥尾的部分
举例问题会不会是因为我们实际上每次举例都是演绎的,也就是说都是一个创作过程。首先我们每次说一个例子都会有一些不一样,尤其复杂的例子。其次我们每次为了说明道理会对例子进行特殊的阐释,甚至拼凑和虚构。另外甚至我们有时候根本就是编一个故事来说明,就好比有一个人,一天他如何如何。gpt根本上是给予已有信息的统计,所以是无法真正创造的。 另外就是所谓长尾也好,某种句式也好,对于gpt,它就是看频率,它的语料库来自于普通人的会比较多,包括面向大众的刊物和书籍,那么就是越常见的就越容易被用到。我觉得之所以叫chat,平时聊天聊简单问题下的表现好一些。
Multihead部分的介绍有误,每个head都会看到所有词
好用
塔勒步的哪本书?
我用的时候感觉它一个很大的盲区是“谐音”,例如要求它写一个谐音笑话,往往既不谐音又没有逻辑
翻转Radio 回复 @机械水母: 试试英文