服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

ChatGPT 中,G、P、T 分别是什么意思?

日期: 来源:王建硕收集编辑:王建硕

流行的技术名词按发音难度排序,ChatGPT 肯定排在前面。

到底它为什么叫做 ChatGPT 呢?‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

先说 GPT:Generative Pre-Training Transformer

Generative 生成式

虽然我们已经习惯了话唠的机器人絮絮叨叨的说个不停,但这只是众多的人工智能模型的一种方式。比如还有识别类的(Congnition):人脸识别,车牌识别这些,还有语音识别,文字识别各种识别任务。(在提到模型的时候,也常常被叫做判别模型,discriminative)。Generative 这个大的种类里面有几个小分支,DALLE 的画图的用的是对抗网络方式 GAN (这个晚些可以分析),现在最火的Stable Diffusion, MidJourney 走向了另外一个分支,叫做 Difusion,而 ChatGPT 又是一个分支,就是转换器 Transformer。

而 Transformer Generative 的语言模型的核心,通俗的说就是「顺口溜」。

当看了足够多的文本以后,发现有一些语言模式是反复出现的。它之所以可以准确的填补「锄禾日当__ 」的空格,不是因为它在自己的大脑子里面重构了一副农民劳动的场景,仅仅是不过脑子,顺口溜出来的。

你问它: 3457 * 43216 = ,它回答 149575912 (这是错的。正确结果是 149397712)。之所以结果的 2 是对的,仅仅因为它读了太多的文字资料以后,隐约感觉到

7 结尾的文字,乘号,6 结尾的文字,和 2 结尾的文字比较「押韵」

从语感上比较像一首诗,所以它就学会了这样的文字,而不是学会了计算。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

生成式模型努力解决的问题,就是给定一些字,预测如果是人类会写什么字。

在 BERT 那个年代,为了训练,大家常常把一句话中随机几个单词遮起来,让计算机用现有的模型预测那几个单词,如果预测准了,就继续加强,如果预测错了,就调整模型,直到上百万上亿次训练之后越来越准。只不过 ChatGPT 的 Generative 的部分,不仅仅把文字,还把上下文、intention(意图)也放进去做训练和预测。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

Pre-Training 预训练

以前很多的人工智能模型都是为了一个目标训练的。比如给我 1000 张猫的照片,我就很容易的可以训练出来一个模型,判断一个图片是有猫还是没有猫。这些都是专用的模型。

而 Pre-Training 模型不是为了特定的目标训练,而是预先训练一个通用的模型。如果我有特定的需求,我可以在这个基础上进行第二次训练,基于原来已经预训练的模型,进行微调(Fine- Tuning)。

这事儿就像家里请了个阿姨,她已经被劳务公司预训练了整理家务的知识,在此之前已经被小学老师预训练了中文对话,到了我家里面我只要稍微 fine tune 一些我家里特定的要求就好了,而不需要给我一个「空白」的人,让我从教汉语开始把她彻底教一遍才能让她干活。

ChatGPT 的预训练就是给了我们所有人(尤其是创业者,程序员)一个预先训练好的模型。这个模型里面语言是强项,它提供的内容无论多么的胡说八道,至少我们必须承认它的行文通畅程度无可挑剔。这就是他 pre-training 的部分,而回答的内容部分,正是我们需要 fine tuning 的。我们不能买了个 Apache 服务器回来,不灌内容,就说他输出的内容不够呀。‍‍‍‍‍‍‍

Transformer 转换器

变电器就是一种 transformer:220伏电进,12伏出。

语言的转换器就是把语言的序列作为输入,然后用一个叫做编码器 encoder 的东西变成数字的表现(比如 GPT 就用 1536 个浮点数(也叫 1536 维向量)表示任何的单词,或者句子,段落,篇章等),然后经过转化,变成一串新的序列,最后再用 decoder 把它输出。这个转换器,是这个自然语言处理的核心。

比如如果给 ChatGPT 输入「Apple」这个词,它给你返回

[ 0.0077999732, -0.02301609, -0.007416143, -0.027813964, -0.0045648348, 0.012954261,.....0.021905724, -0.012022103, -0.013550568, -0.01565478, 0.006107009]
这 1536 个浮点数字来表示 Apple(其中一个或着多个维度的组合表达了「甜」的含义,另外一堆表达了「圆」的含义,还有一大堆共同表达了「红」等等属性组合,至于具体哪些表达了这些,不得而知)‍‍‍‍‍‍‍‍‍‍‍
然后这堆数字,再交给 decoder,并且限定中文的话,它会解码成为「苹果」,限定西班牙语的话,它会解码成「manzana」,限定为 emoji 的话,就输出「

相关阅读

  • AI开口说话,有你一份功劳|新年策划

  • “你好,我是 ChatGPT,我可以回答各种问题。”2022 年末科技领域最出圈的,无疑是 openAI 公司推出的聊天机器人 ChatGPT:写诗、debug、分析数据……任何棘手难题在它闪烁的光标之
  • 复旦团队发布类ChatGPT模型MOSS

  • 不要错过小棉袄的重要消息,记得星标~公众号回复QQ群获取群号复旦团队发布类ChatGPT模型MOSS近日消息,国内第一个对话式大型语言模型MOSS由复旦大学邱锡鹏教授团队发布至公开平
  • 万字拆解ChatGPT前世今生!

  • 最近有幸看到了一篇十分深度剖析GPT系列模型的文章,读到后赶紧与作者联系,没想到他们很快就翻译成了中文,在这里分享给大家。转自:李rumor英文原版:https://franxyao.github.io/b
  • 图解72个机器学习基础知识点

  • 图解机器学习算法系列 以图解的生动方式,阐述机器学习核心知识 & 重要模型,并通过代码讲通应用细节。本文为系列第1篇,梳理机器学习最常见的知识要点。1. 机器学习概述1)什么是

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • ChatGPT 中,G、P、T 分别是什么意思?

  • 流行的技术名词按发音难度排序,ChatGPT 肯定排在前面。到底它为什么叫做 ChatGPT 呢?‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍先说 GPT:Generative Pre-Training Transform
  • 本周六客齐集小聚,主题《ChatGPT 应用畅想》

  • 本周六,客齐集小聚继续如期举行(未来的每一个周六下午两点都会准时举行)。我们定下来每周都有一场,其实是为了节省大家的计划成本。如果本周没有时间,可以把下周六,或者再下周六加
  • 先有新工作机会,还是先失业?

  • 昨天标题写错了,纠正后再发一次。围绕 AI 导致失业的讨论,一直就没完没了。大家都没有精力去学习新的 AI 使用技能,只忙着焦虑了。有人说:「从宏观上看,你说的《AI 不会让我失业
  • 从迪拜到新加坡如同进入了天堂

  • 在没空写文章的时候,就把旅行的时候写的库存文章发出来。。。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍我在中东呆了一段时间,比如迪拜,阿布扎比,多哈这样的地方,忽然到达新加坡,就跟地
  • 迪拜是只允许右转的城市

  • 我见过两种世界。一种就像中国、美国或者任何一个国家的农村,楼房很低,密度很低,是到哪里都需要开车的世界。一种像纽约、上海、东京一样的世界:楼很高,密度很高,但去哪里都可以坐