服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

终于,GPT-4 将于下周问世!不仅能搞文字,还支持视频

日期: 来源:CSDN收集编辑:

整理 | 郑丽媛
出品 | CSDN(ID:CSDNnews)

作为当前全球最火的生成式 AI,ChatGPT 仅用了 3 个月,就几乎搅动了整个科技圈,人们不断惊叹于 ChatGPT 的强大——但微软和 OpenAI 想要的,显然不至于此。

目前的 ChatGPT,由 GPT-3.5 系列中的模型微调而成。而据微软德国公司 CTO 兼 AI 部门主管 Andreas Braun 最新透露:下周,GPT-4 就要问世了,还是多模态的。


GPT-4 的参数量将高达 100 万亿?


GPT,即 Generative Pre-trained Transformer,是由 OpenAI 提出的一系列非常强大的预训练语言模型。该系列模型基于互联网上的可用数据上进行训练,在 NLP(自然语言处理)方面表现卓越,可用于问答、文章生成、机器翻译、代码生成和对话 AI 等。

在 GPT 系列模型推出之前,传统的 NLP 模型都是针对特定任务(如分类、翻译等)进行训练的,并且往往使用监督学习,这就导致了两个问题:缺乏大量的标注数据,模型也无法概括和泛化任务。

于是,OpenAI 在 2018 年推出了 GPT-1,模型参数数量为 1.17 亿,通过未标注的数据训练出一种生成式语言模型,再根据特定的下游任务进行微调,将无监督学习作为有监督模型的预训练目标。

时隔一年后,2019 年具有 15 亿参数的 GPT-2 出现。与 GPT-1 相比,GPT-2 在结构上并没有太多创新与设计,使用了更大的数据集和更多的模型参数进行训练,以此强化并提高模型性能。

从 GPT-1 的 1.17 亿到 GPT-2 的 15 亿,超 10 倍的参数差距带来了性能上的飞跃。这似乎意味着,随着容量和参数量的增多,模型性能还有更大的潜力——因此,2020 年 GPT-3 的参数量翻了 100 倍:1750 亿,其预训练数据量也高达 45TB(GPT-2 是 40GB,GPT-1 约 5 GB)。

事实证明,海量参数确实让 GPT-3 具备了更强大的性能,它在下游任务表现的非常好。即便是复杂的 NLP 任务,GPT-3 也表现惊艳:可以模仿人类写作,编写 SQL 查询语句、React 或 JavaScript 代码等。

回顾 GPT-1 、GPT-2 和 GPT-3 这一路的发展,许多人对 GPT-4 寄予厚望,甚至还有传言称 GPT-4 的参数量将高达 100 万亿。


将在下周推出 GPT-4!


不过,去年 11 月 Cambrian AI 的分析师 Alberto Romero 就曾发文预测,GPT-4 不可能发展至 100 万亿参数:“对于下一代模型,OpenAI 会把重点放在优化数据处理而非参数大小上。因此 GPT-4 的规模可能与 GPT-3 相似,同时训练成本会更低。”

不久之后,OpenAI 首席执行官 Sam Altman 也在一次采访中,辟谣了 100 万亿参数的说法:“过于荒谬,关于 GPT-4 的谣言越传越离谱。”

距离 2020 年 GPT-3 问世已经过去两年多,业界一直都在期待 GPT-4 的发布,ChatGPT 的火爆更为此添了一把火。但对于 GPT-4,OpenAI 方面始终保密得很好,不论是发布时间还是规模大小,几乎都没有透露。

在今年 1 月,Sam Altman 表示:“我们总有一天会发布的,只要我们确定它足够安全。目前来看,GPT-4 的发布会比大家期待的要晚一些。但当我们真正发布时,人们一定会觉得,等待是值得的。”

现在看来,Sam Altman 所说的“晚一些”并没有让我们太久。

本周四,微软德国公司 CTO Andreas Braun 预告了下周 GPT-4 的发布:“我们将在下周推出 GPT-4。”除了发布时间,Andreas Braun 还透露了很关键的一点——GPT-4 将是多模态的。

这十分令人意外,因为 Sam Altman 曾在年 4 月对 Alberto Romero 明确表示:GPT-4 不会是多模态的,而是一个纯文本模型。

语言模型是多模态,这意味着什么?即:使用 GPT-4,可以生成文本、图像甚至视频。正如 Andreas Braun 所说:“有了 GPT-4,我们将拥有多模态模型,它将提供完全不同的可能性,例如视频。”

除此之外,Andreas Braun 还指出 GPT-4 将是一个“改变游戏规则”的技术,因为“他们教机器理解自然语言,然后以统计的方式理解以前只能被人类阅读和理解的内容”。与此同时,GPT-4 已基本“适用于所有语言”,例如可以用德语提问并得到意大利语的回答。

Andreas Braun 认为,通过多模态,微软(OpenAI)将“使模型全面化”。


“GPT-4 不是要取代人类工作”


听到 Andreas Braun 的“剧透”,一直关注着 GPT-4 动态的人们坐不住了:

  • “如果所有这些都得到证实,那下周将是疯狂的。我已经开始清理我的日程安排,为此腾出时间。”

  • “我希望他没有撒谎,哈哈!这听起来有点假。”

  • “到时候见!!希望千万不是炒作。”

但同时,也有不少人提出担忧:目前基于 GPT-3.5 的 ChatGPT,就已经威胁到部分人类岗位了,有了 GPT-4 岂不是更危险?

对此,微软德国公司 CEO Marianne Janik 回应称:“GPT-4 不是要取代人类工作,而是要以与以前不同的方式来完成重复性任务。”她建议,公司可以培训员工使用人工智能:“传统的职位描述正在发生变化,由于新可能性不断丰富,令人兴奋的新职业正在出现。”

目前,关于 GPT-4 的更多详细信息还无法得知,让我们一起静待下周它的发布。

参考链接:

https://www.heise.de/news/GPT-4-is-coming-next-week-and-it-will-be-multimodal-says-Microsoft-Germany-7540972.html

https://www.datacamp.com/blog/what-we-know-gpt4

☞小鹏汽车回应多名核心高管换血;OpenAI 总裁回应马斯克批评:我们犯了一个错误;GPT-4 或将于下周发布|极客头条
☞Windows 在美国采用率迅速下跌,只剩 57%,已至历史最低点!
☞程序员该如何处理遗留软件?


相关阅读

  • Nature:AI模型越大越好吗?

  • 新智元报道 编辑:Aeneas 好困【新智元导读】AI模型一定是越大越好吗?Nature采访了几位专家,反驳了这一理论。现在,生成式人工智能模型变得越来越大了,所以更大就意味着更好吗?
  • TASMO-自动测试建模好帮手

  • 作者 | ilil小编 | 吃不饱 对于一名汽车软件测试工程师,最关心的问题是如何高效完成产品测试。目前提高测试效率的方法主要有以下两个方向:一、提高测试建模的效率,最好能够实
  • 2023中国AIGC市场潜力研究报告

  • “未来几年内,AIGC技术将在多个领域落地,预计到2030年,AIGC的产业规模将突破千亿元。”01研究方向及背景AIGC是AI Generated Content的缩写,指利用人工智能技术生成的内容。它也
  • ChatGPT爆火之后,AIGC往何处去?| 峰瑞报告28

  • “ChatGPT”可能是从2022年底至今,最为出圈的科技热词之一。GPT是Generative Pre-trained Transformer的缩写,表示生成型预训练变换模型。这个由OpenAI研发的语言模型激起了人
  • 姬宝吐槽 | 蒙古上单现身哥谭!

  • 谢谢你,便宜侠!《七龙珠》别说黑人,连兽人都有,就这还不满足…老妈过来人“只要…就…”句式的神奇用法不影响使用,二手卖掉还算“全新未拆包装”在得知不是做肛拭子后,该男子失望

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 2023年第一场开源数据库生态技术盛宴,快来参加

  • 来啦!议程来啦!2023年第一场开源数据库生态技术盛宴——OceanBase 开发者大会将于3 月 25 日在北京开启,所有对开源分布式数据库感兴趣的开发者们将汇聚一堂,共同探讨数据库前沿
  • 互联网泡沫爆发 | 历史上的今天

  • 整理 | 王启隆透过「历史上的今天」,从过去看未来,从现在亦可以改变未来。今天是 2023 年 3 月 10 日,在 1876 年的今天,苏格兰裔美国人亚历山大·格雷厄姆·贝尔(Alexander Grah