
文章插图
《万物摩尔定律》截图
事实上 , 在人工智能的加持下 , 某些领域的演进速度已经大大加快 。有报道称 , 据OpenAI统计 , 从2012年到2020年 , 人工智能模型训练消耗的算力增长了30万倍 , 平均每3.4个月翻一番 , 超过了摩尔定律的每18个月翻番的增速 。
回顾OpenAI GPT模型的进化之路 , 具有十分明显的规模效应 。数据显示 , 2018年初代GPT参数量为1.17亿 , 2019年二代参数量达15亿 , 2020年GPT 3.0参数规模直接飞跃至1750亿 。
百度CEO李彦宏就曾公开指出 , 无论是技术层面还是商业应用层面 , 人工智能都有了方向性的改变 。
微软CEO纳德拉在接受访谈时也曾表示 , GPT的发展不是线性的 , 而是指数级变化的 , 所以相比较GPT-3 , 当前的GPT-3.5已经展现出更强的能力 。业界普遍预测 , GPT-4将在今年推出 , 并具备更强大的通用能力 。
毫无疑问 , 成指数级的增长让人工智能得以高速“进化” 。
刘江告诉采访人员 , 这样的“进化”并非只是量变 , 也不只是每次迭代相加的结果 。“有研究人员总结 , 相比于小模型 , 人工智能大模型已经出现了一百多种‘突变能力’ , 即大模型具备、小模型不具备的能力 。”
他觉得 , 这在某种程度上很像生物进化的过程 。“就好像大脑在不断量变后来到一个临界点 , 然后生物就产生了高等智能那样 。”

文章插图
资料图 。
巨大突破的曙光隐现?
1950年 , 计算机科学家艾伦·图灵提出了一个被称为“模仿游戏”的思想实验 。面试官通过打字机与两个对象交谈 , 知道一个是人 , 另一个是机器 。图灵建议 , 如果一台机器能够始终让面试官相信它是人类 , 我们就可以说它有能力思考 。这就是著名的“图灵测试” 。
迄今为止 , 还没有人工智能模型能真正通过图灵测试 , 包括ChatGPT 。甚至 , ChatGPT暴露出待解决、待完善的问题还有很多 。
李笛就明确指出 , ChatGPT至少存在内容准确问题、运行成本问题、即时性问题 。“这些都是根源问题 , 很难在ChatGPT上得到解决 , 可能要等新的产品和应用出来 。”
以内容准确问题为例 , 李笛认为 , 作为知识系统 , 最基本的要求是准确 , 但ChatGPT的技术结构决定了它提供的知识很难作到准确 。
事实上 , 该问题已经给人工智能公司造成了真金白银的损失 。
“我可以告诉我9岁的孩子关于詹姆斯•韦伯太空望远镜(James Webb Space Telescope , 简称JWST)的哪些新发现?” 谷歌推出的类ChatGPT功能Bard回答中包括“JWST拍摄到了太阳系外行星的第一张照片” 。
但真实的情况是 , 第一张系外行星照片是由欧洲南方天文台的Very Large Telescope (VLT)在2004年拍摄的 。当天谷歌股价大跌约9% , 市值蒸发约1000亿美元 。
ChatGPT也存在类似的问题 。当采访人员向ChatGPT询问“ChatGPT目前暴露出哪些待解决、待完善的问题”时 , 它给出的回答与ChatGPT网站上人类列出的其局限性有所出入 。

文章插图
ChatGPT截图
还有成本问题 。据报道 , 有研究估测 , 训练1750亿参数语言大模型GPT-3 , 需要有上万个CPU/GPU24小时不间输入数据 , 所需能耗相当于开车往返地球和月球 , 且一次运算就要花费450万美元 。此外 , ChatGPT投喂的数据质量、广泛的应用场景、持续的资金投入都缺一不可 , 更不用说还有开发 AI 产品的边际成本以及悬而未决的全栈集成能力 。
对此 , 刘江直言 , 大模型目前对算力要求很高 , 门槛也高 , 必然是技术密集、资金密集、人才密集型的 。“人工智能从小模型到大模型 , 只能说在技术上迈进了一步 。但人工智能要突破所谓的‘奇点’ , 即人工智能发展到比人‘聪明’且能够自我‘进化’ , 还有一段距离 。”
推荐阅读
- ChatGPT有多烧钱?大模型训练一次200-1200万美元
- OpenAI回应|ChatGPT为何不向所有中国用户开放注册?
- Linux系统设置文件权限,多用户模式下文件权限管理
- ChatGPT 帮你摸鱼?“天选打工人套餐”来了
- ChatGPT为何没能诞生在中国?
- 原来找一个人这么简单!打开微信隐藏功能,按一下就能知道对方位置了
- 难怪手机会偷偷自动下载安装软件,原来是这个开关没关闭
- 显微镜下的大明|《显微镜下的大明》:全员皆恶,无人不冤
- 陈一发直播时,桌子下面有人 陈一发凉了
- am软件电脑版?am什么手机可以下载?
