过去几年 , 半导体芯片一直是卡住我国科技发展的拦路石 。不论是智能手机 , 还是新能源汽车 , 一直都处于严重缺芯的动荡 。
如今的大模型也重蹈覆辙 。
据了解 , AI大模型需要极高的算力来训练 , 如同搭建城堡 , 基石直接决定城堡的成败 , 在大模型里 , 芯片的等级和数量就是那一块块基石 。
根据英伟达公布的信息 , 训练一次1750亿参数的GPT-3需要34天、使用1024张A100 GPU芯片;同时 , OpenAI可能至少需要32400张A100芯片用于日常推理 , 显著高于此前训练底层模型时的用量 , 以此推算 , ChatGPT硬件成本达8亿美元以上 。
昆仑万维集团CEO方汉也表示:“超过千亿级别的大模型 , 它的训练大概需要1000-2000张A100的卡 , 没有2000张A100的卡 , 实验都做不了;硬件成本约5000万美金 , 加上人力、电力、网络支出 , 一年需要5000万美金到1亿美金的投入 。”

文章插图
Nvidia Grace 超级AI芯片目前最适合ChatGPT的芯片为英伟达的旗舰芯片H100和次旗舰芯片A100 。因为市场需求量过大 , 这两款芯片的售价早早开始水涨船高 。
在短短三个月多时间里 , H100芯片暴涨近7万元人民币 , 售价普遍高达30万元左右;A100芯片从6万元一路涨至9万元 , 涨幅超过50% 。
同时 , 美国针对中国的出口管制政策依然适用于AI芯片 。从去年8月开始 , 美国政府发布出口管制政策 , 禁止英伟达将A100、H100两款芯片售往中国 。
在A100、H100芯片被美国受限后 , 很多公司不得不使用“阉割版”的A800、H800 。但阉割版芯片的数据因为传输速率低 , 内存小 , 直接影响到大模型的训练速度 。
中国企业目前能采购的A800芯片实测性能比A100芯片低5%-10%;最新应用GPT-4的英伟达H100芯片 , 更是比中国特供版H800的性能差距超过60% 。
据钛媒体报道 , 目前国内拥有英伟达A100/A800的厂商只有阿里、腾讯、字节跳动等几家科技巨头 , 大部分企业对高端GPU并没有直接采购需求 , 而是用更经济的调用云服务商的云计算能力 , 或是租用GPU芯片等硬件设备 。
但就算是阉割版的芯片 , 也被一抢而空 , 交付日期不断后延 。
有心杀贼 , 奈何缺芯 , 缺乏硬件的现实问题让中国大模型的未来蒙上一层阴影 。
抢人、抢人、抢人
除了应用场景、芯片之外 , 大模型赛道的内卷已经卷到人的身上 。
随着大模型项目一个一个成立 , 顶尖算法工程师成了新的兵家必争之地 。据了解 , 目前市场上已经存在几十个大模型项目 , 国内能够进行相关技术研发的人才却不超过1000人 。
据脉脉高聘人才智库最新调研数据 , 今年1-2月AIGC人才需求逆势上涨 , 岗位数量同比增长31.3% , 创下历史新高 。就连脉脉CEO林凡都忍不住在社交媒体上喊话:“ChatGPT带动的AIGC创业热潮要来了!猎头已经开出10万月薪抢人 。”
美团联合创始人王慧文发布“AI英雄榜”称:将拿出新公司光年之外75%的股份用于邀请顶级研发人才 , 并承诺解决项目资金问题;“放心施展你的才华 , 杂事交给我来打理” 。
李开复在朋友圈公开招聘:“我正在亲自筹组 Project AI 2.0 , 这是一家由技术愿景驱动 , 拥有卓越中国工程底蕴的创新企业 , 在全球范围号召世界级的人才 , 加入我们一起打造这个世界级的公司!”

文章插图
李开复朋友圈搜狗创始人王小川发布公开信表示:“我们呼唤中国的领军人物、行业产品经理和远在美国的同仁加入” , 并一举为00后至80后的技术人才列出5个招聘邮箱 。
在知名企业家的摇旗呐喊中 , 不但AIGC岗位数量同比增长35% , 就连图像识别、算法研究员、深度学习等岗位的年薪均大幅度剧增 , 已达百万元 。
在如今的草莽阶段 , 龙蛇起陆 , 速度意味着胜利 , 早一分时间集齐人才、算力、资金等资源 , 就意味着多占一分胜算与先机 。
推荐阅读
- AI大模型的未来市场在中国
- “AI的商业化路线已经清晰” 2023京东“赶考”千亿级产业大模型
- 与布达拉宫合影的三种正确打开方式,速度安排!!
- 藿香正气水小孩能喝吗?
- |小三上位逼死正宫,私生活混乱肆意捞金整容轧戏,老戏骨们要点脸!
- 朱丹|朱丹罕撒狗粮,和周一围十指紧扣散步,称5岁女儿戴眼镜矫正视力
- 钟嘉欣|钟嘉欣罕见晒三代同堂开心合影 父母罕见出镜露正面
- 曹云金|曹云金正式翻红,直播间人次过千万点赞上亿,说明了什么?
- 比亚迪|比亚迪回应“离职名额已满”传闻:招聘工作正常进行
- |外媒曝布拉德皮特求婚成功,小30岁女友还没和老公正式离婚
