AI表现出“意识”,人类该慌吗?

 ChatGPT的出现 , 显示出某些通用人工智能的特质 , 但以GPT-3.5和GPT-4为代表的大模型是否是通往AGI的路径 , 业内仍有分歧 。4月11日 , 中国国家网信办就《生成式人工智能服务管理办法(征求意见稿)》征求意见 。
美国东部时间3月28日 , 未来生命研究所发表一封公开信 , 呼吁所有AI实验室立即暂停研发比GPT-4能力更强大的AI系统 , 时长至少为6个月 。截至4月9日 , 这封公开信已收到超过5万个签名 。
这次发布的公开信指出 , 近几个月 , 全球人工智能实验室“陷入一场失控的竞争” , 以开发更强大的AI大模型 , 开发者乃至所有人都无法理解、预测或可靠控制这个AI系统 。AI开发人员必须与政策制定者合作 , 以显著加快开发强大的AI治理系统 。
4月11日 , 中国国家网信办就《生成式人工智能服务管理办法(征求意见稿)》征求意见 , 提出提供生成式人工智能产品或服务应当遵守法律法规的要求 , 尊重社会公德、公序良俗 。
ChatGPT在2022年11月推出后 , 在全球掀起热潮 , 谷歌、亚马逊及国内百度、阿里等一众大厂展开一场AI军备竞赛 , 致力于开发自己的大模型 。OpenAI今年3月推出更高级别的大模型GPT-4 , 同时也在研发GPT-5 。
AI表现出“意识”,人类该慌吗?

文章插图
图/视觉中国(19.680, 0.52, 2.71%)
4月10日下午 , 搜狗创始人王小川正式投身AI大模型的竞赛 , 创办公司百川智能 , 并称 “年底前发布对标GPT-3.5的大模型” 。同一天 , 商汤科技公布“日日新SenseNova”大模型体系 。更早前 , 美团联合创始人王慧文创办光年之外 。以ChatGPT为代表的大模型产品是否是AI发展的未来 , 又是否是通往通用人工智能的路径?面对人工智能的全面来袭 , 我们该恐慌吗?
欧盟正制定《人工智能法案》
【AI表现出“意识”,人类该慌吗?】“让我们享受一个漫长的AI之夏 , 而不是毫无准备陷入秋天 。”公开信的结尾这样写道 。公开信中 , 研究者们担心 , AI生成的谎言将充斥信息渠道 , 自动化替代所有工作 , 进化中的AI未来可能会超越乃至取代人类的思维 , 甚至让人类失去对文明的控制 。
未来生命研究所是位于美国马萨诸塞州的非营利组织 , 致力于推动AI负责任地发展 , 2018年 , 这一组织曾让SpaceX创始人埃隆·马斯克、谷歌旗下AI实验室DeepMind等一众AI从业者与机构签字承诺 , 永不开发杀手机器人(12.160, -0.13, -1.06%) 。这次公开信获得的签名支持 , 包括2018年图灵奖得主、“深度学习三巨头”之一的约书亚·本吉奥 , “AI领域最好的教科书”《人工智能:现代方法》的联合作者斯图尔特·罗素 , 以及曾是OpenAI创始人的马斯克等 。
AI表现出“意识”,人类该慌吗?

文章插图
4月10日 , OpenAI CEO山姆·阿尔特(12.510, -0.09, -0.71%)曼在东京会见日本首相岸田文雄后接受媒体采访 。图/视觉中国
中科院自动化研究所人工智能伦理与治理研究中心研究员曾毅也在公开信上签了名 , 他告诉《中国新闻周刊》 , 呼吁者最担心两点 , 一方面 , 技术将对社会产生哪些潜在影响 , 人类对此还没有做好准备;另一方面 , AI大模型生成的一些内容仍具有偏见和危害 , 不少AI大模型在开发时缺乏伦理安全框架 。
曾毅强调 , “AI末世论”不是当下需要担心的重点 。OpenAI并没有表明目前GPT-4是通用人工智能 , 但“并非通用人工智能真正到来时 , 人类的文明才会失控” 。在他看来 , ChatGPT成为用户获取知识的一种工具 。开发者为大模型投喂互联网级别的数据 , 输出端面对的又是开放性提问 , 这意味着不确定性大幅增加 。多位业内人士认同 , 目前AI技术带来了巨大风险 , 但人类对此准备不足 。面对数学、编程、归因等各类问题时编造与事实无关的答案 , 产生“幻觉” , 是GPT-4等大模型最受诟病的缺陷 , 更关键的是 , 机器在呈现错误答案时仍看上去非常“自信且具有说服力” 。


推荐阅读