AI表现出“意识”,人类该慌吗?( 七 )


以ChatGPT为代表的大模型看上去会思考和推理 , 但与人类智能完全不同 。李笛向《中国新闻周刊》解释 , 如果询问ChatGPT“刺杀林肯的凶手在刺杀林肯时 , 跟林肯是不是在同一个大陆?”更早版本的GPT无法回答这个问题 , ChatGPT能给出正确答案 , 但它的思考逻辑是 , 先查询刺杀林肯的凶手在刺杀林肯时在哪里 , 再查林肯当时在哪里 , 最后对比两个地点后回答 , “这对于人来说 , 是非常荒唐的逻辑链” 。
在托马斯·波焦看来 , GPT-4和人的不同之处在于 , GPT-4没有个性 , 因为它没有超越个人会话之外的记忆 , 就像电影《记忆碎片》的主人公 , 当下的记忆只能停留几分钟 。GPT-4没有任何在物理世界的直接经验 , 所以可能很难控制机器人的肌肉或电机 , 此外 , GPT-4比人脑消耗非常多的训练能量 。
“如果把大模型类比成一个生命体 , 它的人生目标是由人类制定 , 而目标之外的事情它并不知道 。这是大模型与人最大的区别 。”刘知远认为 , 大模型不知道什么是自我 , 可能完全没有考虑过 , 人们可以去询问它这个问题 , 它也会给出答案 , 但这是因为你问了问题 , 它需要预测下一个词是什么 , 它没有产生意识 。
孙茂松对《中国新闻周刊》分析说 , 一年前 , 如果有人问他 , 他绝对不说大模型会导致通用人工智能 , 但ChatGPT出现后 , 他认为这是一条可行的路径 。即便谈到机器的意识和情感 , 他认为 , 大模型也可以试着让机器具备某种“意识” , 哪怕只是看上去有意识 。比如 , 开发者可以明确告诉机器扮演一个人设 , 它就会表现出好像具有某种意识 。
“这是行为主义的逻辑 , 你可以认为它只是表象 , 不是本质 , 但能做到这点 , 内在机制一定有其合理性 。只要现象足够好 , 可以为人所用 。”在孙茂松看来 , 从人工智能概念诞生之初 , 人们就试图用摸清人脑机理的方式来做人工智能 , 这是理性主义的做法 , 无疑是一条正确的道路 , 不会出现大模型高耗能的缺点 , 但问题是实现难度要比大模型大得多 。“这两条道路没有对错之分 , 现阶段是以成败论英雄 。但理性主义这条路人们也从未放弃 , 总有人在坚持 , 需要天才式的科学家 。”
采访人员:杨智杰 霍思伊




推荐阅读