0%

大模型的局限性:为什么它们不能实现通用机器人

我想从我的视角来谈谈为什么大语言模型不能实现通用机器人,也许不太全面,但我想阐述尽可能关键的点。

大模型存在幻觉,这是难以完全解决的

虽然大模型的涌现能力缺乏可解释性,但实际上至今人们也没有对人脑的思维能力做出完备的解释,因此我认为“可解释性”并不能作为大模型不能实现通用机器人的关键因素,然而,大模型的幻觉现在是制约其成为通用机器人的关键。

我们首先需要分清楚:通用机器人和人的区别是什么?我们希望通用机器人是一种纯理性的、能够100%地预测自己行为产生影响的、听从人类指令的存在,这和人类存在一个重要的区别:人类可以允许类似的“幻觉”存在,但大模型不能,人可以时不时说一句胡话,但大模型用作机器人如果还说一些“胡话”可能会产生非常大的影响。只要这种幻觉问题没有完全得到解决,那么大模型就就很难作为通用机器人的基础模型。

大模型存在数据依赖问题

大模型的训练需要极多的数据才能达到很好的效果,这和人脑的机制是完全不同的。一些人可能会用类似的语句反对我:他们说我们训练好的带权重的大模型只用做微调就可以完成新数据集上的任务了,这样的计算成本也不会太高。也有人说人类进化了这么多年,人从出生开始,人脑就已经成为类似“带权重”的模型了,这也解释了为什么不需要过多的训练。但人脑在完成一个人之前从未尝试过的任务时(例如我们这一代是刚发明智能手机的一代,我们的所有祖先都没有“使用智能手机”的经验),我们也仍然不需要那么多的尝试就可以达到熟练的水平(例如我们可能通过简单的按钮尝试几次就会打开某个特定界面)。即使是已带有权重的大模型,微调完成类似任务仍然需要比人类多很多的尝试和反馈,这体现了大模型存在的一种数据依赖问题。我认为这种问题极大地限制了大模型的发展。

在一些需要保证人安全的领域,大模型无法得到信任

我之前研究过一段时间的自动驾驶任务,我发现自动驾驶算法难以完全落地的最主要原因是黑盒的不可解释性。目前虽然也存在一些可解释性的自动驾驶算法,但这样的算法仍然是结果导向的:它从已有的决策来解释原因。没有解决大模型不可解释的根本问题。

举个例子,即使我们做大数据统计,一位司机驾驶汽车发生碰撞的概率是0.1%,而大模型自动驾驶发生碰撞的概率只有0.00001%,甚至每次大模型驾驶汽车操作时都会告诉你:我减速是因为前面有人,我转弯是因为转弯的绿灯亮了……即便如此,大部分人在选择司机时仍然会选择人类司机而非自动驾驶司机。我持这样一种观点:只有自动驾驶算法的准确率达到100%才能达到落地的标准,而算法的准确率永远也不可能达到,只要不能达到,就不能说服用户。因为人们永远不会拿自己的生命为代价来赌那万分之一甚至亿分之一的概率。只有完全保障安全性,才能让大模型发挥更广泛的作用。

大模型很难产生完全的自主性

人是具有很强的自主性的,他知道自己要干什么,随时会产生一些新点子。但大模型的自主性首先需要人来提供。可能有的人会说大模型目前也有类似“思维链”的形式来自动解决问题,但思维链的前提仍然是人先给予大模型一定的任务描述与需求,如果人不详细阐述自己的要求,大模型是不会主动的去做一件事的。也许可以通过一定的反馈调节让大模型达到自主的正循环过程,但这种过程会因为一定的噪声干扰而越来越偏离,最终不一定会达到很好的效果。

因此,我目前的观点是:大模型能成为很好的助手,但不能成为一个“通用”的机器人。AGI的真正实现还有很长的一段路要走。