好奇机器人能自学(3-3)

好奇機器人能自學(3/3)

科学家藉由模仿孩童探索世界,让机器人自发学会基本技能,而这些研究也协助科学家更加了解大脑运作。

(续前文)

预测误差引发社交

当我们与其他人互动时,大脑也在设法预测未来:我们一直尝试推测别人的意图,预期他们接下来可能会说的话。有趣的是,减少预测误差的动机就能引发基本的社交行为,机器人学家长井志江(Yukie Nagai)等人已于2016年在日本大阪大学证明了这一点。

研究人员发现,即使没有透过程式让iCub具备内在的社交功能,光是缩小预测误差的动机,也会让它以有效方式做出动作。例如,研究人员教导iCub推动玩具卡车后,它有时会看见研究人员无法把卡车推到正确位置,但它通常还是会完成同样的动作;仅为了增加卡车出现在特定位置的精确度。现任职于日本情报通信研究机构(NICT)的长井志江相信,婴幼儿也可能以类似方式发展技能。她指出,「婴儿不需要帮助他人」,单单降低预测误差的动机就能引发基本的社交行为。

「预测处理」(predictive processing)或许能帮助科学家了解自闭症这类发展疾病。根据长井志江的说法,一些自闭症患者可能对预测误差比较敏感,承受不住接踵而来的感官资讯,这可以解释他们反覆固定的行为,因为容易预测结果。

荷兰拉德邦大学的认知心理学家贝克林(Harold Bekkering)相信,预测处理也能帮助科学家解释注意力不足/过动症(ADHD)患者的行为。贝克林解释,根据这项理论,自闭症患者不喜欢受外界事物干扰,无法专心的人则是难以预测环境中的刺激,并会不断接收到这些刺激。他说:「一些对世界敏感的人会探索世界,对世界太敏感的人则会封闭自己。在预测程式架构中,你可以精确模拟这两种模式。」他的实验室正利用人脑造影来测试这项假设。

长井志江希望透过认知镜像(cognitive mirroring)研究来评估这项理论;在这项研究中,装设预测学习演算法的机器人会与人类互动。机器人透过肢体语言与脸部表情跟人类沟通时,会配合人类调整行为,因此可以反映人类对可预测性的偏好。如此一来,研究人员就能利用机器人模拟人类认知,然后检视机器人的人工神经网路,设法解译人脑。长井志江说:「我们可以把自己的特质输出到机器人,以更加了解自己。」

以机器人探索心智

研究这类机器人有助于解答心理学的一些关键问题,包括预测处理以及身体在认知发展上的重要性。史密斯说:「我们已学到关于複杂系统如何运作、身体的重要性,(以及)一些非常基本的事,例如探索与预测。」

然而,可以展现人类智慧般的机器人,仍是遥不可及的梦想–查皮依然是科幻故事。在此之前,科学家必须克服技术障碍,例如多数机器人的身体结构太脆弱、感觉性能也有限。(柔软机器人与电脑视觉这类领域的进展或许有所帮助。)更加困难的是,人脑构造极度複杂。虽然很多尖端研究极力模仿人类心智,科学家还是无法打造出堪可比拟的机器。乌德耶说:「我完全不同意有些人所言,在10或20年内就会出现人类智慧水準的机器。我想这显示人们对人类智慧的複杂度有很深的误解。」

再者,智慧不能只凭藉正确的机器与电路。一连串研究已经证明,照护与教育对儿童发展至关重要。谷淳说:「如果你问我,机器人能否变得像人类一样,我会问你,人类是否能像管教孩童一样管教机器人。如果后者成真,前者才有可能发生,否则我们无法期望机器人像孩童一样成长。」

逐渐累积知识的过程也不可或缺。史密斯说:「儿童发展是很複杂的级联系统(system of cascades)。某一天发生的事会成为(日后)发展的基础。」她指出,因此,除非找到方法整合人类一生循序渐进的学习过程,在此之前,我们不太可能打造出人类智慧水準的AI。

费曼(Richard Feynman)在过世前写下这句名言:「我不能创造的东西,我就不了解。」谷淳在2016年出版的着作《探索机器人心智》(Exploring Robotic Minds)中,调换了这个概念,他说:「我可以了解我能创造的东西。」他主张,了解人类心智最好的办法,就是创造一个。

将来,人类或许可以成功创造出能像孩童一样探索、适应与心智得以成长的机器人,或许还需要有人类的照顾与管教,让机器人健全成长。在此之际,这类机器人研究将持续展现关于孩童学习的珍贵见解,并且揭露AI基本机制出错时可能发生的事。(完)