随着人工智能变得越来越复杂,公众越来越关注这些技术在国际象棋和其他策略游戏中如何成功地与人类竞争。来自休斯顿大学的一位哲学家采取了不同的方法,解构机器学习中使用的复杂神经网络,以阐明人类如何处理抽象学习。
“随着我们越来越多地依赖这些系统,重要的是要了解它们的工作方式和原因,”哲学助理教授,发表在Synthese期刊上的一篇论文的作者Cameron Buckner说。反过来,更好地理解系统如何工作,使他深入了解人类学习的本质。
自柏拉图时代以来,哲学家一直在争论人类知识的起源 - 是天生的,基于逻辑的,还是知识来自世界的感官体验?
Buckner总结道,深层卷积神经网络(DCNNs)表明,人类的知识源于经验,一种被称为经验主义的思想流派。他说,这些神经网络 - 多层人工神经网络,其节点复制神经元如何处理和传递大脑中的信息 - 展示了如何获取抽象知识,使网络成为神经科学和心理学等领域的有用工具。
在该论文中,Buckner指出,这些网络在涉及感知和歧视的复杂任务中的成功有时超过了科学家理解它们如何工作的能力。
虽然一些构建神经网络系统的科学家引用了英国哲学家约翰洛克和其他有影响力的理论家的思想,但他们的重点一直是结果而不是理解网络如何与人类认知的传统哲学叙述相交叉。考虑到使用AI进行抽象推理,Buckner开始填补这个空白,从策略游戏到椅子,艺术品和动物的视觉识别,考虑到有利位置,颜色,风格和其他方面的许多潜在变化,这些任务非常复杂详情。
“计算机视觉和机器学习研究人员最近指出,三角形,椅子,猫和其他日常类别是如此难以识别,因为它们可能会遇到各种不同的姿势或方向,这些姿势或方向在他们的低水平的知觉属性,“巴克纳写道。“...从前面看到的椅子看起来不像从后面或上面看到的同一把椅子;我们必须以某种方式统一所有这些不同的视角,以建立一个可靠的椅子探测器。”
为了克服这些挑战,系统必须控制所谓的烦扰变化,或通常影响系统识别物体,声音和其他任务的能力的差异范围,例如,音调和音调。解释和消化可能性多样性的能力是抽象推理的标志。
巴克纳说,DCNN还回答了另一个关于抽象推理的挥之不去的问题。从亚里士多德到洛克的经验主义者呼吁抽象学院完成他们对思维如何运作的解释,但直到现在,还没有一个很好的解释。“这是第一次,DCNN帮助我们了解这些教师的实际工作方式,”巴克纳说。
他的学术生涯始于计算机科学,研究基于逻辑的人工智能方法。早期人工智能与动物和人类实际解决问题的方式之间的明显差异促使他转向哲学。
他说,不到十年前,科学家们相信机器学习的进步将无法产生抽象知识。现在机器在战略游戏中击败人类,无人驾驶汽车正在全球范围内进行测试,面部识别系统从手机到机场随处可见,寻找答案变得更加紧迫。
“这些系统在别人失败的地方取得成功,”他说,“因为他们可以获得对人类自动产生的那种微妙,抽象,直观的世界知识,但直到现在已经证明无法编入计算机。”