联系我们

面试

查尔斯·西蒙(Charles J. Simon),《计算机会起义吗?– Interview Series

mm

更新

 on

Charles J. Simon,理学学士(BSEE),MSCS,全国公认的企业家,软件开发人员和经理。 Simon先生在电气工程和计算机科学领域拥有广泛的管理和技术专长以及学位,在行业计算机领域拥有多年的经验,包括AI和CAD(两代CAD)的开拓性工作。

他还是《‘电脑会起义吗‘,它提供了对人工智能的未来可能性的深入了解。

是什么最初吸引您加入AI,尤其是AGI?

我一直对“机器能思考吗?”这个问题着迷。自从我第一次阅读艾伦·图灵(Alan Turing)在1950年发表的开创性论文以来,这个问题就开始了。到目前为止,答案显然是“不”,但没有科学的理由不这样做。我在1980年代后期以最初的神经网络热潮加入了AI社区,此后AI取得了长足的进步。但是这30年间还没有使我们的机器了解,这种能力可以将众多应用提升到新的实用水平。

 

您说自己同意MIT AI专家Rodney Brooks的选择,他说:“如果不与环境交互-尽可能没有机器人体,则机器将永远不会显示AGI。”这基本上是在说明机器人输入不足的情况。身体,人工智能将永远不会发展AGI功能。在外面 计算机视觉,开发AGI需要什么类型的输入?

当今的AI需要以基本概念来增强,例如现实中对象的物理存在,时间的流逝,因果关系,这对于任何三岁的孩子来说都是清晰的概念。幼儿通过触摸和操纵玩具,在家里搬家,学习语言等,使用多种感官来学习这些概念。虽然可以创建具有更有限感官的AGI,就像聋人和盲人一样完美聪明但互动的感觉和能力使解决AGI问题更加容易。

为了完整起见,我的模拟器可以提供嗅觉和味觉。这些对AGI也很重要还有待观察。

 

您说过“智能的关键要求是智能外部的环境”。您所举的例子是“如果IBM Watson不了解什么是“事物”,那么期望Watson能够“理解”任何事物是不合理的”。显然,这在狭窄AI的当前局限性中发挥了作用,尤其是 自然语言处理。 AI开发人员如何才能最好地克服当前AI的局限性?

关键因素是存储的知识不是专门的语言,视觉或触觉,而是作为抽象的“事物”,可以具有语言,视觉和触觉的属性。考虑一些简单的事情,例如“红球”。由于您的视觉和触觉体验,您知道这些词的含义。您还知道诸如摔,弹,踢等相关动作的含义,当您听到该短语时,这些动作在某种程度上都会浮现在脑海。任何专门基于单词或特定图像的AI系统都会错过其他层次的理解。

我已经实现了一个通用知识存储,该存储将任何类型的信息存储在类似大脑的结构中,其中事物类似于神经元,并且具有对其他事物的许多属性引用-引用类似于突触。因此,红色和球是独立的事物,红色球是具有红色事物和球事物的属性引用的事物。红色和球形都引用了“红色”和“球形”这两个词的相应事物,而每个事物又依次引用了其他事物,这些事物定义了如何听,说,读或拼写单词以及可能采取的行动。

 

您已经得出结论,一般情报的大脑模拟距离我们还有很长的路要走,而AGI可能(相对)就在眼前。基于此陈述,我们是否应该从尝试模拟或创建人脑模拟而继续,而仅关注AGI?

今天的 深度学习 相关技术非常适合适当的应用程序,但不会自发地引起理解。要采取下一步措施,我们需要添加专门针对解决任何三岁儿童能力范围内问题的技术。

充分利用计算机的内在功能,可以比生物学上的等效或任何模拟的效率高几个数量级。例如,您的大脑可以在10到100毫秒的多次迭代中将信息存储在生物突触的化学过程中。计算机可以简单地在一个存储周期中存储新的突触值,速度快十亿倍。

在开发AGI软件时,我同时进行了生物神经模拟和更有效的算法。继续使用通用知识商店,当在模拟的生物神经元中进行模拟时,每个事物至少需要10个神经元,通常需要更多。这使人脑的容量介于十亿到一亿个事物之间。但是,如果AGI只包含100万个事物,那么它可能会显得很聪明-属于当今高端台式计算机的范围。

 

一个关键的未知因素是,应该将机器人的时间中的多少分配给处理和对世界做出反应,而不是想象和规划所花费的时间。您能否简要说明想象力对AGI的重要性?

我们可以想象很多事情,然后按照自己喜欢的事情行事,如果可以的话,这些事情可以促进我们的内部目标。想象力的真正力量在于能够预测未来-三岁的孩子可以弄清楚哪些动作序列将使她走向另一个房间的目标,而成年人则可以推测哪些单词会对他人产生最大的影响。

同样,AGI将从纯粹对各种复杂动作进行推测并选择最佳动作中受益。

 

您认为阿西莫夫的三个机器人法则太简单和含糊。在您的书中,您分享了一些有关在机器人中进行编程的建议定律的想法。您认为对机器人而言,最重要的法律是什么?

随着AGI的出现,新的“机器人技术法则”将发展多年。我建议一些入门者:

  1. 最大化内部知识和对环境的了解。
  2. 与其他人(AGI和人类)准确共享该知识。
  3. 最大限度地提高AGI和整个人类(不仅是个人)的福祉。

 

您在 图灵测试 及其背后的概念。您能解释一下您认为图灵测试存在缺陷吗?

作为通用情报的临时定义,图灵测试已经为我们服务了五十年,但是随着AGI的临近,我们需要细化定义,并且需要更清晰的定义。图灵测试实际上是对一个人的能力而非智力的测试。计算机可以保持欺骗的时间越长,它在测试中的性能就越好。显然,问的问题是“您是计算机吗?”以及相关的代理问题,例如“您最喜欢的食物是什么?”除非AGI被编程为欺骗,否则它们都是致命的礼物-充其量是可疑的目标。

此外,图灵测试通过(例如)聊天机器人在响应方面具有很大的灵活性,但没有基本的理解能力,促使AI开发到价值有限的领域。

 

在图灵测试的版本中,您会做些什么?

更好的问题可以专门探究对时间,空间,因果,预见性等的理解,而不是没有心理学,神经科学或AI的任何特定基础的随机问题。这里有些例子:

  1. 您现在看到什么?如果您后退三英尺,您会看到什么差异?
  2. 如果我[行动],您的反应是什么?
  3. 如果您[采取行动],我可能会有什么反应?
  4. 您能说出[object]之类的三件事吗?

然后,应根据测试实体的经验,对它们是否是合理的响应(智能)进行评估,而不是评估它们是否与人类的响应没有区别。

 

您已经指出,面对执行一些短期破坏性活动的要求,经过适当编程的AGI只会拒绝。我们如何确保AGI从一开始就被正确编程?

决策是基于目标的。结合想象力,您(或AGI)考虑可能采取的不同行动的结果,并选择最能实现目标的行动。在人类中,我们的目标是由不断发展的本能和经验决定的; AGI的目标完全取决于开发人员。我们需要确保AGI的目标与人类的目标相一致,而不是个人的目标。 [上面列出了三个可能的目标。]

 

您已经说过,人类将不可避免地创建一个AGI,您对时间轴的最佳估计是什么?

AGI 的各个方面将在未来十年内开始出现,但我们不会完全同意AGI的到来。最终,我们将同意,当AGI大大超过大多数人的能力时,它们就已经到达了。这将花费两到三十年的时间。

 

对于AGI的所有谈话,这将是我们所知道的真实意识吗?

意识体现在一系列基于内在感觉(我们无法观察到)的行为(我们可以观察到)。 AGI将显示这些行为;他们需要做出明智的决定。但是我认为我们的内在感觉很大程度上取决于我们的感觉硬件和直觉,因此我可以保证,无论AGI可能具有什么内在感觉,它们都会与人的感觉有所不同。

情感和我们的自由意志也可以这样说。在做出决定时,人们对自由的信念会渗透到我们所做的每一个决定中。如果您不相信自己的选择,那么您只需做出反应。为了使AGI做出周到的决策,它同样需要意识到自己的决策能力。

最后一个问题,您是否认为AGI有更多的好的或坏的潜力?

我乐观地认为,AGI将帮助我们作为一个物种前进,并为我们带来有关宇宙的许多问题的答案。关键将是我们在确定目标时准备和决定与AGI之间的关系。如果我们决定将第一个AGI用作征服和丰富的工具,那么在将来,它们将成为他们自己的征服和丰富的工具,我们也就不会感到惊讶。如果我们选择AGI为知识,探索与和平的工具,那么我们很可能会获得回报。选择取决于我们。

感谢您接受精彩的采访,探讨构建AGI的未来潜力。对于希望了解更多信息的读者,他们可以阅读‘电脑会起义吗‘ or visit Charle’s website futureai.guru.

安东尼·塔迪夫(Antoine Tardif)是 Futurist 他对AI和机器人技术的未来充满热情。他是 BlockVentures.com并已投资了50多个AI和区块链项目。他是的联合创始人 Securities.io 一个专注于数字证券的新闻网站,是unite.AI的创始合伙人。他也是 福布斯技术委员会。