人工智能颠覆人类的想法已经讨论了数十年,科学家们刚刚就我们是否具有控制高级计算机超级智能的能力做出了自己的判断。
答案?不幸的是,几乎可以肯定这是不可能的。
关键是要控制超出人们理解范围的超级智能,我们需要模拟我们可以分析的超级智能。
但是,如果我们不能理解它,就不可能建立这样的模拟。
进行这项研究的科学家表示,如果我们不了解将出现人工智能的情况,那么诸如“不伤害人类”的规则将被广泛采用。
无法设置。
一旦计算机系统的工作超出了程序员的能力,我们将无法再设置限制。
研究人员解释说:“与以机器人伦理为旗帜的典型研究相比,超级智能提出了一个根本不同的问题。
这是因为超级智能是多方面的,因此可以调动各种资源来实现人类可能无法理解的目标,更不用说控制了”。
研究小组的部分推理来自1936年Alan Turing的暂停问题。
问题的核心是知道计算机程序是否会得出结论并回答(因此它将暂停),或者只是继续循环试图找到结论和答案。
正如图灵通过一些聪明的数学所证明的那样,尽管从逻辑上我们可以了解某些特定的程序,但不可能找到一种方法让我们知道每个可能编写的程序都是这样。
这使我们回到了AI领域,处于超级智能状态,它可以同时将所有可能的计算机程序保存在内存中。
例如,旨在防止人工智能伤害人类并破坏世界的任何程序都可能得出结论(并停止),也可能不会得出结论。
从数学上讲,我们不能完全确定哪种情况,这意味着这是无法阻止的。
德国马克斯·普朗克人类发展研究所的计算机科学家Iyadrachwan说:“实际上,这使遏制算法无法使用”。
研究人员说,除了教导人工智能一些道德原则,并告诉它不要破坏世界。
在外部(没有算法可以绝对确定地做到这一点),另一种选择是限制超智能的能力。
例如,它可能与Internet或某些网络的某些部分断开连接。
这项新研究也拒绝了这一观点,认为这将限制人工智能应用的范围。
原因是,如果我们不打算使用它来解决人类无法理解的问题,那么为什么要创建它呢?如果我们想推动人工智能发展,我们甚至可能不知道何时会出现我们无法控制的超级智能。
这是它的不可理解性。
这意味着我们需要开始对我们的前进方向提出一些严肃的问题。
马克斯·普朗克人类发展研究所的计算机科学家Manuel Cepian说:“控制世界的超级智能机器听起来像科幻小说。
但是实际上,已经有一些可以供程序员使用的机器。
在不知道他们如何学习的情况下独立地执行某些重要任务。
“所以问题是,这是否会在某个时候变得不可控制,这对人类是危险的”。