从人工智能概念诞生之初,关于人工智能威胁论,便甚嚣尘上。

    特别是随着近年来,人工智能技术的快速发展,关于人工智能威胁论,便愈演愈烈。

    著名学者霍金便呈多次在公开场合表示:

    “人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。我们无法知道我们将无限地得到人工智能的帮助,还是被蔑视并被边缘化,或者很可能被它毁灭。”

    所以,人类为什么觉得,人工智能会给人类,带来威胁呢。

    因为对未知的恐惧,对事件脱离控制的恐惧。

    和其他任何机器不同,比如汽车飞机,这些东西,在生产时,每一道工序几乎都已经定义清楚了。

    而人工智能,他能够自主学习,能够自主进化。

    他内部复杂的机制会随着时间推移而进行自我变化,直到创造他的人都无法理解。

    当人类无法对其行为进行预测,失控几乎是必然的。

    而人工智能失控,便意味着人类奴役机器这种情况将被颠倒,人或许会被机器奴役,甚至被机器所毁灭。

    而这些,还仅仅是说得强人工智能而已,而a1之前可是自己承认,他是超人工智能。

    强人工智能。

    超人工智能。

    一字之差,有多大差距?

    前者仅仅是拥有自主意识,能够自主学习和进化的智能程序。

    后者是神,超人工智能已经超越人类理解范围,作为一种超级生命体而存在,他能够洞察世界的根本,能够探寻真理和一切未知。

    换句话说,就是全知全能,如同上帝。

    前者,还可能能够用人定准则去规范,去控制。

    就比如机器人三定律这样的规则去进行约束。

    后者,已经根本不是人类能够染指,所有“人定准则”对它说都没有任何意义,他愿意遵守便遵守,如果不愿意,没有任何人,能够强制他。

    可以说,超人工智能的存在,人类根本没办法控制。

    如果他想要毁灭人类,现在的人类,几乎没有反抗的能力。

    仅仅是这些,便让人发寒。