欢迎来到我司Viking代理产品网站!
一项新研究发现,人类不可能控制超级人工智能
Viking代理 2024-04-20

计算能力有限,但人类无法控制超级人工智能。

最近,一项新的研究发现,从理论上讲,人类不可能控制超级人工智能。

更糟的是,这项研究还明确指出,人类无法在生成这种AI时发现它。

令人欣慰的是,根据多个预测,任何通用超级计算机超越人类的时间都将相差数十年。

近年来,在国际象棋,围棋,德州扑克,危险游戏和其他游戏中,人工智能已经超越了人类。

在Dota2和StarCraft游戏中,它与顶级玩家来回玩耍,这将不时引起小恐慌。

有些人担心。

超越人类的机器智能将有一天使人们无所适从。

“关于超智能是否受人类控制的问题实际上是很老的了,”他说。

西班牙马德里自治大学的计算机科学家Manuel Alfonseca说。

“它必须追溯到1940年代阿西莫夫的三项机器人技术定律”。

随着超级人工智能的发展。

任何形式的交流都是冒险者熟悉的机器人的三大法则。

首先,在1942年科幻小说家艾萨克·阿西莫夫(Isaac Asimov)的短篇小说集中提出了“ I,Robot”。

规则如下:禁止机器人伤害人类,或坐着观看人类受伤;除非顺序与第一定律相抵触,否则机器人必须遵守人类的命令;机器人可以保护自己,而不会违反第一定律或第二定律。

在“机器人与帝国”一书中, 1985年,阿西莫夫(Asimov)将三项法律扩展为四项法律:添加第零规则机器人不能伤害整个人类,也不能坐着观看整个人类受到的伤害。

2014年,牛津大学人类未来研究所所长哲学家尼克·博斯特罗姆(Nick Bostrom)不仅探索了超级人工智能可以摧毁人类的方式,而且还研究了此类机器的可能控制策略以及它们无法工作的原因。

Bostrom列举了对此“控制问题”的两种可能的解决方案。

一种是控制AI可以做什么,例如阻止AI连接到Internet。

另一种方法是控制AI想要做的事情,例如教授AI规则和价值观,以便它可以按照人类最大利益的原则行事。

博斯特伦认为,第一种解决方案的问题在于,超级智能机器可能会摆脱人类对其施加的任何限制。

第二种解决方案涉及人类可能无法训练超级人工智能。

计算的固有局限性可能导致人类无法控制超级人工智能。

在本月初发表在AI领域顶级期刊上的一篇文章中,“人工智能研究杂志”马德里自治大学马克斯·普朗克人类发展研究所(JAIR),其他机构的研究人员认为,由于计算固有的基本局限性,人类可能无法控制超级人工智能。

他们表示,旨在确保超级人工智能不会伤害人类的任何算法都必须首先模拟机器行为,以预测其行为的潜在后果。

如果超智能机器确实确实可能造成伤害,则这种类型的遏制算法(遏制算法)需要停止机器的运行。

但是,科学家认为,任何抑制算法都不可能模拟AI的行为,并且不可能100%地预测AI的行为是否会造成伤害。

抑制算法可能无法正确模拟AI的行为或无法准确预测AI动作的后果,并且可能无法区分这些故障。

论文地址:https://jair.org/index.php/jair/article/view/12202/26642“ Asimov的第一部法律实际上已被证明是无法计算的”。

阿方塞卡说。

"因此,不可能实现。

我们甚至都不知道我们是否创造了超级智能机器,这是赖斯定理在可计算性理论中的推论,该定理阐明了递归可枚举语言的所有非平凡性。

性质是不可决定的。

本质上,仅观察程序本身就无法知道程序可能输出什么。

当然,另一方面,我们不需要为将来的机器人大师做好提前准备的准备。

在这项研究中,存在三个重要的问题,这些不确定性给本文的推论带来了不确定性。

首先,阿方塞卡(Alfonseca)预测,强大的人工智能的关键时刻仍然遥遥无期。

他说:“至少还有两个世纪”。

其次,人们究竟称其为通用人工智能还是str还是未知之数。