牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)在他的《超级智慧(Superintelligence)》中提出所谓的回形针最大化的思想实验:一个AI被设计来制造回形针,并且在耗尽其最初的原材料供应之后,它将利用在其可达范围内的任何可用原子,包括人类。正如他在2003年的一篇论文中所描述的那样,从那时开始“首先转化整个地球,为回形针制造设施增加空间”。短时间内,整个宇宙都由回形针和回形针制造器组成。
对此,我表示怀疑。首先,所有这样的末日情景都涉及一长串的“如果-那么(if-then)”意外事件,在任何点的失败都会推到所谓的世界末日。西英格兰布里斯托大学的电气工程教授艾伦·温菲尔德(Alan Winfield)在2014年的一篇文章中这样说:“如果我们成功地构建与人类相同的AI,如果AI对它如何工作有着充分理解,如果它成功地改善自身成为超智能AI,如果这个超级AI意外或恶意地开始消耗资源,如果我们不能拔插头断电,那么,是的,我们可能有问题。这种危险,不是不可能,是不太可能发生。”
部分内容源于互联网,若涉及到您的权利,请及时邮件联系管理员jujingweb#yandex.com,发邮件时,请将#用@替换。