世界

人类最近一直在殴打计算机谷歌的AlphaGo人工智能(AI)以4-1击败Go大师Lee Se-Dol只是技术战胜人类的一系列追求中最新的自动驾驶汽车已经不如人类驾驶员容易发生事故,电视测验显示危险!这是一个失败的原因,在国际象棋中,人类已经在计算机背后黯然失色,最近的一场国际锦标赛是通过手机赢得的

真的有一种感觉,这个月的人类与AI Go的比赛标志着一个转折点Go一直被认为是要求超出数字计算机能力的人类直觉和模式识别水平AlphaGo赢得了世界上最好的球员之一,再次引发了人们对我们未来普遍应用深度学习和人工智能的担忧 - 对伊隆马斯克的着名表达的恐惧作为“我们最大的生存威胁”我们应该将AI视为威胁有两个原因,但我们可以采取一些方法来最小化这种威胁第一个问题是AI经常使用逻辑和启发式的组合进行培训,并强化学习逻辑和启发式部分有相当可预测的结果:我们将游戏或问题的规则编入计算机,以及一些人类专家指南s,然后使用计算机的数字运算能力比人类更进一步思考这就是早期国际象棋程序的工作方式虽然他们玩丑陋的国际象棋,但它足以赢得强化学习,另一方面,更不透明我们有计算机执行任务 - 例如播放Go - 重复它每次调整其策略并从其游戏结果中学习最佳动作为了不必彻底地玩人类,这是通过对着自己玩AlphaGo来完成的已经玩了数以百万计的Go游戏 - 远远超过人类所拥有的任何问题

人工智能将以人类永远不会想到的方式探索可能的动作和策略的整个空间,我们对它将从中得出的方法没有任何见解

探索在Lee Se-Dol和AlphaGo之间的第二场比赛中,人工智能做出了令人惊讶的举动 - 用评论员的话说“不是人为动” - Lee Se-Dol不得不离开房间15分钟掩盖他的沉着这是机器学习的一个特点机器不受人类经验或期望的限制直到我们看到AI完全出乎意料,我们甚至没有意识到我们对AI的移动毫不费力地移动的可能性有限

人类想象力的限制在实际应用中,人工智能意外的范围要广泛例如,股票交易人工智能将重新发明我们已知的每一种方法,以最大化投资回报它会找到几个尚未实现的方法不幸的是,很多股票收益最大化的方法 - 买单支持,协调交易等等 - 被认为是违法和不道德的价格操纵当你实际上不知道什么时,你如何阻止AI使用这些方法

它的方法是

特别是当它使用的方法虽然是不道德的,但人类交易者可能无法发现 - 实际上,人类不知道

认为我们能够预测或管理人工智能的最坏情况行为是荒谬的,因为我们无法想象他们的可能行为这导致我们遇到第二个问题即使是非常简单的人工智能也需要在道德和道德上行事,如果只是为了让他们的操作员远离监狱不幸的是,道德和道德不能简化为启发式或规则考虑Philippa Foot着名的小车问题:小车在轨道上失去控制在其路径中有五个人被绑在轨道上一个疯狂的哲学家幸运的是,你可以翻转一个开关,这将导致手推车沿着不同的轨道走向安全不幸的是,有一个人被绑在那条轨道上你应该翻转开关还是什么都不做

您期望 - 或指示 - AI会做什么

在一些关于手推车问题的心理学研究中,选择翻转开关的人被发现具有潜在的情绪缺陷并且在精神病的测量上得分更高 - 在这种情况下被定义为“以低同理心,冷酷的情感为特征的个性风格和激动人心的“这表明了处理AI的重要指南 我们需要理解并内化,无论他们如何模仿或超越人类,他们永远不会有内在的同理心或道德,导致人类主体选择不转换道德道德向我们暗示我们可能不会过无辜的生活,即使这条道路为最大数量的人带来了最大利益,如反社会人士和精神病患者,人工智能也许可以学会模仿移情和道德行为,但我们不应该期望有任何支持这种行为的道德力量,或者它会坚持反对纯粹的功利主义决定使用AIs的一个非常好的规则是:“我会让一个反社会的天才负责这个过程吗

”这个规则有两个部分我们把AI定性为反社会的,就意义而言没有任何真正的道德或同情的约束我们将它们描述为天才,因此能够采取我们无法预见的国际象棋和围棋的行动

也许在股市交易

嗯,瑞士的一项研究发现,股票市场交易员与经过认证的精神病患者有相似之处,虽然这不是一件好事但是你想要一个人工智能照顾你的奶奶,还是要掌管一只捕食者无人机

有很好的理由说明为什么人们在自主战争系统中循环的必要性存在激烈的争论,但是我们不应该对在不太明显危险的领域中发生灾难的可能性视而不见