来自世界各地的外交官上周在日内瓦会见了联合国第三非正式的专家会议在致命的自动武器系统(法律),通常被称为“机器人杀手”。
他们的目标是决定上取得进展如何,或者,法律应该监管之下国际人道主义法.
一系列的观点在会议上表示,赞成完全禁止来自巴基斯坦,英国支持任何新的监管法律,和几个职位。
尽管意见提供的范围,有一些共同点。
人们普遍同意,法律是由国际人道主义法。例如,机器人不能忽视的原则平民和士兵之间的区别,或在袭击的规模比例.
人类指挥官也会命令负责他们的机器人,就像他们做的男性和女性为他们服务。机器人不能依法用于犯下种族灭绝,屠杀和战争罪。
除此之外,大致有四个职位,不同的国家。
位置1:依靠现有的法律
英国的立场是,现有的国际人道主义法是充分调节新兴技术在人工智能(人工智能),机器人.
国际人道主义法的参数是足以调节飞机和潜艇出现时,它也会应付各种各样的法律。这将包括捕食者无人机用一个“道德”——这是软件设计的罢工是否符合指定的交战规则和国际人道主义法或自治反潜舰艇,比如美国海军的实验自治海猎人.
职位2:机器学习的禁令
法国代表团表示,禁令将“过早”,他们愿意接受一个“的合法性的循环法”与“人类更广泛的循环”。这意味着这台机器可以选择目标和自主,但是人类仍然设置交战规则。
然而,他们是开放的调节机器学习在“循环”的法律(尚不存在)。因此,他们可能会支持禁止任何自学AI——类似于未来AlphaGo最近击败了人类世界冠军——直接控制的导弹没有人类更广泛的循环。主要的担忧是,这种AIs可能是不可预知的。
位置3:禁止“从循环”与“人类在更广泛的循环”
荷兰和瑞士代表团建议“循环”系统和“人类在更广泛的循环”可能会遵守国际人道主义法,充分表现出有意义的人类控制和满足公众的良心的指示。
英国、法国和加拿大说反对禁止这样的系统。
提倡这样的机器人武器声称他们可能道德上优于人类士兵,因为他们会更准确、更精确和更少的倾向于错误决策造成的恐慌或报复。
反对者认为他们可以mistarget凌乱或闭塞的环境和道德上不可接受的。
例如,教廷和其他13个国家认为一个实时人工干预决定生活在道德上是必需的,所以必须有人类的循环。
这个职位需要异常已经部署“防御性”武器等密集方阵近防武器系统,长期被认可的“循环”武器,如海军水雷,自1860年代以来已经存在。
位置4:禁止在循环的武器
巴基斯坦和巴勒斯坦将支持任何测量广泛足以禁止遥控器无人机。然而,多数国家认为这是超出了法律辩论的范围,作为人类做出的决策选择和参与的目标,尽管许多同意无人机是一个人权灾难。
诺斯罗普·格鲁曼公司X-47A飞马无人机由美国海军进行试验。 美国国防部高级研究计划局
定义行图灵
人工智能是一个正式图灵机,机械规则适用于符号输入来生成输出。
禁止机器学习法律是禁止AIs,更新自己的致命的决策规则。禁止“更广泛的循环”的法律是禁止AIs人类书面规则做出致命的决定。“循环”的法律禁令禁止驾驶的机器人被人类用作武器。
决策的意见也不同是否控制图灵计算成为有意义的或人类。
上一篇:第一个机器人帮助髋关节置换手术
下一篇:你的智能手机的锁定屏幕有多安全?
责任编辑:admin