本篇文章1780字,读完约4分钟

vaobong88【科技在线】

随着人工智能的迅速发展,能够自主选择目标进行攻击的机器人正在迅速实现。 根据新技术,人类有可能放弃决定如何采用致命武力的控制权。 完全自主的武器也被称为杀手机器人,从科幻作品迅速走向现实世界。

研究者们担心将来生死攸关的决策会由机器做出,超出人类的控制之外。 除了造成过度伤害、错误地将平民作为攻击目标的风险增加之外,谁也无法承担说明责任。

机器人缺乏真正的感情,特别是同情心,很多决策都是在这种情况下做出的。 人类可以根据至今为止的经验和道德想法,对每一种模式进行评价,并做出相应的决策。 但是,这种评估方法几乎不可能复制到完全自主的武器上,编程的机器无法应对所有场景。

如果把技术放在外交之上,会带来可怕的、空前的人道主义灾难。

自主武器可以在陆地、空中或海上发生行动,可能会天翻地覆地出现在武装冲突和执法行动的方法上。 支持者说有必要开发杀手机器人。 因为现代军事行动非常迅速,机器人战斗可以防止士兵和警察受害。 但是,对人类的威胁可能会越来越多地超过军事和执法方面的利益。

禁止开发杀手机器人

有人指出,如果人类不再做出攻击目标的决策,世界将变得非常危险。 考虑到完全自主武器的道德、法律和责任风险,它们的开发、生产和采用现在就需要阻止,不能等待。 解决这一威胁的好方法是对无人驾驶的武器实施国际禁令。

一点国家已经采用类似reaper的无人机在战区开展任务。 如果在激烈的战斗中发生了机器人非法杀人的话,那谁应该负责呢? 人权注意组织今年早些时候发表了报告,给出了非常令人不安的回答。 没有人。

该报告被称为“杀手机器人缺乏问责机制”。 该组织表示,我们必须改变这种无说明责任的状况,禁止杀手机器人的开发和采用。

不承担解释责任,意味着对今后的犯罪行为没有威慑,对受害者没有进行补偿,对加害者没有进行社会谴责,该报告的第一作者、人权注意组织兵种部研究员波尼·斯图尔特写道。

包括同情心在内,机器人缺乏真正的感情。 另外,对于他们杀害的人来说,生命有什么价值,没有生命的机器是无法真正知道的。 让机器人决定什么时候采用武力,是剥夺人的尊严。 国际法主张保护平民和士兵,只有机器在人类控制之下,国际法才能得到执行。

联合国在日内瓦召开了一周的会议,讨论了杀手机器人的问题。 至少20个国家在会议上表示,攻击目标的选择应由人类负责。 哈佛大学法学院在此期间发表了相关报告,得到许多人的支持,已经有两个组织以禁止完全自主的武器为目标。

哈佛大学的报告呼吁人类在科学技术迅速发展的时代也要维护对所有武器系统的控制权,包括选择攻击目标、拯救生命和确保遵守国际法的控制权。

机器早就开始作为战争的工具了,但在这之前,它们的采用方法是由人类控制的,博尼斯蒂。 如果现在人类放弃这个控制权,把生死攸关的决策交给机器,风险就太大了。

军备竞赛的威胁

有人支持让机器人去打仗,以免人类在战场上丧命。 但是去年,1,000多名技术和机器人技术专家包括科学家霍金,特斯拉首席执行官埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克警告说,这种武器可以在几十年、甚至几年内开发成功。

在一封公开信中,他们指出,任何军事强国如果推动自主武器的迅速发展,全球军备竞赛几乎是不可能的,这一技术轨迹的终点是显而易见的。 自主武器将是明天的卡拉什尼科夫冲锋枪。

总部设在伦敦的禁止杀手机器人组织表示,美国、中国、以色列、韩国、俄罗斯、英国等一些国家赋予了战斗武器更大的自主权。

今年3月,五角大楼高级官员透露了几个不久前属于科幻作品的项目,包括可以避开导弹的卫星、自主飞行的f-16战斗机和机器人海军舰队等。

五角大楼无意开发无需人类指挥就能展开杀戮行动的武器,但国防部副部长罗伯特·奥克含蓄地表示,如果在敌人身上开发这样的武器,情况可能会有所改变。

他说,如果我们的同行竞争对手更愿意将生死大权移交给机器,随着竞争的展开,我们必须做出有利于我们竞争地位的决定。

奥克在五角大楼的工作之一是确保美军的技术特点。 在他查明的项目中,空军队将f-16战斗机改造成半自主的无人战斗机,与载人的f-35喷气战斗机一起飞行。

五角大楼的研究人员正在开发装有照相机和传感器的小型炸弹,可以提高瞄准能力。 其他项目还包括机器人舰队和炮弹时速7250公里的电磁轨道炮等。

来源:揭阳新闻

标题:“一年之内不禁止“杀手机器人”就来不及了”

地址:http://www.jydingliang.cn/jyxw/57206.html