本篇文章750字,读完约2分钟
cristian tello【科技在线】据英国《每日邮报》6月17日报道,杀手机器人很快将进入人们的现实生活。 机器人参加战斗可以避免伤害人,但它会增加误伤平民的概率,弊大于利。 人权组织呼吁国际社会应于年开始关于致命武器系统自动化的解决进程。
随着人工智能的飞速发展,机器实现了自主选择和攻击目标,全自动化武器杀手机器人也迅速从科幻小说走向现实。
捍卫者认为这种武器可以将人们在现代作战中置于安全地带。 但是,如果机器不受外部控制,做出生死攸关的选择,就会构成很大的威胁,谁也不能对此负责。
考虑到武器完全自动化带来的威胁,必须采取国际和有法律效力的约束性禁令控制武器。 至少20个国家在联合国会议上提出人类是选择攻击目标的主体。 人权注意组织( human rights watch )和哈佛法学院人权研究中心) Harvardlawschoolinternational Humanrightsclinic于4月发表报告,对禁止全自动化武器做出了相应的努力。
与人类相比,机器缺乏同情心,无法认识生命的价值,允许决定攻击目标会削弱人类的尊严感。 人类对其的控制可以促进国际法的实施,保护平民和士兵的权益。
在法律的实施和军事行动过程中,支持这一基本人权是必须的义务和责任。 让人类拥有决定权,也可以保证违法行为的说明责任。
在4月于日内瓦召开的联合国会议上,94个国家提议开始关于致命武器系统自动化的正式讨论。 该对话讨论了这些武器系统是否应受裁军条约常规武器公约( conventiononconventional weapons )的限制。 参加该公约的国家将在12月的审查会议上见面,讨论未来工作的议事日程。 他们必须抓住机会,制定相关措施,防止科学技术跨越外交后带来的可怕后果。