自主机器人的管制

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

三、自主机器人的管制
战争之行为应当服从人道之原则,战争的目的旨在削弱或者消灭对方的战斗力以降服对方,而对于自主机器人这种新式武器也应当对其的使用加以限制。

早在1963年亨利·杜南就表明一个观点“武器技术的发展,可能会缩短未来战争的持续时间,也会导致越来越多的使用残忍作战手段的战争的爆发”人权观察组织(HRW)担心自主机器人有以下三点弊端:1. Robots would not be restrained by human emotions and the capacity for compassion, which can provide an important check on the killing of civilians. (一、机器人不具有人类的感情和同情心,不会像人类一样不会误伤平民。

)2. Although relying on machines to fight war would reduce military casualties—a laudable goal—it would also make it easier for political leaders to resort to force since their own troops would not face death or injury. (二、虽然军用机器人可以减少军事伤亡,这是值得称赞的。

但是也有可能导致政客以此为由滥用武力。

)3. The use of fully autonomous weapons raises serious questions of accountability, which would erode another established tool for civilian protection.(三、全自主武器的使用可能导致法律责任承担问题,破坏平民保障机制。

)鉴于如上所述的不利影响,本段主要论述自主机器人的法律管制。

(一)管制的目标和手段
管制的目标:确保自主机器人符合国际人道主义:一、杜绝或者降低自主机器人对平民的伤害;二、防止自主机器人的滥用;三、完善自主机器人损害赔偿机制。

管制手段:鉴于自主机器人的特性,需要利用多种管制手段:法律手段;行政手段;技术手段。

(二)管制原则
1949年的日内瓦四公约和1977年该四公约的两个附加议定书都是以维护人道主义为目的,为了有效地保护战争与武装冲突中的受难者。

自主机器人作为特殊的武器装备,应当遵守《日内瓦公约》及其议定书的相关原则。

1、区分原则和比例原则:区分原则指在作战中必须严格对平民与武装部队、武装部队中的战斗人员和非战斗人员、有战斗能力的战斗员与丧失战斗能力的战争受
难者、军用物体和民用物体等加以区别,不能以平民、非战斗人员、战斗受难者和民用物体为攻击对象和攻击目标。

比例原则是指在作战方法和手段的使用应与预期的、具体的和直接的军事需要成比例,禁止有与预期的具体和直接军事利益相比损害过分的攻击。

遵守这两点原则不仅需要法律和行政的管制,更需要对自主机器人生产、操控过程的严格把控。

任何一个小的纰漏都可能对无辜平民造成巨大伤害。

这对自主武器系统的研发技术、生产过程和监控管理提出了更高的要求以确保平民的最低伤亡。

2、禁止使用造成不必要痛苦或者加重这种痛苦的原则:联合国于1980年通过了《禁止或限制使用某些可被认为具有过分伤害力或者滥杀滥伤作用的特定常规武器公约》进一步强调在战争与武装冲突中的人道主义原则,禁止或限制使用那些使人致残或者陷入长期痛苦的常规武器。

自主机器人因其自主性的特点比之人类战斗员更加残酷无情。

需要相关部门对其研发目标和宗旨更加严格的监控。

防止滥杀滥伤、给人造成长期痛苦的全自主机器人的诞生。

3、禁止武力滥用原则:我们不能保证未来自主机器人不会成为大规模杀伤和破坏的武器,所以应当预防其被广泛地投入实战。

由于其有助于减少自身人员军事伤亡的比率,各国政府可能逐步大限度地将其投入实战。

一方面可能导致政府进一步扩大战争范围,肆意挑起争端,不利于国与国之间的和平友好关系。

另一方面,大规模地使用自主机器人需要强大的技术后盾,但随着战局的复杂性、多变性和不可预测性则难保会出现失控的局面,造成不必要的伤亡。

所以,应当制定标准限制自主机器人的大规模投入或者对现有的全自主武器技术加以控制。

例如在一场战役中根据需要投入多少自主机器人才是适当的,火力配置多少,行动范围多远都应当制定标准。

4、国际合作共谋发展原则:国际合作原则也是国际法的一项基本原则,这也是《联合国宪章》的重要原则之一。

自主机器人的管制涉及军控裁军、国家安全等敏感问题。

对于自主机器人的研发、限制需要各国的协调和配合。

各国通过技术合作交流完善自主机器人的技术保障,通过政治协作完善全自主武器系统的管制和应用。

各国共同努力,必将使得自主机器人的发展取得实质性进展。

(三)自主机器人的管制制度
1、审查机制:《圣彼得堡宣言》是世界上第一个正式指出审查新式武器合法性重要意义的国际文件。

它对新式武器的开发做了如下说明:鉴于科学技术的发展可能会对部队的装备产生影响,宣言的缔约国或批准国为了恪守他们业以确立的原则和依据人道法对战争进行调解,缔约国或批准国应当努力就一个具体的关于审查武器的合法性的建议达成谅解,而不管这个建议在何时提出。

除此之外只有1977年《日内瓦公约》的《第一附加议定书》第36条规定以国际法为标准进行这种审查,即“在研制、开发、获得和采用一种新式武器、新的作战方式和手段时,缔约国有义务确保在某些或任何情况下,它的这些行为不被此议定书或任何使用于缔约国的国际法的其他规则所限制。

”并暗示如何进行审查。

审查自主机器人的合法性必须先审查该款自主机器人是否应该投入军事行动中,其规模、火力配置等是否超出原来的达成军事目标的要求,是否有能达到相同军事目的其他伤亡更少的作战手段和方法。

之后再审查自主机器人的研制、开发、获得和采用是否符合上文所述的区分原则和比例原则,考虑自主机器人的精准性,考虑对人类的健康以及环境所造成的影响,考虑自主机器人所造成的伤亡情况和伤害或者伤残的类型。

2、制裁机制:如果自主机器人在战场上失误误伤平民,那么应当根据实际情况确定责任人对其实施强制性惩罚措施或是强制其履行法律义务。

我认为这时应当由与该款自主机器人相关的研发人员和对其发号施令的人员承担主要责任。

如果是自主机器人自身研制、开发、生产等环节出现纰漏,则由程序员、生产方或者国家政府承担主要责任,负担赔偿。

如果是指挥者或者作战团体使用和操控不当,则由指挥者或者作战团体承担责任。

有必要时,应当销毁该款自主机器人、停止该款自主机器人的研发、生产和使用。

3、使用管理机制:首先,应当制定一些具体法律措施完善规范自主机器人的使用。

这需要国际交流和合作,达成共识。

各国应当对自主机器人的使用者进行严格的统一审核标准,包括理论知识的培训和组织实战演练。

这才能使自主机器人在实战中能发挥其优势,提高其精准度,降低无辜人员的伤亡。

其次,针对自主机器人的维修、保管和废弃也应当制定一套体系加以规范。

确保自主机器人处于正当的管理之下,防止不法分子将其利用于不正当的途径。

相关文档
最新文档