Russell, S. (2015), "Take a Stand on AI Weapons", Nature 521(7553): pp. 415-416.
AI 및 로보틱스 공동체는 중요한 윤리적 결정에 직면했다: 치명적 자율 무기 시스템(Lethal Autonomous Weapons Systems, LAWS)의 개발을 지지해야 하는가, 아니면 반대해야 하는가? LAWS은 인간의 개입 없이 표적을 선택할 수 있으며, 만약 표적에 인간이 포함된다면 죽음을 초래할 수 있다. LAWS는 수십 년은 커녕 수 년 내에 개발될 수 있다. 이미 존재하는 AI 및 로보틱스는 물리적 기반, 지각, 운동 통제, 네비게이션, 지도 제작, 전략적 의사결정, 장기 계획 등의 요소를 제공할 수 있는데, 이것들을 결합하기만 하면 LAWS가 된다.
전시에 사람에 대한 공격을 규제하는 국제인도법(international humanitarian law)에는 자율 무기에 대한 조항이 없지만 적용해볼 수 있을 것이다. 1949년 제네바 협정에 따르면 다음과 같은 기준을 만족하는 공격만 허용된다. (1) 군사적 필요성, (2) 전투원과 비전투원의 구분, (3) 군사적 목적과 피해 사이의 균형. 1977년 헤이그 협약은 인도주의 원칙과 공공 양심을 위반하는 무기를 금지한다. 그러나 이런 조항들은 주관적이어서 현재 AI 시스템이 만족하기 어렵거나 불가능하다.
UN은 과도한 상해 또는 무차별적인 효과를 초래할 수 있는 특정 재래식 무기(e.g., 지뢰 및 부비트랩, 실명 레이저, 소이성 무기)를 금지하거나 제한하는 특정 재래식 무기 금지 협약(Convention on Certain Conventional Weapons)의 후원 하에 LAWS에 대한 회의를 여러 차례 열었다. 독일은 "자율 무기만으로 이루어지는, 생사에 관련된 결정은 허용할 수 없다"고 했고, 일본은 "사람의 통제를 벗어난 살상 가능 로봇을 만들 계획이 없다"고 했다. 반면 미국, 영국, 이스라엘은 "국제법을 준수하는 내부적 무기 심사 과정을 이미 가지고 있으므로 협약이 불필요하다"고 했다. 대부분의 참가국들은 로봇 무기의 표적 선정 및 교전 결정에 사람의 유의미한(meaningful) 통제가 필요하다는 점에 동의했다. 그러나 '유의미한'의 의미는 아직 결정되지 않았다.
LAWS 개발에 찬성하는 사람들은 자율 무기가 효율성과 선택성이 뛰어나기 때문에 전투원만을 표적으로 삼아 민간인 사상자를 줄일 수 있다고 주장한다. 반대하는 사람들은 즉각적 위험이 발생하지 않았는데도 적을 공격하는 것을 가능하게 함으로써 전쟁의 문턱을 낮출 수 있다거나, 테러리스트나 비국가 단체 전투원이 민간인들에게 큰 피해를 줄 수 있다고 주장한다. 한편 인권단체들과 드론 제작자들은 LAWS가 평화 시 정찰 기능에도 영향을 줄 수 있다고 말한다.
LAWS 기술은 수없이 많은 방식으로 개발될 수 있다. 예를 들어 비행 로봇이 소형화되어 작전 수행 능력이 증가하고 발각될 가능성이 감소할 것이다. 이런 자율 무기는 사람들을 완전히 무방비 상태로 만들 수 있으며, 이것은 바람직한 미래가 아니다. AI 및 로보틱스 공동체는 분명한 입장을 취해야 한다. 학술 회의에서 토론이 있어야 하고, 윤리 위원회가 연구해야 하고, 성명서를 발표하고, 학회에서 투표를 해야 한다. 아무것도 하지 않는 것은 LAWS의 지속적 개발과 도입에 찬성하는 것이다.
댓글 없음:
댓글 쓰기