兵器の自動化がもたらすものは?

  • このエントリーをはてなブックマークに追加

 未来の戦争はどうなっているのか。

 アメリカの無人偵察機・プレデターの活動は、多くの人に衝撃を与えただろう。安全な場所からプレデターを操作し、敵国の状況を偵察し、情報を得る。
 さらに、安全な場所から無人機を操縦して、敵兵士や建物などを攻撃するということも今では行われているそうだ。そして、今後は、対象の選定から攻撃までも、プログラム(機械・兵器だけ)に頼ることになるかもしれない。

 敵兵士や建物などを選定し、攻撃する。これらがプログラムにより、無人機が自動的に実行できるようにする研究が進められている。導入を計画しているのは、アメリカ、イギリス、イスラエルだそうだ。さらに、韓国やロシア、中国も研究を行っているとされ、5~20年後に導入されるのでは、という。
 これが実現すると、戦争や紛争による兵士による死傷者(味方)が減少するというメリットが挙げられるが、問題は攻撃による民間人などへの誤爆による被害(死傷者)の問題はどうなるか、ということだ。それに加え、プログラムによる攻撃選定と実行は、倫理問題に対して不適切ではないか、という問題が浮上する。

倫理問題だけでなく、新たな問題も

 ロボットが進化した時代、そのロボットが暴走して、その暴走を食い止めるといった物語の映画がつくれられたりした。問題は映画で表現されたような暴走が起こらないとも限らない。さらには、問題はそれだけではない。
 選定し攻撃する、という判断をプログラム(機械・兵器)自身がすることへの倫理問題は先ほども挙げたが、それらの技術に頼ったことで、これまでそれらの判断をしていた人間の能力が低下しないか、などという懸念も出てくる。
 科学技術が発達し、様々なことがコンピュータで簡単にできる世の中になった。便利になった半面、「プログラムや計算で出ているから大丈夫だ」という、プログラムの判断を疑わなくなるということも。それが何を意味するのか。
 便利さを利用することはさらなる発展につながり、快適に便利な世の中へとつながっていく、という好循環もある。しかし、便利になったことの土台を理解していなかった場合、その土台の意味を理解しないまま、判断するという悪循環に陥るかもしれない。それは、適正な判断の理由の意味がわからないまま、プログラム任せの判断になってしまうことになり、物事が進んでいってしまう。
 つまり、その悪循環に陥った場合の能力の低下により、かえって便利になった土台に振り回される結果になるということだ。さらに、そのプログラムが暴走したり、人類が思ってもみない方向へと向かってしまう危険性もある。

 倫理の問題も大事な問題だが、殺人ロボット兵器の全自動化は、「何が適正か」という判断力の低下にもつながる要因になる。
 殺人ロボット兵器が普通の世の中になってくるかもしれない。ただ、この技術を、良いロボットへの応用も十分にできるだろう。高齢化問題になる介護ロボットなど。ただ、世の中の争いごとはまだまだ存在する。その戦争や紛争などでの、需要は出てくるのだろう。

参考資料

・「殺人ロボ、開発停止を要求 「生死の権限供与」 国連「反対」の報告書」 ・ 「人が関与しない兵器認めぬ」 禁止運動を推進する ジョディ・ウィリアムズさん」
(毎日新聞 2013年6月1日(土)

  • このエントリーをはてなブックマークに追加

コメントをどうぞ

メールアドレスが公開されることはありません。

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)