完全無人機の過失の責任はどこに?

2012.1.28


 military.comによれば、研究者たちは米海軍がテスとしている、人間の関与なしに戦闘任務を行える無人機が倫理的な問題を引き起こすと言います。

 空母の甲板に着陸するように設計されている、コックピット内のパイロットだけでなく、まったくパイロットなしに動く無人機は、それ自身が破壊をもらたせる半独立で稼働する機械の不安をもたらします。

 人間は自立した無人機の飛行計画をプログラムして、その決定を無効にできる一方で、多くの者は重武装の攻撃機が人間の直接の統制なしに活動することに気がつきます。

 「致死的な行動には明確な一連の説明責任があるべきです」「これはロボット兵器には難しいのです」とコンピュータ科学とロボットの専門家、ノエル・シャーキー(Noel Sharkey)は言いました。「ロボットには責任があるとはみなされません。責任はそれを使った指揮官にありますか?。それを承認した政治家ですか?。軍の取得過程ですか?。不完全な機械を作った製造業者ですか?」。

 米空軍は、戦場で生死の判断ができる機械ができるのは時間の問題だと言います。しかし、当局は依然として配備した無人機を監視すると言いました。「次第に人間は特定の決定の実行を監視するようになり、『輪の中』ではなく『輪の外』いるようになるでしょう」「致死性の戦闘上の決定をする機械を承認することは、法的、倫理的な問題を解決する政治と軍の指導者に左右されます」と報告書は言います。


 非常に面白いのですが、短い記事で、これですべてが語られているとは思えません。この問題には広範な議論が必要です。むしろ、広範すぎます。だから、分かりやすい例をあげます。

 映画『ターミネーター』に登場するようなロボットはいつかは開発されると考えられています。将来は、兵士の一部がロボットに置き換わり、危険な任務の肩代わりをすると考えられています。現在、ロボット兵器は無人機の他に、キャタピラ駆動の機械に機関銃などを搭載した戦闘機械がありますが、いずれも操作は人間が行っています。自分で敵を判断して、攻撃するイメージは、多くの人が映画で知っているところです。しかし、これが現実の戦争に取り込まれる時、民間人の犠牲を出した時の責任が問題になります。『ターミネーター』は、まさにそういう問題を描いていました。ターミネーターは目標を何度も間違え、多くの物を破壊しながらも、目的を達成しませんでした。目標だけを破壊するように設計した機械でも、完全には機能しません。現在のレベルでは、限定的な局面で人間が操作する戦闘機械を投入できる程度です。無人機のように遠くから目標を捉える機械の場合、どれだけ正確に判断できるかは疑問です。人間が操作した場合でも、別人をオサマ・ビン・ラディンと間違えて攻撃したことがあるほどです。

 あるいは技術的な流れとして、戦闘機械が自然に戦闘に取り込まれていく可能性もあります。人間は様々な新兵器が開発されるとそれを容認し、核兵器のような危険な兵器すら禁止しようとしません。自動で動くロボット兵器を容認する可能性は十分にあります。なぜなら、それは貴重な味方の命を救うことにつながるからです。核兵器が容認されたのも、まさにそういう理由でした。広島と長崎への原爆投下を支持する人たちは、日本本土上陸作戦を実行すれば大勢の米兵が犠牲になったと考えています。日本はアメリカが原爆投下を決断する前に和平交渉のために動き始めており、歴史家はこの意見を支持しません。しかし、こういう正しいと言えない見解が幅をきかせる場合があるのです。

 自衛隊もいずれこういう問題に直面することになります。今から、対策を検討していくべきです。



Copyright 2006 Akishige Tanaka all rights reserved.