「ロボット戦争」数年で現実に AI兵器開発禁止訴え、ホーキング博士ら研究者が警告
*映画「ターミネーター 新起動/ジェニシス」で登場したロボット(人造人間)T-800。人為的に開発を抑制しなければ、現実の世界でもロボットが戦争の主役を担う時代が近づこうとしている(AP)
人工知能(AI)を搭載して人間が操作しなくても自動的に敵を攻撃する兵器の開発禁止を強く訴えて、英国の著名な宇宙物理学者、スティーブン・ホーキング博士(73)らの研究者グループが公開書簡を発表した。書簡では、現在のAI技術は数年内に兵器利用を実現できる水準にあり、放置すればこの分野の軍拡競争を招き、「ロボット戦争」が起きかねないと警告。自律型人工知能兵器は戦争において、火薬と核兵器に次ぐ「第3の革命」になると指摘した。ロボット戦争の恐怖については、映画「ターミネーター」などによって世界で認識が広まったが、それは想像以上に間近に迫っているようだ。
1000人以上が署名
書簡は、7月28日から1日までアルゼンチンのブエノスアイレスで開催された国際人工知能会議(IJCAI)で、米国に拠点を置く民間の研究支援組織「フューチャー・オブ・ライフ・インスティテュート(FLI)」が取りまとめて発表した。
1000人以上の有識者が署名し、この中にはホーキング氏のほか、電気自動車のテスラ・モーターズや宇宙ベンチャーのスペースXを設立したイーロン・マスク氏(44)、AI研究の第一人者であるジェフリー・ヒントン博士(67)、アップルの共同創設者であるスティーブ・ウォズニアック氏(64)、言語学者、社会哲学者のノーム・チョムスキー氏(86)らそうそうたる著名人が名を連ねている。
簡単な生産・入手
ホーキング氏らはまず、「主な軍事大国でAI兵器の開発を先んじて進める国があれば、世界中で開発競争が起こることは不可避だ。進歩の行く末は明らかであり、AI兵器は明日の(簡単に入手でき性能も高い)カラシニコフ銃になる」と警告。さらに「核兵器と違ってAI兵器は入手困難な原料なしで大量生産できるため、普及しやすい。闇市場に流れればテロ組織の手に渡ることが懸念される。実際に配備されてからではもう遅い。人為的な制御を施さなければ、それは数十年後といわず数年後にも可能となる」との見方を示した。
当面、AI兵器として想定されているのは、人間の遠隔操作を離れて標的の探索や攻撃判断を自ら行う小型無人機(ドローン)などだ。AI兵器が危険とされる理由には、コピーが容易で不拡散の監視が困難なことに加え、一般に、(1)誤判断が生じ、味方や無関係の市民に攻撃を加える可能性が排除できない(2)戦場で兵士が犠牲になるケースを減らすことができる一方で、却ってそのことが戦争を引き起こしやすくする-などが挙げられる。
米露では加速
実際には、書簡が示した懸念とは裏腹に、すでに米露ではAI兵器の開発が着手されている。ロシアでは拳銃を発砲する戦闘ロボットの開発が進められ、今年、戦闘用ヒューマノイドロボットの試作機を完成させた。米国でも国防総省傘下の国防高等研究計画局(DARPA)が、自力で判断して敵を攻撃する自律型人工知能兵器の開発を加速させているとされる。
ホーキング氏とマスク氏は兵器だけでなく一般的なAIに関しても、これまでにその危険性について警告を発してきた。 「2001年宇宙の旅」や「ターミネーター」などのSF映画の世界ではたびたび人工知能で自律行動するロボットが現れ、人間に危害を加えてきたが、創作物だからこそ、安心して見ていられたに過ぎない。人間の介入なしに戦闘や殺害が可能な兵器の開発は、芽のうちに摘み取る必要がある。2015.8.2
09:55 産経
0 件のコメント:
コメントを投稿