人工知能(AI)は、「自然災害の予知」や「致命的な病気の診断」などによって人命を守ることができる能力を秘めていますが、同時に人命をあっけなく奪う可能性も持っています。そして現在、自律型殺人兵器の開発はすでに進行中です。しかし、その流れが変わるかもしれません。
人間性の改善のためのテクノロジーの利用に焦点を当てた組織「生命の未来研究所(FLI)」は、18日、自律型殺人兵器の開発を非難し、政府にそれを防止するよう呼びかける誓約を発表しました。
AI Companies, Researchers, Engineers, Scientists, Entrepreneurs, and Others Sign Pledge Promising Not to Develop Lethal Autonomous Weapons
https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers
「もし乱用を弾劾・防止できれば、AIは世界を救うとてつもない可能性を持っています」とFLIの代表マックス・テグマーク氏はプレスリリースで述べています。「AI兵器が自律的に人を殺す決定をするということは、生物兵器と同じくらい不愉快だし不安定です。なので、同様の方法で取り扱うべきなのです」
今回、170の組織と2464人の個人がサインし、自律型殺人兵器の開発、製造、取引、使用に関わったり援助したりしないことを誓いました。署名者の中にはOpenAIの創設者であるイーロン・マスク氏やスカイプの創設者ジャーン・タリン氏、AI研究の第一人者スチュワート・ラッセル氏がいます。
グーグルのディープマインドの3人の共同設立者、デミス・ハサビス、シェイン・レッグ、ムスタファ・シュリーマン氏も誓約にサインしました。ディープマインドはグーグルを代表するAI研究チームです。そしてつい最近、アメリカ国防総省と協力したために、自律型殺人兵器論争の渦中にいた人物でもあります。
しかし6月、グーグルは国防総省との契約の更新をしないことを誓い、その後、自律兵器の開発の禁止を含むAI開発のための新たなガイドラインをリリースしました。FLIの誓約にサインしたことは、同社の自律型殺人兵器に対する公共の立場変更を一層確かなものにしたといえます。
とはいえ、この誓約が本当に実際の行動につながるのかは、はっきりしていません。UN加盟国のうち26カ国は、すでに自律型殺人兵器を世界的に禁止することを承認していますが、ロシアや英国、米国となど世界の指導国がまだ賛成していません。
AI専門家が自律兵器の開発に反対する誓約のために集まったのは、これが最初ではありません。しかし、今回はより多くの署名者を集め、その中にAI業界での大物の名前が新たに加わったことが大きな特徴です。
残念ながら、すべての国が自律型殺人兵器の禁止に賛成したとしても、個人や政府が秘密裏に兵器を開発し続けることを止めることにはならないでしょう。AIの新たな時代に突入するにつれ、善が悪を数で上回ることを望む以外、選択肢がなくなっていくように思えます。
via: Science Alert/ translated & text by SENPAI
関連記事