協賛企業数が過去最高の68社になった「2018年度 人工知能学会全国大会」(2018年6月5~8日開催)では、AI(人工知能)が社会に与える影響がより大きくなってきたと感じさせるセッションが多かった。今回の報告リポートは前編。国連では、AI活用によるLAWS(自律型致死兵器システム)の開発・仕様の規制に関する議論が始まっている。

人工知能学会倫理委員会のトップが交代、倫理委員会委員長を退任した松尾豊氏(写真左)、倫理委員会委員長に就任した武田英明氏
人工知能学会倫理委員会のトップが交代、倫理委員会委員長を退任した松尾豊氏(写真左)、倫理委員会委員長に就任した武田英明氏

 AIと社会の関わりはますます強くなってきていることを印象づけた人工知能学会全国大会。鹿児島市で開催されたにもかかわらず、参加者は名古屋市で開催された前年を50人上回る2611人、協賛企業は過去最高の68社に上った。

 AI研究に対する世の中の関心の高さは強まる一方だが、同時にAIが社会にもたらすインパクトの大きさを痛感せざるを得ないセッションがいくつかあった。その1つは、初日の6月5日夕方に開催された「AIに関わる安全保障技術をめぐる世界の潮流」。国際連合(国連)では、AIを活用したLAWSの開発・仕様の規制に向けた議論がスタートしており、AI研究者として無視できないLAWSの問題を考えるセッションだった。

 このセッションは、人工知能学会の倫理委員会が主催したもので、セッションの冒頭で委員長を務めてきた松尾豊・東京大学大学院特任准教授は「倫理委員会は14年にスタートして約4年が経った。そろそろ体制を一新したほうがいいということで、6月から(国立情報学研究所情報学プリンシプル研究系教授の)武田(英明)先生に次期委員長を、(東京大学政策ビジョン研究センター特任講師の)江間(有沙)さんに副委員長をお願いする。これから第2ステージ、より深い議論を期待したい」と述べた。

 司会役の江間氏は軍事をめぐるAI研究について簡単に触れた後、「倫理委員会として、安全保障技術とどう向き合うのか、学会員にどんな知見を提供すべきなのか、まずどんな議論が行われているのか、技術者だけでなく、AIに関わる人に材料を提供したい」と、セッションの趣旨を説明した。

 本セッションでは、まず2人の専門家が登壇。拓殖大学国際学部教授で海外事情研究所副所長の佐藤丙午氏と、外務省軍縮不拡散・科学部通常兵器室上席専門官の南健太郎氏の2人だ。

AIの軍拡競争進めるロシア、AI大国目指す中国

 佐藤氏はまず「AIへの期待と現実」について言及した。政治家や軍から期待と不安が寄せられているという。「ロシアはAIの軍拡競争を進めており、中国はAI大国を目指している」と明言した。また、AIの軍事的な意義として、「兵站から戦場の管理まで、正確性(Accuracy)と速度(Speed)の向上がある。今は既存の兵器をAIでさらに能力強化させることが進んでいるのではないか」と指摘した。

 佐藤氏は、AI活用による効用について、大きく3つあると説明。(1)大量データ処理の効率化(2)戦闘決定サイクルの迅速化(3)複雑な兵器システムの操作可能性の3つだ。

 まず、AIの活用で大量データ処理を効率化できる点について、佐藤氏は「入手可能な情報(画像、音声、サイバーなど)の処理を行い、戦場における支援システムを構築できる」と解説する。そのためには、データラベリングとアルゴリズムの設定を行う必要があり、これは人間の関与による管理だ。「一般の商業活動における情報処理と類似している」(佐藤氏)という。

 次に、AI活用で戦闘の決定サイクルを迅速化できる点については、「今は短期決戦の時代で、戦争のスピードが上がっている。そのために、今は難しい防御戦闘の局面で高度に自動化することが必要になっている。ある都市を防御するために自動的に監視して迎撃ミサイルを撃つターゲットまで自動化するほうが合理的である。ミサイルは自動化していないと、安全は担保できない。だから自動化は避けられない」(佐藤氏)という。

 複雑な兵器システムの操作可能性について佐藤氏は、「(大量のドローンを編隊として統合運用する軍事技術である)スウォームなどによって、個別の子機が自律的に作戦を実施できるようになる。AIによって機械同士のコミュニケーション能力を高める」と話した。

 講演の最後で佐藤氏は、国際人道法との関係や安全性の問題について言及した。技術的な安全性や、外部環境が変化した際に当初のアルゴリズムの「機能不全」、軍が要求する信頼性と信用力を提供できないこと、ハッキングなどの脅威(システムの書き換え)について指摘した。さらに佐藤氏は、(AIなど)技術に「軍事」と「民間」の明確な区別を付けることができるのかという大きな問いかけがあると話した。

国連ではCCW-LAWSで何が可能か?

 続いて登壇した外務省の南氏は、自律型致死兵器システムであるLAWSを担当している。国連では、CCW(特定通常兵器使用禁止制限条約)という枠組みの中でLAWSの開発・仕様の規制に向けた議論を展開しており、日本からは南氏が議論に参加している。17年11月と18年4月の2回、それぞれ5日間ずつ議論した。18年8月にも5日間の議論が予定されている。

 南氏はまず、国連での議論について以下のように説明した。

 「国連では各国の外交官が議論しており、技術や科学からかけ離れている議論になっている。それぞれの外交官の頭の中では違うイメージを描いており、先走って規制をかけようとしている。なるべく技術的で現実的な可能性について議論したいと思っている」

 以下、南氏の講演資料を基に、自律兵器に関する現状を紹介する。

 非営利の国際人権組織であるHRW(ヒューマン・ライツ・ウォッチ)は12年11月、その報告書において、人間の関与なしに自律的に攻撃目標を設定し、殺人を行うことができる「完全自律兵器」が20~30年の間に開発され得ると指摘。そのことによって「国際的な関心が顕著に高まった」(南氏)という。

 米国防総省は12年11月の国防総省指令において、「自律型兵器システム」とは、一旦起動すれば、オペレーターによるさらなる介入なしで標的を選定し、攻撃できるものを指すとし、致死性武力を行使する意思決定に「適切なレベルでの判断」が介在しないシステムは禁止している。

国連でのLAWSに関する議論の経緯

 13年4月、複数の国際NGOが「殺人ロボット阻止キャンペーン」を開始。同年5月、国連人権理事会へのヘインズ特別報告者による「自律型致死性ロボット」に対する国際社会の対処の必要性を主張した。

 14年から16年にかけて、CCWにおいてLAWSに関する非公式会合を開催。17年11月にCCW政府専門家会合第1回が開催され、18年は4月に議論が行われ、8月にも行われる予定。各会合とも5日間で、合計15日間になる。下の表で、LAWSに関する国際社会の議論における主要論点と政府専門家会合における議論の主要論点を示した。興味のある方は、目を通していただきたい。

[画像のクリックで拡大表示]
[画像のクリックで拡大表示]

日本の基本的な立場と今後の見通し

 南氏は日本の立場については、「LAWSに関する議論はCCWの枠組みの中で行うことが適当。人間が関与しない完全自律型の致死兵器の開発を行う意図はない。先端技術の民生分野における健全な発展が(LAWSへの規制によって)阻害されてはならない」と説明した。

 前述したように、18年8月に3回目の会合が開催され、LAWSに関して引き続き活発な議論が行われる見通しだ。大きな論点としては、「法的文書になるのか、あるいは政治文書になるかを明確化したうえで、来年(2019年)の会合開催に合意できるか否かだ」(南氏)という。

 その後、会場からの質問に対して、佐藤氏と南氏が答えた。

拓殖大学国際学部教授で海外事情研究所副所長の佐藤丙午氏(写真左)と、外務省軍縮不拡散・科学部通常兵器室上席専門官の南健太郎氏
拓殖大学国際学部教授で海外事情研究所副所長の佐藤丙午氏(写真左)と、外務省軍縮不拡散・科学部通常兵器室上席専門官の南健太郎氏

 防衛省の関係者から「今、安全保障の関係者が気にしているのは中国のAI。(中国が目指す経済・外交圏構想である)『一帯一路』を進めていくなかで、AIを使った国内のための治安システムを輸出していくことが懸念されている」と前置きしたうえで、「軍は政治の手段。あくまで人間の判断で兵器のスイッチを入れるわけだが、どう思うか」といった質問が出た。

 南氏は「当然、人が兵器のスイッチをオンする。ただ、それだけでは足りず、逆に切るスイッチが必要だ。何かが起こって、予測できない事態になったら、スイッチをオフにするボタンがあればいいが、それだけでは足りない。いずれにせよ、CCWはすべての国のコンセンサスが必要で、1つの国が反対すれば、ぽしゃってしまう。うまくいかなければ、成立しないし、できる限りやろうとするので、議論が長引く」と答えた。

 佐藤氏は「兵器のスイッチをオンにしてから攻撃するまでに時間がかかる。つまり、追尾目標の変更や情報収集して攻撃モードに入ってから時間がかかる。時間のファクターと変数のファクターがあり、そう組み合わさって何が起きるか、議論されている」と補足した。

 「LAWSは査察可能か」というもう1つの質問に対して、佐藤氏は「査察検証は不可能だろう」と答えた。そのうえで「米国防総省の検証措置に関するチャートは、細か過ぎてほぼ読めない。複雑な検証システムなので、中国やロシアは対応しないだろう」と指摘した。

 いくつか質問が続いたが、最後に松尾氏が「どこかの国が複雑な(AI)兵器を大量に早く開発していくと、開発が一段落したときに、国際的に自分たちが不利にならないようにするというのがシナリオとして考えられるのではないか」とただした。

 佐藤氏は「中国は、(AI兵器)の開発に制約を加えられるのは嫌がるだろう。(中略)テロリストがAIを使って何らかの行動を起こすのか、恐怖をもたれている。各国、安全保障という面でAIは怖いと思っている」と説明した。

 南氏は「CCWでの議論は、まだまだ時間がかかる(5年程度)。ということはその間にいろいろな(AI)技術を確立して、いろいろな兵器を作ってしまう。一個人としては、日本は安穏としていられない。AIにしてもAI兵器にしても、時間があるうちに日本も推し進めるべきだ。これは外務省の見解ではない」と発言した。

 質疑応答が終わり、倫理委員会の次期委員長である武田氏は、以下のように挨拶した。

 「これまで日本のAI研究者は、安全保障や兵器について触れずにいられる立場だった。しかし今は、学会と社会は離れることはできない。自分の研究さえやっていればいいという時代ではなくなった。この4年間で随分と変わった。倫理委員会として今年から何をやるか、委員と一緒に考える。学会員からも意見をもらう。AI研究者は誰であれ、軍事とは無関係ではいられない時代になった」

 セッション終了後、松尾氏は「(倫理委員会)を永続的にするために代替わりを行った。4年間は結構長い。普通は2年。2年前に代わるかなと思っていたが、代わらないほうがいいと言われて、代わらなかった。ただ、昨年から(交代したほうがいいと)考えていた」と委員長退任の理由を語った。

 武田氏は「倫理指針を策定して以降、この1年はあまり活動はしなかった。今後は、倫理指針を更新するというよりも、AI研究者としてどうすればいいか、幅を広げる議論をしていく。(LAWSなどAI兵器については)学会で扱えることでないが、知らずにはいられない」と、今後の倫理委員会についてコメントした。