AIが我々の社会の中で浸透する一方で、不適切な使われ方に対する懸念も広がっている。公平性・アカウンタビリティー・透明性などの点で信頼できるAIでなければ、社会で受け入れられない。既に議論は抽象的な理念を超えて、具体的な実践方法に移行している。企業は対応が求められる。
そもそも、なぜ今AI倫理を議論しなければならないのか。AI倫理について議論をすることは、研究開発や経済発展を阻害するという考え方もある。しかし、信頼できないサービスや製品は、そもそも人々が利用しない。AIの判断やAIを開発・利用する人間が倫理的であることは、AIが社会で受け入れられるために必要な要素といえる。
議論に日本が不在なら不利になる恐れも
人間の側に求められる倫理については、既に国際的な議論が行われ、倫理指針という形でルールが形成されつつある。社会で承認されている倫理指針であれば、法的拘束力がなくとも、政府や研究機関、企業が順守しないわけにはいかない。将来を見据えると、法的拘束力のある規制に移行する可能性もある。
ルールは、作った者にとって有利な内容となりやすい。国際的な議論に日本が不在であれば、日本の政府や研究機関、企業にとって不利なルールとなってしまう恐れがある。だからこそ、AI倫理の論点と今後の展開を知っておくべきなのだ。
まずは議論の文脈を捉えたい。AIは倫理的な判断をすることができるのかといったAIの側に焦点を当てた議論と、本稿で主に扱うAIを開発・利用する人間の側に求められる倫理についての議論がある。
AI倫理には誤解をされやすい点もある。例えば、人間の頭脳を超越するAIが出現して人類の脅威となるリスクが話題となったが、当面は技術的に実現性が低い。現在の議論の中心は、現実的な問題だ。
公平性など多様な論点
開発・利用する人間に求められるAI倫理の論点には、公平性・アカウンタビリティー(説明責任)・透明性の問題がある。就職や昇進などの労働関係や裁判所の判断、保険に加入できるか否か、これらの場面では特に公平性が求められる。
人種や性別、ゲノム情報といった生まれながらに変えられない要素などに配慮しつつ、AIが用いられる場面ごとに、人間が公平性について定義をする必要がある。
公平な判断であることを示すために、ブラックボックスと呼ばれる複雑なAIの判断過程をシンプルに説明する、判断に用いたデータの統計情報を開示するなどの対応が求められる。学習用データに偏りがあれば判断結果も偏ったものとなることには留意したい。公平な判断だという説明ができないときの担保として、問題発生時の責任の所在を明らかにすることも必要となる。
AIの判断に用いるデータの取得や利用については、プライバシーへの配慮が重要だ。データの提供者が意図しない利用方法は許されない。データ改ざんなどによってAIの判断が左右されないためには、セキュリティーの確保が課題となる。
国家的な懸念としては、軍事利用がある。AIの画像認識とドローン技術を用いれば、自律的に攻撃する兵器を作ることもできるが、AIに引き金を委ねると、責任の所在が不明瞭になる。さらに問題なのは、民生のAI技術を軍事に転用しやすく、歯止めをかけにくいことだ。
世界の倫理指針を見ると、論じられているテーマや理念は、おおむね一致している。議論は、判断過程の可視化手法の導入やデータの入出力の記録方法など、理念を実践する具体的な方法論に移行しつつある。
このコンテンツ・機能は有料会員限定です。