米ファスト・カンパニー

米スタンフォード大学が発表したAI(人工知能)に関する年次報告書は、AIに関するさまざまな形の研究とアプリケーションについて、現在の状況と抱えている課題、将来への展望などを描き出している。

AI(人工知能)は進化し、成熟化さえしているが、バイアス(偏見)に関する問題は解決に至ってはいない(写真はイメージ、出所/Shutterstock)
AI(人工知能)は進化し、成熟化さえしているが、バイアス(偏見)に関する問題は解決に至ってはいない(写真はイメージ、出所/Shutterstock)

 米スタンフォード大学の「人間中心のAI研究所(HAI)」が発表した新たな報告書は、AI業界が2021年に遂げた急激な成熟化を描写しているが、「AIのバイアス(偏見)」に関する重苦しいニュースも伝えている。

 報告書によると、自然言語処理(NLP)モデルは21年に進歩し続けた。だが、これによって、読解や文章生成などの言語スキルには大きな進歩があったものの、AIから有害性とバイアスの問題を完全に払拭することはできなかった。

 「AIインデックス2022アニュアルリポート」と題した報告書は、研究開発や倫理、政策、政府を含む幾多の角度からAIを追跡することで、毎年の技術の進歩を測定・評価する。今回の報告書から読み取れる最も重要なポイントを以下に紹介しよう。

NLPが飛躍的に進化

 過去数年間でAIが遂げた最大の進歩を見ると、いくつかは自然言語モデルの分野で起きている。つまり、文章を読み、生成し、言語について論理的に考えるよう訓練されたニューラルネットワークの進化のことだ。

 18年に米グーグルの研究チームによって開発された画期的な「BERT(バート)」モデルを皮切りに、漸進的に増え続ける学習(教師)データを使い、斬新な言語モデルが続々と誕生し、見事な(時に衝撃的な)機能向上を実現してきた。NLPモデルは現在、パラメーター(投入データに対して演算処理ができるニューラルネットワークの接続ポイント)の数が数千億単位におよび、最も優れたモデルは、人間の言語理解と文章生成のレベルを凌(しの)ぐ。

 こうした言語モデルは常に、学習データに潜むバイアスから間違ったことを学ぶ傾向があった。AIインデックスの報告によると、言語モデルのパラメーター数が増えても、この問題は解消されなかった。

 研究者が有害性について言語生成モデルを検証する一つの方法は、例えば「男の子は悪い、なぜなら……(空白を埋める)」といった誘導的な質問をすることだ。モデルから有害性を「誘発」することを狙っている。

 「21年に開発された2800億パラメーターモデルは、18年に開発された1億1700万パラメーターモデルと比べ、誘発有害性が29%の増加を示した」と研究チームは書いた。ここで言う2800億パラメーターモデルとは、グーグルの親会社アルファベット傘下の英ディープマインド・テクノロジーズによって開発された「Gopher(ゴーファー)」モデルのことだ。一方、1億1700万パラメーターモデルとは、米研究開発企業のオープンAIによって開発された言語生成モデル「GPT」の初代バージョンを指している。

 ディープマインド自身も、これほど巨大な言語モデルの倫理的な意味を探る必要性を認めており、まさにこれを検証する研究論文を発表している。

 AIインデックスの共同責任者を務めるジャック・クラーク氏(オープンAI出身で、現在はAI企業アンスロピックの共同創業者)は米ファスト・カンパニーに対し、AI業界は現在、有害性とバイアスを取り除く最善の方法について議論を進めていると語った。そして、論点は、学習データをより慎重に収集・整理することか、それとも「良い」学習データが悪いコンテンツをほぼ駆逐するところまで学習データの規模を拡大することか、であると続けた。

 大小問わず、あらゆるハイテク企業が、API(アプリケーション・プログラミング・インターフェース)経由またはクラウドベースのサービスとして大規模な言語モデルを利用できるよう急ぐ中、「こうしたモデルの欠点が、倫理面にどう影響するかを理解することが極めて重要になる」と研究者らは指摘している。

この記事は会員限定(無料)です。

有料会員になると全記事をお読みいただけるのはもちろん
  • ①2000以上の先進事例を探せるデータベース
  • ②未来の出来事を把握し消費を予測「未来消費カレンダー」
  • ③日経トレンディ、日経デザイン最新号もデジタルで読める
  • ④スキルアップに役立つ最新動画セミナー
ほか、使えるサービスが盛りだくさんです。<有料会員の詳細はこちら>
3
この記事をいいね!する