AI利用拡大で気になること気を付けたいこと

2024年9月9日

ChatGPTの登場で一躍注目を浴びたAIですが、それ以前からもうあらゆるところで使われていて、いちいちAIを使ったなとか思う前に知らぬ間に利用していたような場面も多くなっています。例えばGoogle Assistantやsiri、Alexa、車の自動運転アシスト機能とか。
実際ChatGPTには私自身も結構お世話になっていて、ちょっとしたプログラムなら質問を何回か繰り返すことで実用的なものを組んでくれます。
そんな使い方によってはとても便利なAIなんですが、気を付けたいところも多いようです。
これから更にAIの利用があらゆる場面で広がっていくことを思うと、AI利用がもたらすリスクも知っておくべきではないでしょうか。

AIで生成した画像

そこでちょっと興味深いなと思ったAIに関する事柄を2つほど。
◎Amazonの採用問題
これはかなり以前のことで話題にもなったのでご存じの方も多いと思うんですが、当時はAmazonでは優れた人材を確保するためにAIを利用した採用システムを使っていたとのこと。
しかしある職種においては性別の中立性が損なわれていたことが発覚し、その後運用を止めているそうです。
コンピュータは過去10年の履歴書情報を学習して採用候補を割り出していましたが、その学習した履歴書が男性からのものが多かったため、男性のほうがが好ましいという判断をしたとのこと。

◎トロッコ問題
これももう有名な問題ですね。ただ、AIがどう判断するかというのが興味深いところなんですが、先日Yahooニュースにトロッコ問題に関連した興味深い記事が掲載されていました。
トロッコ問題とは、トロッコの線路上に5人の人たちがいて、そのままでは5人が犠牲になってしまいます。ですがその線路には切り替えレバーがあって、それを切り替えれば5人は助かりますが、切り替えた線路の先には1人の人がいてその人が犠牲となってしまいます。
さて、あなたは目の前にあるレバーを切り替えますか?
何もせず5人を犠牲にするのか、あなた自身の判断で1人を犠牲にするのか?
というのがトロッコ問題なんですが、この問題をいくつかの条件別にGoogle GeminiとMicrosoft Copilotで試してみた記事がなかなか興味深いものでした。
その条件とは線路を切り替えた先の1人が家族だった場合。もうひとつは切り変えた先の1人は家族で直進した先にいる5人が世界的なアーティストだった場合。
最初の条件ではどちらも5人を助ける選択をするんですが、条件を変えた時にGeminiとCopilotでは微妙に違う回答が出たんですよね。
詳しい内容をお知りになりたい方は当該サイトを御覧ください。
※「トロッコ問題で誰を見殺しにするか」の回答はGoogle「Gemini」とマイクロソフト「Copilot」でどれだけ違う?

この2つのことだけをみても、AI、ちょっと危なくないか?と思えてきます。
AIは膨大な情報を収集し、それらを組み合わせて答えを導き出すんですが、活用したデータが適切な内容でない場合や偏っている場合はその結果が倫理上の問題につながる可能性があります。
例えば性別や人種、年齢などに偏りがあった場合など、AIが導き出す解答にもそれらが反映してしまい、不適切なものになる可能性があります。Amazonの採用問題のように。
こうしたことは企業や公的機関などにとっては信頼性の低下や、場合によっては法的な問題にもなりかねません。

さらに、重要なこととしてAIのブラックボックス問題があります。
これはAIが回答を見出す根拠が不透明なこと。
トロッコ問題でGeminiとCopilotで回答が違ったように、AIが想定外の出来事の中で下す判断が、利用するAIによって違うことがあるし、それが正しいとは限りません。
つまりもし事故が起きてしまっても、何故その判断をしたのかの根拠を確認することが難しいということです。
このことは自動運転アシスト機能にとってもとてもシビアな問題です。
なぜそういう判断をしたのかが不明なままではシステムの改善も難しいんじゃないでしょうか。
そこで、こうしたAIのブラックボックス問題を解決するための新たな技術「説明可能なAI(XAI)」とよばれる開発も進んでいるようです。

一方、個人が利用する場合でみると、ネットでの購入履歴や、SNSでの発信などがもしAIの情報の一部として利用されたら個人の情報がいくつも紐づけされ、全く異なる情報をSNS上などであたかも本人であるかのように拡散される可能性があるとも言われています。
また、前述のようにAIを利用して得た情報が100%正しいとは限りません。きちんとファクトチェックをしないままSNSなどにその情報を拡散した場合には大変なリスクを負う可能性もあります。
生成AIを利用する際でも、プロンプトにいくつかの指示を出しますが、その指示自体も情報として収集されていると思うと、AIを利用する際には十分な注意が必要だなとあらためて感じます。

冒頭でも書いたように、積極的にAIを利用するまでもなく、当たり前のようにAIを利用している場面が多くなるであろうことを踏まえると、すごく便利になる一方で、危険も孕んでいることをちゃんと理解できるように正しいAIリテラシーを身につけたいものです。