急速に利用が広がる大規模言語モデルや人工知能(AI)で、性別や人種による偏見や差別が目立ちます。ChatGPTやLLaMAなどの大規模言語モデルやAIでは女性より男性の方が、精度が高いという研究があります。また、顔認識では、肌の色の濃い人より薄い人の方は精度が高いという結果も報告されています。この事例として、有名なものに美人コンテストがあります。2015年にAIの審査による美人コンテストが開催され、世界中から6000人以上が応募しました。このコンテストで、最終審査に残ったのは、白人が37人、アジア人が6人、他が1人という状況でした。理由は、AIが学習する写真が足りなかったのです。美人であることを判定させるには、多く特徴を持つ人々の写真を大量に用意する必要がありました。ところが、肌の白い写真が多く用意されたために、AIはその中からしか選択できなかったという単純なものでした。また当時、アメリカでは、AIによる再犯予測プログラムが使われていました。この再犯予測プログラムでは、黒人に対して高い再犯予測をすることが明らかになりました。その理由は、学習させるデータの中に、人種や性別による差別が含まれていたためです。データの片よりや信頼性のないデータは、AIの学習を混乱させ、結果として誤った情報を人間に提供するケースを生じています。
安易にAIなどを使った研究開発などを行うと、多額の資金と人命を失うことがあります。その事例が、薬品開発において見られます。米国では1997年から2000年の間に、10種類の医薬品が健康に有害との理由で市場から撤収することになりました。この10種類の医薬品のうち、8つが女性により深刻な脅威を与えるものだったのです。心臓発作の症状は、胸の痛みと考えられています。これは、男女とも同じであるとAIが判断しました。その根拠は、男性のデータを多くAIに学習させたのです。心臓発作に関して、女性の場合には男性と違いがあるのです。女性の場合は、めまいや胃のむかつき、疲労感などが心臓発作の症状として表れることがあると分かったのです。この製薬会社は、アレゴリズムの段階で男性と女性を同じだけ生成するようにしたと考えられています。結果として、医薬品の開発には何十億ドルもの費用がかかっており、この企業の経済的損失は莫大なものになりました。もちろん、このような経過から、女性患者に対して適切な救命処置をとれるようになったことはいうまでもありません。
人工知能(AI)などの分野で、偏見が助長されるのはなぜなのでしょうか。1980年代にハーバード大学では、女性の科学者はほとんどいませんでした。そのためでしょうか、女性の脳は科学に向いていないという偏見が生まれました。これは、日本の高校や大学でも言われていることです。ネット上では「彼は言った」数が、「彼女は言った」より圧倒的に多いことが分かっています。ChatGPTなどは、これをデータとして学習します。機械学習のアルゴリズムが、過去のデータに基づいてトレーニングされるわけです。翻訳ソフトのDeep L (ディープエル)で、リケジョ と入力すると入力すると、「woman who allegedly pursues a career at the expense of love, (恋愛や女性的な興味などを犠牲にしてキャリアを追求するとされる女性)」と翻訳されます。これが、ステレオタイプとなって、拡散していくわけです。AIの開発には、初期の段階で社会分析を取り入れることが求められています。ChatGPTやグーグルがどれだけバイアスのない世界を目指しても、一度決まってしまうと修正は難しいのです。開発者のステレオタイプが含まれたデザインは、偏見が助長される大きな要因になります。
偏見があるとはいえ、正しいデータをAIにインプットすれば、期待する成果が上げられるようになってきたことも事実です。データが揃っていないと 、AIの学習が正しく行われず精度が低いという問題が起こります。この機械を使って価値を生み出す一番大事なものは、アルゴリズムではなくデータになります。IoTデバイスの普及により、交通機関、電子マネー、家電、農場などから大量のデータが入る環境が整っています。これでだけでは足りずに、宇宙からデータを集める起業も現れました。アメリカのある起業は、衛星、ドローン、気球、その他の無人航空機から数ペタバイトにのぼるデータを入手しています。このデータを使って、コロナ禍の時に、東京から周辺部に移住する人々を正確に捉えることも可能にしています。データを収集するプロセスにオリジナリティがある場合、この分野では非常に有利な立場を形成できるのです。蛇足になりますが、一般に、AIの利用は、失うもののリスクが大きくない分野に投入されます。たとえば、ギャンブルでいうと少額のかけ金や低リスク低リターンの領域で、適用が進んでいます。AIはそのような観点から、低い精度でも利用可能な領域での適用が進んでいます。創薬や自動車の自動運転は、AIに高い精度が求められます。人命や高額商品、そして責任が重大な案件を対象とする領域では、人間と共同で使用されることが多いようです。医療診断や裁判の判決、株の売買のような分野は「高リスク高リターン」と呼ばれています。医療診断や裁判の判決、株の売買や飛行機の自動操縦などでは、AI単独では運用が難しいようです。
AIなどの問題を暴くだけでなく、イノベーションにつなげようとする流れも出てきています。ネット上で「彼が」多くなれば、ジェンダーギャップがAIの中にも生まれます。それを少なくする努力が、人間の側にも求められるわけです。その対策として、AIと親和性の高いロボットを例にとります。家庭用のロボット開発が、急速に進んでいます。この製品開発において気を付けるこことは何でしょうか。ロボットに人間と同じように名前が付き、言葉をしゃべり、目の色や体つきによって利用者はどんな印象を抱くでしょうか。家事ロボットを女性的にし、セキュリティーロボットを男性的にすれば、性別的役割分業を強化することになります。この仕組みは、現在の男女平等や男女共同の理念から外れることになります。ロボットには、性差をつけずに機能を求めることになります。ロボットは擬人化するのではなく、ロボットとして扱ったほうが良いということです。スタンフォ―ド大学で開発された家事ロボット「Tidy Bot」は、アームの部分だけで働くように作られています。家事ロボットやセキユリテイーロボットを利用者が、パーツを選べるようにすれば良いということです。過去のバイアスを、未来へ引き継ぎ拡大させる自動化を、阻止する努力をしなくてはいけない時代になっているようです。
余談ですが、AIの偏見や最近急増しているディープフェイクなどの対策が喫緊の課題になっています。この対策を、どのようにすれば良いのかを考えてみました。これからの社会では、SNSなどの情報は不可欠になります。その中に、フェイクが紛れ込んでくると予想されるわけです。防御のヒントは、生産性の高いチームにあるようです。チーム内に心理的安全性が確立されている場合に限り、多様性の発想や創造性が得られることが分かってきました。良いチームは、メンバーが互いの考えを尊重する気風がありました。間違いを認めたり、リスクをとってチャレンジしたりできる安心感が、チーム内にあります。このチーム内のSNSを、重要視していくわけです。他の情報は、切り捨てる姿勢を堅持することになります。もっとも、それだけでは情報のガラパゴスになります。信頼できる外部のチームとの情報交換をすることになります。学会の発表や大手新聞などは、それほどフェイクニュースを流がしません。そのような情報をもとに、SNSの内容を取捨選択することになります。
最後になりますが、AIによる偏見も問題ですが、AIを利用したディープフェイクも大きな問題になってきました。2018年にオバマが「トランプは、どうしょうもなくバカだ」と語る動画が公開されました。これは、ディープフェイクというAIの手法をつかったものでした。他人の顔と入れ替えて、実在しないリアルな人物映像を作る手法です。このフェイクアルゴリズムが生成する動画は、とてもリアルなものです。問題のオバマの動画は、AIの悪用リスクを広く知ってもらうために作ったフェイク動画だと判明しました。ディープフェイクは、オープンにプログラムが公開されています。この手法の悪用が、容易になっているのです。もちろん、この悪用を防ぐための努力がなされ、本物か偽物かを見分ける方法が追求されます。動画の人物には、まばたきの動きに違和感があることが分かりました。解析を続けた結果、動画がフェイクかリアルかを判定できるようになったわけです。でも、ディープフェイクのアルゴリズムも進化していきます。動画のまばたきを改善することは、大した手間ではないことがすぐに明らかになります。悪意ある人がこの種のAIを使うことが、ものすごいスピードで広まってきています。この技術は、映像だけでなく音声や文章でも本物そっくりのフェイクコンテンツを作成するまでに進化してきました。ニセの音声は、フェイク映像を作るのと似た技術で作れます。最新の技術では、人物の顔写物1枚で、話している様子を生成してしまうそうです。また人間が書いた文章と見分けがつかないほどの自然な文章を、書けるAIが開発されています。人間そっくりの文章を大量に作れるAIは、デマを故意に拡散する手段に使われる恐れがあります。本人とそっくりのニセ映像や音声、そして文字の「ディープフェイク」の被害が広がる兆しを見せているのです。私たちは、AIなどの偏見とディープフェイクと直面しながら、負けずにわが道を歩きたいものです。