マルチモーダル AI により、テキストからイメージが作れるようになってすぐ、例えば医者とインプットすると男性の医師が描かれ、看護師とインプットすると女性で描かれるというジェンダーバイアスが問題になった。しかし、AI は主にパブリックなデータベースから画像を拾っているので、この結果は我々が利用しているパブリックデータベースやソーシャルネットにジェンダーバイアスが存在していることを意味している。
今日紹介するカリフォルニア大学バークレイ校からの論文は、Google のようなパブリックデータベースに蓄積されたジェンダーバイアスを調べ、またそのバイアスが我々にどう影響するのかを、画像とテキストに分けて調べたユニークな研究で、2月14日 Nature にオンライン掲載された。タイトルは「Online images amplify gender bias(オンラインのイメージがジェンダーバイアスを増幅させる)」だ。
この研究ではまず、3500近い社会的カテゴリーについて100枚のイメージを Googleサーチで集め、それぞれのイメージの性別を6500人近くの人間に手分けして判断させている。この結果、9割は性別を決めることが出来ている。一方、language model のエンベッディングを利用して、テキストに表現されるジェンダーバイアスについても同時に調べている。
それぞれのジェンダーバイアスを比べると、画像でのバイアスが極めて高い。例えば水道工事となると画像ではほとんど男性になるが、テキストではその半分程度のバイアスしかない。逆も同じで栄養士の画像はほとんど女性だが、テキストではバイアスは半分以下になる。
さらに、職業を問わずイメージ全体で見るとネット上の女性イメージがそもそも少ない。さらに、人口統計で見られる実際のジェンダーバイアスと比べても、画像に蓄積されたバイアスは高い。一方、テキストでは人口統計のバイアスも是正されている。
次に、このバイアスが我々の判断にどう影響するか、先入観が少ない科学や芸術と言った特殊な職業について、Google で調べた後、その職業について心理的なジェンダーバイアスが生まれたかどうかを、自己申告や、心理テストで調べている。
結果は、ウェッブから拾ってきたデータ自身のジェンダーバイアスは、データが画像の場合より増幅されて我々のイメージとして定着することが明らかになった。一方、テキストの心理的効果はランダムだ。
結果は以上で、我々が毎日作り出しているイメージが SNS上で社会化され、それが今度は我々の判断に影響するというサイクルが発生し始めていることを意味する。
ルソーの一般意志を Google のような新しいテクノロジーで拾い上げることが可能になったことを東浩紀さんが「一般意志2」で書いたのは10年以上前で、優れた先見性を持った著作だったが、これを越えてテクノロジーが進んでいることを感じる。
1:我々が毎日作り出しているイメージがSNS上で社会化され、それが今度は我々の判断に影響するというサイクルが発生し始めていることを意味する。
2:ルソーの一般意志をGoogleのような新しいテクノロジーで拾い上げることが可能にな時代に
Imp:
。
テクノロジーと人間意思の不思議な関係