過去記事一覧
AASJホームページ > 2018年 > 10月 > 27日

10月27日 AIに道徳観を植え付ける(Nature オンライン掲載論文)

2018年10月27日
SNSシェア
論文の中には、友達同士酒の席で浮かんできたような疑問を、「よし、みんなで調べてみよう」といった感じで、実際に実験や調査を行うといった、極めて思いつき型の論文ではないかと思えるものがある。この場合、もちろんそこには地道な研究の積み重ねなどは、論文の中でみじんも感じられない。独断的な議論でアマチュアという印象を受ける。このような論文が掲載されるためにはquestionが勝負になる。

今日紹介するMITのメディアラボからのNature論文はまさにそんな例で、「AIに道徳観を植え付ける」という状況を設定して、読者を引き込もうとする意思が見え見えの研究だが、読んでみるとちょっと拍子抜けという論文だった。タイトルはもちろん魅力的で「The Moral Machine experiment (道徳機械実験)」だ。

Questionはシンプルで、「機械の限界から事故が不可避と判断された時、いくつかの可能性の中から最も道徳的な選択をAIが選ぶときの基準をどう決めるか?」だ。タイトルから見ると、これを実現するのが道徳機械でこれを実現したのかと錯覚するが、実際にはそうではなく、至極まっとうな議論がIntroductionで進められる。すなわち、「道徳といっても絶対的基準はなく、社会に応じた相対的なもので、AIに実装する選択基準もそれぞれの国や文化が最も受け入れやすい必要がある」というわけだ。

とすると、全世界にわたって相対的な道徳基準を調べる必要が出てくる。ここまで読み進むと、ようやく「道徳機械」とは何かがわかる。すなわち、全世界からいくつかの道徳課題について考え方を集め、整理する機械なのだ。わかりやすくいうと、全世界レベルの世論調査機械が彼らの言う道徳機械だ (日本語のウェッブサイトhttp://moralmachine.mit.edu/hl/ja参照)。

ウェッブ上で道徳機械アプリにアクセスしてもらい、そこで設問に答えてもらう。設問は、タクシードライバーが例えばブレーキの故障でそのまま進めば歩道を歩いている人、ハンドルを切れば同乗の人が犠牲になるという状況がわかったとき、どちらを選択すべきかで、選択対象を女性vs男性、子供vs大人、信号を守る歩行者vs守らない歩行者、など13種類の状況を設定して答えさせている。

よく考えると、コンピュータによる単純なアンケート調査にすぎない。ただ、論文によると233の国から4千万近い参加者があったようだ。もちろん、入力されたデータを、様々に層別化して分析する機能を持っており、例えば国別での道徳基準を容易に導き出すことができるようになっている。

結果はわりと当たり前で、世界中で例外なく男性より女性を大事にする。しかし、日本などアジア諸国は若年者を大事にしない傾向がある。ラテン系ではペットと人間を選ぶとき、人間への重みが少ない。などなど、詳しくは紹介しないが、なんとなくわかる結果が列挙されている。もちろん国別で経済格差の影響や、個人主義の影響など、分析が行われているが、驚くと言ったデータではない。

そして話はここで終わってしまう。本来なら、これで学習させたAIで道徳を実装した仮想自動車が、シミュレーション実験でどう決断したのかぐらいまでやって初めて、Natureに掲載されるべきだと私は思う。

もちろんあっという間に4000万人に対しての調査がでる時代がきたことはすごい。そして、結局道徳とは相対的なものだということを説得力をもって示せた力も認める。ただ著者らが書いているように、同じような結論に、ドイツの倫理委員会では、委員会議論の上に到達しているようで、逆に人間が積み重ねてきた知恵の偉大さが際立ってしまった気がする。本当の道徳機械はできるのだろうか。
カテゴリ:論文ウォッチ
2018年10月
1234567
891011121314
15161718192021
22232425262728
293031