ホーム > mixiニュース > IT・テクノロジー > エンタープライズ > AIを“暴走させない”ための4つの要素

AIを“暴走させない”ための4つの要素

3

2017年03月18日 12:24  ITmediaエンタープライズ

  • 限定公開( 3 )

  • チェックする
  • つぶやく
  • 日記を書く

ITmediaエンタープライズ

写真Microsoft バイスプレジデントのデイヴィッド・ハイナー氏
Microsoft バイスプレジデントのデイヴィッド・ハイナー氏

 米Microsoftのデイヴィッド・ハイナー氏が来日し、Microsoftが考える「信頼できるAI(Trusted AI)」の現状や課題、そして今後の展望などについて説明した。


【拡大画像や他の画像】


 同氏は、法務部門において、プライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野規制関連などを担当。人工知能に関しては、ポリシーフレームワークの開発を推進する役割を担っている。


●人工知能は人間の能力を拡張する技術


 人工知能が社会に貢献する事例の1つとしてハイナー氏が挙げたのは、ヘルスケア分野での活用だ。


 例えば人工知能は、X線で撮影された画像を理解し、リンパ腺にがんの可能性があると認識できるが、このエラー率は7.5%。優れた病理学者のエラー率は3.5%にとどまっており、現状では人の方が勝っている。しかし、この両者を組み合わせた場合のエラー率は、0.5%にまで減少することが分かったという。


 ハイナー氏の考えは、“人工知能は人間の能力を置き換えるのではなく、拡張できるものでなくてはならない”というもので、人間が持つ能力と共感力、判断力を支援するものになる必要があるという。


 「教育、ヘルスケア、交通、農業など、人工知能はあらゆる分野で利用されることになる。配管工にはレンチが必要なように、人工知能を多くの人が必要なツールとして利用できるようにしたい。いずれは全ての人が人工知能を使えるようにすることが大切」(ハイナー氏)


 その一方で、人工知能の利便性が高まるとともに、社会的な問題や倫理的問題が発生することも指摘する。


 「新たなテクノロジーが誕生すると、社会的な課題や倫理上の課題が必ず生まれてくる。人工知能は知識や学習、推論、意思決定を支援し、世の中を良くすると信じているが、同時に課題が生じることも認識しておくべき」とし、「人工知能はこの数年で大きく進化したが、併せて倫理に関する議論も必要になってきた。Microsoftでは、この1〜2年で社内委員会を設置して議論を始めている」と述べた。


●「信用できるAI」に重要な「FATE」とは?


 現在、Microsoftでは、「信頼できるAI(Trusted AI)」をキーワードに、AIの信頼性について「FATE」という観点から取り組んでいるという。


 FATEとは、「公平性(Fairness)」「説明責任(Accountability)」「透明性(Transparency)」「倫理(Ethics)」の頭文字をとったもので、この4つを信頼性の実現において重要な柱に位置付けている。


 ハイナー氏は、そうした取り組みの中で顕在化した幾つかの課題について、実例を示しながら紹介した。


 1つ目は、信頼性と安全性の課題だ。


 例えば、機械学習は収集されたデータを基に行うため、これが正しいデータでなければ、さまざまな問題が発生することになる。


 顔認識機能は、米国において白人を対象に研究開発が進められた経緯があり、アジア人よりも白人のほうが顔認識の精度が高いという。そのため、今後はアジア人をはじめ、全世界のあらゆる人の顔を対象にトレーニングを積み重ねていく必要があると指摘する。


 また自動運転については、フロリダ州で発生したTesla Motorsの自動運転の事故の例を挙げながら、「白いトラックに衝突したのは、人工知能がそれを白い霧と判断したため。人工知能が人間に危害を与えるものであってはいけない」と述べた。


 そして、このように自動運転で事故が起きた場合の責任はどうなるのかについても言及した。


 例えば、事故で人に危害が及んだ場合には、誰かが責任を取ることになる。もし、乗客に責任がないとすれば、自動車メーカーが責任を負うことになるだろうが、自動車メーカーは『人工知能は他社が作った』と言い張り、人工知能を作った企業を訴える可能性もある――というわけだ。


「これはエアバック事故と同じ。自動車メーカーは乗客のけがに対する責任を負いながらも、エアバックメーカーに損害賠償を起こすといったことが起きている」(ハイナー氏)


 2つ目は、公正性である。


 ハイナー氏は、Googleによる検索の事例を挙げながら、「『3人並んだ若い黒人』という画像を検索した場合、検索結果には、残念ながら犯罪の容疑者の写真が多く表示された。だが、『3人並んだ若い白人』では、バスケを楽しむ笑顔の子供たちが表示された」と指摘。これはGoogleがプログラミングしたわけではなく、多くのデータを基にした機械学習の結果だという。


 「この検索結果は公正なものとはいえず、人種差別があることを反映したもの。それをさらに人工知能が助長することにつながりかねない」と警鐘を鳴らす。


 同氏はまた、「CEO」と検索したときに、男性経営者の顔ばかりが表示されることにも懸念を示した。「確かにFortune 500に選ばれる企業でも85%以上のCEOが男性だが、少女がこの検索結果を見て、“CEOは男性の仕事である”と受け止めかねない」(ハイナー氏)


 ハイナー氏は、これを解決するには3つのステップが必要だという。1つは多様な人種が人工知能技術に関わることだ。


 「人工知能はシリコンバレーで進化を遂げているが、シリコンバレーで働く人は、若い白人男性が多い。この状況を変えていくことが人工知能の偏見をなくす」(ハイナー氏)。


 そして、「多様な視点で人工知能技術を捉える」「多様な分析技術を活用する」といったステップも大切だと話す。


 3つ目は、プライバシーの問題だ。


 先に触れたように人工知能はデータに依存するが、そのデータを基にした人工知能の推論によって、図らずも個人のプライバシーが明らかになってしまうケースがあるという。


 5年前、米大手小売のTargetでは、購買履歴を基におすすめの製品をプッシュでメールするといったサービスを行っていた。このとき、16歳の女性に対して妊婦に勧めるような製品のメールが相次いで届いたことに親が激怒。クレームを入れたという。


 Targetは謝罪したが、その後、親と連絡を取ると、その女性が妊娠していたことが発覚。妊娠初期だったため、妊婦が必要とする製品は購入していなかったものの、無香料のローションなど、妊婦がよく購入するような製品を購入していたことから、その履歴を基に人工知能が判断し、そうしたレコメンドメールを配信していたという。


 ハイナー氏は、「人工知能による推論でプライバシーが明らかにされてしまった例の1つである」としながら、対策について、次のように言及した。


 「個人が“情報をどこまで提供するのか“をコントロールできることが大切であり、情報を収集する側も、どんなデータを収集しているかを示す透明性も重要。そして、収集したデータをしっかりと保管し、情報が流出しないようセキュリティの担保が必要だ」(ハイナー氏)


●人工知能は人の仕事を奪うのか


 最後のポイントは、「人工知能が人間の仕事を奪ってしまうのか」という点だ。


 ハイナー氏は、「人工知能によって仕事が自動化され、仕事がなくなってしまうのではないかと懸念している人がいる。だが、これは人工知能に限ったことではなく、新たなテクノロジーが登場するたびに起こってきたこと」という。


 その例として挙げたのが車の登場だ。「1900年のニューヨークでは馬車が主な移動手段だったが、1920年には車に置き換わった。馬を飼育する仕事はなくなり、自動車産業が新たな雇用を生むことになった」(ハイナー氏)


 例えば、自動運転が普及すれば、ドライバーの仕事はなくなるかもしれないが、それとは別の新たな仕事が生まれる可能性があるというわけだ。


 「単純作業を人工知能やロボットが担うようになれば、その分、人はよりインテリジェントな仕事に関われるようになる。どんな仕事を奪い、どんな仕事を生むのかは分からないが、人工知能が人間のスキルを増進させるための役割を果たすのは明らかだろう」とする。


 人工知能は、社会に進展に大きな影響を与えるのは間違いがない。だが、それは、「信頼できるAI」でなくてはならないのは明白だ。技術の進化だけでは、社会で活用される技術にはならない。


    あなたにおすすめ