“説明可能なAI”の教科書、日本語訳を公開 「AIに何ができ、何ができないか」理解の手引きに

5

2021年05月18日 12:52  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真冒頭は「物語の時間」から始まる。機械学習のバグにより人間社会に問題が起きるショートショートだ
冒頭は「物語の時間」から始まる。機械学習のバグにより人間社会に問題が起きるショートショートだ

 機械学習モデルによる判断を、人間が解釈・説明するための手法について俯瞰的に解説する名著「解釈可能な機械学習/Interpretable Machine Learning」日本語訳が、このほど公開された。



【その他の画像】



 翻訳プロジェクトを主催したAI企業のHACARUSは、「AIに何ができて何ができないかを正しく理解するために、非常に役に立つ」と紹介。「最初の数章に目を通すだけでも価値がある」という。



 Interpretable Machine Learningの原著(英語版)は、データサイエンティストクリストフ・モルナル氏による著書で、書籍で発行されている他、Webで無料公開されている。また、PDF版を有料ダウンロードすることもできる。



 同書では、「コンピュータは通常、判断の説明をしない。それが機械学習を採用する障壁になっている」との前提に立ち、機械学習モデルや、その判断を解釈可能なものにするノウハウを解説する。



 まず、解釈可能性とは何かを説明した後、決定木、決定規則などの単純で解釈可能なモデルについて学ぶ。その後、ブラックボックスなモデルにも適用できる解釈手法に焦点を当てていく。



 原著のWeb版は、非営利で再配布・改変可能なクリエイティブ・コモンズライセンス(CC BY-NC-SA 4.0)で無料公開されており、随時アップデートが行われている。



 HACARUSのデータサイエンティストは、同書を参考書に社内輪読会を行ってきており、昨年11月から日本語訳プロジェクトを始めた。和訳も原著と同様、GitHubで管理しているため、誤字や誤訳をIssue や Pull Request などで報告してほしいという。また、原著のアップデートにも対応していくとしている。


このニュースに関するつぶやき

  • いま盛んに言われているAIは、あくまでのプログラム内で判断をやっているだけで本当の意味で自主的に判断をするレベルには、達していないので疑似AIでしかないはずだけどね
    • イイネ!0
    • コメント 0件
  • うん。だからな、前提⇒手続き⇒結論のプロセスは、現段階では「人間」が与えてやるしかない。AIが「意識のハードプロブレム」を克服しても人間の支配下に置くことはできる。トロッコ問題を論ぜよ。
    • イイネ!2
    • コメント 2件

つぶやき一覧へ(4件)

ランキングIT・インターネット

前日のランキングへ

ニュース設定