1: 2019/01/25(金) 15:16:16.74 ID:CAP_USER
「ライバルがAI(人工知能)を使ったサービスを発表したそうだ。ウチはどうするんだ」――本連載では、上司から突然こんなむちゃぶりを受けて困っている人のために、AIプロジェクトの進め方をいちからまとめてきた。

 あなたはAI導入の目標を明確にし、必要なデータをそろえ、PoC(概念実証)を実施して、AIをどう活用すれば本当に役立つのかを把握した所だ。

 あとは本番環境に実装すれば任務完了――と言いたいところだが、残念ながらこれで終わるわけではない。

 採用した新人を現場に配属して「あとはよろしく」で終わる人事担当がいたらどう思うだろうか? AIを開発して終わりと考えるのは、それと同じようなものだ。AIが真に成果を出せるかどうかはその後のフォローで決まると言っても過言ではない。本稿で解説する3つのフォローが実施できるよう、予算とマンパワーを確保しておいてほしい。

■その1:「偏見を持つAI」を作らないために 運用後も「再学習」
 これまでの記事でも述べてきたが、本連載ではAIを「これまで人間のみが実行可能だった作業や、人間には不可能だった作業を、機械がデータに基づいて実行することを可能にする仕組み」と定義している。

 実際に最近のAIアプリケーションは、データを使ってAIを学習させ、目標とする作業をさせるものが多い。そのため連載第2回で解説したように、AI導入プロジェクトでは「適切な質と量のデータを集められるかどうか」が重要になる。
http://image.itmedia.co.jp/news/articles/1901/25/koba4_02.jpg

 AIの開発が終わったからといって、この課題が消えてなくなるわけではない。1度学習させた内容が、時間経過や環境の変化などで不適切なものになる可能性があるためだ。

連載第2回では、米Amazon.comの失敗についても解説した。採用候補者の履歴書を自動で審査するAIを開発したところ、女性よりも男性を高く評価する「偏見」を持つようになってしまったというものだ。この原因は、学習に使用した過去10年分の履歴書において、男性からの応募が大半を占めていたことにある。そして実際に大量の男性が採用されていたことで、AIが「女性」という性質を、低い点数を与えるシグナルと解釈してしまったわけだ。

 これは開発時の学習用データ準備の失敗ということになるが、環境や時代の変化によってAIの学習内容が時代遅れになってしまった事例という解釈もできるだろう。

 例えばいま、日本の企業がAmazonのように過去の履歴書を学習用データとした「履歴書審査AI」を導入したとしよう(ソフトバンクやサッポロビールなど、実際に採用プロセスにAIを活用する企業は既に登場している)。

 このAIは女性差別をしないように調整されているものの、過去の採用で応募してきたのは日本人ばかりだ。しかし今後、少子高齢化対策として日本で外国人が働きやすくなり、大勢の外国人がこの会社に応募するようになったとしたらどうだろうか。非常に優秀な外国人候補者がいても、AIは彼もしくは彼女を適切に評価できない恐れが大きい。

 このように、いくら過去のデータに基づいて優秀なAIを開発しても、その後の環境変化でAIのアウトプットが不適切なものになる可能性がある。そのためAIの判断精度を定期的に確認して、必要であれば新しいデータを使って「再学習」してやる必要があるのだ。

続きはソースで

ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1901/25/news041.html

images

引用元: 【AI】“がっかりAI”はなぜ生まれる? 「作って終わり」のAIプロジェクトが失敗する理由 [01/25]


続きを読む

Source: 理系にゅーす