410156_s
1: 2020/07/29(水) 08:10:54.97 _USER

人工知能(AI)が継続的に進化するには、加速度的に増える膨大な計算量が大きな壁になる──。そんな研究結果をマサチューセッツ工科大学(MIT)の研究チームが公表した。アルゴリズムの効率化やハードウェアの進化、クラウドのコスト低減、さらには環境負荷を減らす取り組みまで、課題は山積している。

欧州のある大規模スーパーマーケットチェーンが、2019年の初めに人工知能(AI)を導入した。この企業はAIを使って顧客が毎日さまざまな店舗で購入する製品を予測し、コストのかかる製品廃棄の削減と在庫の維持とを両立させていた。

売上を予測するためにこの企業は、すでに購入データとシンプルな統計的手法を使用していた。さらに、局地的な天気や交通状況、競合他社の動向といった追加情報に加えて、近年のAIの目覚しい進歩を加速させてきたディープラーニングを新たに導入したことで、エラーの数を75パーセントも削減したのである。

これはまさに、わたしたちがAIに期待するインパクトのあるコスト削減効果だった。しかし、そこには大きな落とし穴があった。新しいアルゴリズムに必要な計算の量があまりに多く、結局この企業はこのアルゴリズムを使わないことにしたのだ。

「言ってみれば、『クラウドコンピューティングのコストが下がるか、アルゴリズムがもっと効率的にならない限りは、大規模に導入する価値はありませんね』といった感じでした」と、マサチューセッツ工科大学(MIT)の研究者で、そうしたケーススタディーを集めているニール・トンプソンは語る。なお、トンプソンはこの企業の名を明らかにしていない。

この事例は、AIとそのユーザーに迫っている問題を浮き彫りにしているのだと、トンプソンは指摘する。近年のAIの進歩は圧倒的に速く、ゲームで人間を超えるプログラムや親切なパーソナルアシスタント、混雑した道路を自律走行するクルマなどを生み出してきた。しかし、こうした進歩を続けられるかどうかは、問題に対してより多くの計算リソースを常に投入し続けられるかどうかにかかっている。

トンプソンをはじめとする研究チームは新しい研究論文で、こうした進歩を続けるためにこれまでと同じペースで計算能力を高めていくことはできないか、まもなくできなくなるだろうと論じている。これにより、コンピューターヴィジョンや翻訳、言語理解のような分野におけるさらなる進歩には、歯止めがかかる可能性がある。

■飛躍的に増加する計算量

AIに必要な計算量は、ここ10年で飛躍的に増加している。ディープラーニングのブームが始まった12年には、トロント大学のチームが2つのGPUを使って5日以上かけて画期的な画像認識アルゴリズムを生み出した。19年には、グーグルとカーネギーメロン大学の研究者らが、初期のGPUより格段に優れた性能の特殊なチップ約1,000個を用いて、6日間かけてより優れた画像認識アルゴリズムを開発した。

また、グーグルのチームによって19年に開発された翻訳アルゴリズムは、1週間でおよそ12,000枚の特殊チップを必要とした。ある試算によると、この膨大な計算能力をクラウド経由で利用すると、最大300万ドル(約3億2,000万円)かかるという。

「ディープニューラルネットワークは計算コストが非常に高いのです」と、MITの助教授でディープラーニングの効率化を専門とする韓松(ハン・ソン)は語る。韓はトンプソンの論文の共著者ではない。「これは重大な問題です」

韓のグループは、新たな構造のニューラルネットワークと特殊な構造のチップを使って、一般的なAIアルゴリズムのさらに効率的なヴァージョンを作成している。しかし、「ディープラーニングに必要な計算量を減らすには、まだまだ長い道のりです」と、韓は言う。

■同じ手法での進歩は、ほぼ不可能?

ほかの研究者たちも計算需要の高まりを指摘してきた。フェイスブックのAI研究部門の責任者を務めるジェローム・ペゼンティは19年の『WIRED』US版のインタヴューに対し、AI研究者は計算リソース不足の影響を感じ始めていると語っている。

続きはソースで

https://wired.jp/2020/07/28/prepare-artificial-intelligence-produce-less-wizardry/

<!– Generated by まとめくす (http://2mtmex.com/) –>
続きを読む

Source: 理系にゅーす