人工知能は顔認識ソフトだった! 人間と人工知能の未来を語る~長谷川修インタビュー(前編)
アルファ碁が人間を破ったことで、注目の人工知能。東京工業大学・未来産業技術研究所 准教授であり、人工知能SOINNを開発した長谷川修氏に話を聞いた。(全2回)
スポンサーリンク人工知能はアルゴリズム
― 人工知能といっても、ハード自体は従来のコンピュータと変わりがないんですよね?
長谷川:そうです。多くの場合は画像に転換してデータを覚えさせるということをやっています。
人間もロジックで組んでいく部分とイメージで考える場合があると思います。旅行へ行く時でも、電車の乗り換えを一つ一つ順番に考える時と旅行のイメージをふくらませる時では、感じが違うと思うんですよ。
りんごと聞いて浮かぶのは形だったり、色だったり、味だったりすると思いますが、特定のりんごを思い浮かべているわけじゃない。なんとなくある、ぼんやりした、りんごのイメージで考えます。
近年話題のディープラーニングは、画像処理の分野で昔からある方法を使っています。“ディープ”ラーニングといっても、私たちからすれば、何十年も前からあるネオコグニトロン(1979年に電子通信学会論文誌で発表された、視覚パターン認識に関する階層型神経回路モデル)の発展形です。
画像処理と人工知能はもともと別の分野だったんですが、パソコンのスペックがあがって、現実的な時間で処理できるようになりました。いろんなパターンを覚えさせて使うことができるようになったんです。
― 人工知能は画像処理技術なのですか?
長谷川:ディープラーニングについて言えば、基本的には同じです。デジタルカメラに顔認識機能があると思いますが、ああした技術を応用しているんです。自動運転も、顔を見分けるように、前が安全かどうかを見分けています。
― 人工知能と人間の違いは?
長谷川:人工知能と人間は全然違います。人間の場合、脳細胞は一つひとつ生きているので、自励振動をします。目をつぶっても情景が思い出せるのは、刺激が入って来なくても、脳細胞が自ら“発火”することで、イメージを生成できることによります。
多様な脳波も、さまざまな部位の脳細胞の“発火”により生じます。コンピュータは計算することはできても、ニューロンが生きているわけではないので、何かを発想することはできません。
コンピュータは入ってきた情報を処理して出力しておしまいです。受動的です。指示されたことを忠実に処理するだけであり、そこは人工知能も電卓と同じです。
取材・文 川口 友万
【後編に続く】