【この記事は約 7 分で読み終わります。】

人工知能を駆使するソフトバンクとオートバックスの注目事例

AI(人工知能)の賢さの秘密「ディープラーニング(深層学習)」はそもそもなんなのか。機械学習と何が異なり、どう活用されているのかを解説する。

シェアする

  • RSSで記事を購読する
  • はてなブックマークに追加
  • Pokcetに保存する

AI(人工知能)は、2010年ごろまではそれほど賢くなかった。それが2015年ごろから急に賢くなり始めた。そのカギを握るのが「ディープラーニング(深層学習)」である。

従来のAIは「マシンラーニング(機械学習)」で学んでいたが、いまは「深く学習する」ようになったのだから、賢くなるのは当然だ。

――というところまでは、多くの人が理解しているところだろう。

しかし、そもそもディープラーニングとは何なのだろうか。深く学習するとは、どういうことなのだろうか。そもそも人の学びと、コンピュータの学びは何が同じで何が異なるのだろうか。

ディープラーニングは、機械学習と何が違うのだろうか。ディープラーニングには苦手な仕事はないのか。

そして、ディープラーニングをどう活用されているのだろうか。ディープラーニングの基礎と今を概観する。

ディープラーニング

ディープラーニングとは何なのか

「Aという条件にBという条件を加えるとXになるが、AにB以外の条件を加えてもXにならない」という状況があったとする。

すると、ディープラーニングもAIも搭載されていない普通のコンピュータは、電源を入れている限りずっとAとBを探し出してXを導く。

これは単純な作業であるが、AとBとCとDとEと…Zがそれぞれ1万個あるとき、コンピュータはとても便利な道具になる。人がこの作業をすると疲弊するからだ。

しかし「条件Aに条件Bを加えるとXになるが、Aにbを加えたときも『まれに』Xとなることがある」というオーダーになると、AIレスのコンピュータは途端に機能しなくなる。

さらに、「条件Aに条件Bを加えるとXになるが、Aにbを加えたときも、aにBを加えたときも『まれに』Xとなることがある」となると、さらに対応できなくなる。

しかし実際のビジネスシーンでは、「条件Aに条件Bを加えるとXになるが、Aにbを加えたときも、aにBを加えたときも『まれに』Xとなることがある」ことを理解して対応できないと、仕事が完成しないことばかりだ。

だから「コンピュータは途中までしか使えない、最後は人の手と頭脳が必要だ」となる。これがスキルがある人間とコンピュータの間に立ちはだかる壁だった。

その壁を、ディープラーニングAIが乗り越えたのだ。

ディープラーニングを理解するときのコツは「層」をイメージすることだ。

上記の条件は3層になっていることがわかる。つまりこのような構図だ。

<第1層>Aという条件にBという条件を加えるとXになるが、AにB以外の条件を加えてもXにならない

<第2層>条件Aに条件Bを加えるとXになるが、Aにbを加えたときも「まれに」Xとなることがある

<第3層>条件Aに条件Bを加えるとXになるが、Aにbを加えたときも、aにBを加えたときも「まれに」Xとなることがある

ディープラーニングは一気に問題を処理するのではなく、1層ごとに問題を解決していく。つまり層が増えれば増えるほど、つまりディープになればなるほど、ディープラーニングを搭載したAIは賢くなるのだ。

これは人の成長と似ている。

例えば会社の上司が部下に仕事を指示するとき、スキルが高い部下であればいきなり<第3層>レベルの指示をしても難なく仕事をこなす。しかしスキルのない部下は、いきなり<第3層>のオーダーに応えることはできない。

ところがそのスキルのない部下も<第1層>の仕事なら、なんとかこなせるだろう。ならば<第1層>の仕事をしばらくやらせておき、ミスなくできるようになったら<第2層>へ、そして<第3層>へとステップアップさせていけばよい。

そうすればスキルのない部下でも、<第3層>の仕事を難なくこなせるようになる。

実際にビジネスに投入されているディープラーニングAIでも同じことが起きている。オフィスにディープラーニングAIを設置した当初は大して仕事ができないが、日を追うごとにみるみるスキルを上げていくのである。

ディープラーニングAIは「自分」で層を増やしていけるからだ。

機械学習と何が違うのか

「ディープラーニングは機械学習より賢い」といわれることがあるが、これは正しい表現ではない。ディープラーニングは機械学習の一種だからだ。機械学習のほうがより広い概念で、その概念はディープラーニングを含む。

ただ、「ディープラーニングは機械学習より賢い」という表現は、あながち間違っているともいえない。というのも「かつての機械学習」と「いまのディープラーニングな機械学習」は、まるで別物だからだ。

例えば、現代の若者が「電話機」と聞いて「スマートフォン」を連想しないのと同じである。確かに「スマホは電話機」だが、もはや「スマホは電話機ではない」ともいえる。

さて、ディープラーニングと従来の機械学習の違いをみていこう。

赤いリンゴと青いリンゴを区別するとき、機械学習が入っていない普通のコンピュータでは、「この赤いリンゴ」と「この青いリンゴ」は識別できるが、少しオレンジがかった赤いリンゴや少し黄色くなった青いリンゴは違うものとして排除してしまう。

しかし機械学習であれば、赤いリンゴの写真千枚と青いリンゴの写真千枚を見せた後に、まったく別のリンゴの写真を見せれば、赤いリンゴか青いリンゴか言い当てることができる。

ただ従来の機械学習では、人が「色に着目しなさい」と指示しなければ、色で識別しようとしなかった。

つまり従来の機械学習を搭載したAIには、人が「目の付けどころ」を教えてあげなければならなかったのである。

「目の付けどころ」のことを「特徴量」という。

ところがディープラーニングを搭載したAIは、人が特徴量を指定する必要はない。

リンゴの写真を2千枚見せておけば、ディープラーニングAIが「自分」で特徴量をみつけるのだ。

擬人化して説明すると、AIが「同じリンゴといっても、さまざまな色があるんだな」「そういえば形も違うな」「これはリンゴっぽいけど、ナシかな?」と判断できるようになる。これはかなり「考える」に近い活動である。

例えばアパレルショップの店長がディープラーニングAIに、「このお客様が好みそうなファッションは?」と問い合わせると、帽子やマフラーやスニーカーまで選択するようオーダーされなくても、帽子やマフラーやスニーカーも含めた服とパンツをコーディネートしてくれる。

ただディープラーニングには問題がある。それはAIが「なぜその答えを出したのか」を検証できないことだ。

アパレルショップのディープラーニングAIでいえば、店長が「このコーディネートはこのお客様が好まない。やり直し」と指示すれば新たなコーディネートを提案するが、しかしなぜその改善をしたのかはわからない。ディープラーニングAIは「自分の思考」を人に伝えることができない。そもそも「自分の思考」もないのだが。

そこで次に、ディープラーニングの苦手な仕事をみていこう。

何が苦手なのか

ディープラーニングAIは、「より高次元なものをつくること」が苦手だ。

例えば現在のディープラーニングは、「猫」と「犬」と「家」と「海」の4枚の写真のなかから、猫の写真を選び出すことができる。しかも、「後ろ向きの猫」と「犬」と「家」と「海」の4枚の写真のなかからでも、猫の写真を選ぶことができる。

さらにディープラーニングAIは、正面を向いている猫と後ろ向きの猫を区別することもできる。

しかしディープラーニングAIは「猫は正面の方向に進むことが多く、後ろ向きに進むことはまれ」ということまではわからない。

なぜならディープラーニングAIは、映像を3次元でとらえていないからだ。

つまりディープラーニングAIは、2次元情報から3次元情報を想像することが苦手だ。それは3次元情報のほうが、2次元情報より高次元な情報だからである。

次に言語について考えてみる。

俳句や小説をつくるAIはすでに開発されている。また、人と自然な会話をするAIも存在する。

しかしディープラーニングAIはまだ、言語が発せられたときに存在した感情を想像することができない。

例えば「私が買ったアイスは既に溶けていました」という文章について考えみよう。

ディープラーニングAIに「溶けたアイスに関する文章をつくれ」と指示すれば、「私が買ったアイスはすでに溶けていました」と作文するかもしれない。

しかしそこには、買ったばかりのアイスが溶けていたことに対するアイスクリーム店への怒りはない。ディープラーニングAIにはまだ、感情が搭載されていないからだ。

そしてAIに感情を搭載することは簡単ではない。それは、言語より感情のほうがより高次元な情報だからである。

ただ、「感情を理解しているようなAI」はすでにビジネスシーンで活躍している。例えばあるコールセンターでは、客からの問い合わせメールを、まずディープラーニングAIに読ませている。そしてディープラーニングAIは、メールの内容に客の怒り感情がみつかったら、人のオペレーターに知らせる。

怒り感情が含まれていないと判定したメールに対しては、ディープラーニングAIが模範回答集のなかから適した回答を探して客に返信する。

しかしこのコールセンターAIは客の感情を推測しているわけではない。客のメールの文面のなかにある「怒りの言語」や「不快な言語」を拾い集めているだけだ。

企業としては、怒りを表さず冷静な文面のクレームメールこそ気をつけたいところだが、その判定はまだディープラーニングAIではできない。

まとめ~感情を搭載できるのか

ディープラーニングはすごい技術だが、まだ完全に人間を模せているわけではない、というのが現状のようだ。

ただ、AIが将来的に、3次元情報や感情など、より高次元な情報を理解することは不可能ではない、と予測するIT専門家もいる。

そのためには「3次元モデル」や「感情モデル」「イメージモデル」をつくり、それをAIに搭載する必要がある。

つまり「2次元モデル」から「3次元モデル」を想像させるのでも、「言語情報」から「感情情報」をつくろうとするのでもなく、「3次元」や「感情」を直接そのままAIのなかに入れるというのである。

その実現にはもう少し時間がかかりそうだ。


<参考>

  1. 絶対に超えられないディープラーニング(深層学習)の限界(ROBOmind)
    https://robomind.co.jp/deeplearninglimit/
  2. AIを現実のものとする「ディープラーニング」の歴史はどこから始まったのか?(Gigazine)
    https://gigazine.net/news/20170803-history-of-deep-learning/
  3. ディープラーニング・深層学習?〜AI初心者と一緒に学ぶ人工知能の基礎のキソ③(ものづくりニュース)
    https://news.aperza.jp/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E3%83%BB%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92%EF%BC%9F%E3%80%9Cai%E5%88%9D%E5%BF%83%E8%80%85%E3%81%A8%E4%B8%80%E7%B7%92/
  4. ディープラーニングは何が「ディープ」なのか(日本経済新聞)https://www.nikkei.com/article/DGXMZO11923100Q7A120C1000000/?df=3
シェア

役にたったらいいね!
してください

シェアする

  • RSSで記事を購読する
  • はてなブックマークに追加
  • Pokcetに保存する