生成AIは機械学習から始まる-その9:多層化がもたらしたブレイクスルー

生成AIは機械学習から始まる-その9:多層化がもたらしたブレイクスルー

前回は、”深層学習の課題と限界”や”深層学習が可能にした新たな応用領域”についてご紹介しました。今回は、「多層化がもたらしたブレイクスルー」と題して、”多層化”のこれまでに焦点をあててご紹介したいと思います。

このシリーズも大分長くなってきていて過去の記事がたくさんあります。以下にリンクを張っておきますので、まだ、ご覧になっていない場合は是非以下のリンクより訪問してみてください。

 第一回:生成AIは機械学習から始まる:基礎から理解する技術の系譜と実装への道

 第二回:生成AIは機械学習から始まる-その2:機械学習のアプローチ

 第三回:生成AIは機械学習から始まる-その3:教師なし学習(Unsupervised Learning)

 第四回:生成AIは機械学習から始まる-その4:強化学習Reinforcement Learning)

 第五回:生成AIは機械学習から始まる-その5:深層学習(Deep Learning)の登場

 第六回:生成AIは機械学習から始まる-その6:なぜ「深層」なのか

 第七回:生成AIは機械学習から始まる-その7:深層学習を支える技術革新

 第八回:生成AIは機械学習から始まる-その8:深層学習の課題と限界と新たな応用領域

では、さっそくはじめていきましょう!

深層学習(Deep Learning)の「深層(Deep)」は、ニューラルネットワークの層の深さを指すことは前回までの記事でご紹介したとおりですが、深層学習は単に層を積み重ねた技術ではありません。

そこには、機械学習の歴史を変える本質的なブレイクスルーがありました。

深層学習前夜:AIの冬

ニューラルネットワークの歴史は、実は1940年代まで遡ります。

第一次AIブーム(1950年代〜1960年代) パーセプトロンの発明により、ニューラルネットワークは大きな期待を集めました。しかし、1969年にマービン・ミンスキーとシーモア・パパートが著書『Perceptrons』で、単層パーセプトロンの限界を数学的に証明しました。

余談ですが、その後の版としては、以下のものがあります。

  • 1972年: 手書きの訂正と追加が加えられた第2刷(second printing)
  • 1988年: ニューラルネットワークの再評価を受けて、序文とエピローグが追加された拡張版 (Expanded Edition)

さて、話を”層”にに戻します。

最も有名なのがXOR問題です。

XOR問題とは

XOR問題とは、排他的論理和(Exclusive OR)の真理値表を、単一のパーセプトロン(線形分離可能なモデル)では学習・識別することができないという、初期のニューラルネットワーク研究における限界を示した問題のことであり、非線形な境界線が必要なパターンを扱うためには、多層構造(隠れ層)を持つニューラルネットワーク(多層パーセプトロン)が必要であることを理論的に証明した機械学習の歴史において重要な転換点となった課題のことです。

XOR(排他的論理和)は、入力が異なるときだけ1を出力する論理演算です。

  • (0, 0) → 0
  • (0, 1) → 1
  • (1, 0) → 1
  • (1, 1) → 0

この単純な問題が、単層パーセプトロンでは解けないことが証明されました。これにより、ニューラルネットワーク研究への投資は激減し、「AIの冬」と呼ばれる停滞期に入りました。

第二次AIブーム(1980年代)

第二次AIブーム(1980年代) 1986年、ジェフリー・ヒントンらが誤差逆伝播法を再発見し、多層ニューラルネットワークの訓練が可能になりました。XOR問題も、2層のネットワークで簡単に解けることが示されました。

しかし、再び壁が現れましたのです。

それが以下の3つです。

  • 勾配消失問題:深いネットワークでは、逆伝播の過程で勾配が消失し、初期層が学習できない
  • 計算資源の不足:当時のコンピュータでは大規模なネットワークの訓練が困難
  • データ不足:大規模な訓練データセットが存在しなかった

2025年も終わろうとしている今も似たような問題が世界各地で出ているので、何とも言い得ないのですが、1990年代から2000年代初頭、ニューラルネットワークは再び下火になり、サポートベクターマシン(SVM)やランダムフォレストなどの手法が主流となったのです。

2012年の革命:ImageNetでのブレイクスルー

転機は2012年に訪れました。トロント大学のジェフリー・ヒントンとその学生たちが開発したAlexNetが、ImageNet画像認識コンペティションで圧倒的な性能を示したのです。

AlexNetの成績

  • エラー率:15.3%(従来の最高は26.2%)
  • 2位に10%以上の差をつけての圧勝

1. アルゴリズムの革新

  • ReLU活性化関数:勾配消失問題を大幅に軽減
  • Dropout:過学習を防ぐ正則化技術
  • データ拡張:限られたデータから学習効率を向上
  • バッチ正規化:学習の安定化(2015年に登場)

2. 計算資源の進化

  • GPU(Graphics Processing Unit)の活用:並列計算により訓練速度が数十倍から数百倍に向上
  • AlexNetは2つのGPUを使用して訓練された

3. 大規模データセットの登場

  • ImageNet:120万枚以上のラベル付き画像、1000カテゴリ
  • インターネットの普及により、大規模データの収集が可能に

この成功を契機に、深層学習は爆発的に発展し、機械学習の中心的技術となったと言われています。

大分、駆け足で多層が主流になったきっかけ、ImageNetでのブレイクスルーについてご紹介してきました。過去のことですので、まぁこんな経緯をたどりながら今、多層化、深層の領域にいるのだな程度に考えて頂ければ良いと思います。

次回は、皆大好き”自然言語処理(Natural Language Processing, NLP)”について少しづつ踏み込んでみたいと思います。

APPSWINGBYは、最先端の技術の活用と、お客様のビジネスに最適な形で実装する専門知識を有しております。AI開発から既存の業務システムへの統合などの他、リファクタリング、リアーキテクチャ、DevOps環境の構築、ハイブリッドクラウド環境の構築、システムアーキテクチャの再設計からソースコードに潜むセキュリティ脆弱性の改修の他、テクノロジーコンサルティングサービスなど提供しています。

貴社のセキュリティ対策等についてご相談されたい方は、お問い合わせフォームからお気軽にご連絡ください。システムの専門家が、貴社の課題解決をサポートいたします。

システム開発にお困りではありませんか?

この記事を書いた人
株式会社APPSWINGBY
株式会社APPSWINGBY マーケティング

APPSWINGBY(アップスイングバイ)は、アプリケーション開発事業を通して、お客様のビジネスの加速に貢献することを目指すITソリューションを提供する会社です。

ご支援業種

情報・通信、医療、製造、金融(銀行・証券・保険・決済)、メディア、流通・EC・運輸 など多数

株式会社APPSWINGBY
株式会社APPSWINGBY マーケティング

APPSWINGBY(アップスイングバイ)は、アプリケーション開発事業を通して、お客様のビジネスの加速に貢献することを目指すITソリューションを提供する会社です。

ご支援業種

情報・通信、医療、製造、金融(銀行・証券・保険・決済)、メディア、流通・EC・運輸 など多数

監修
APPSWINGBY CTO川嶋秀一
株式会社APPSWINGBY  CTO 川嶋秀一

動画系スタートアップや東証プライム上場企業のR&D部門を経て、2019年5月より株式会社APPSWINGBY 取締役兼CTO。
Webシステム開発からアプリ開発、AI導入、リアーキテクチャ、リファクタリングプロジェクトまで幅広く携わる。
C, C++, C#, JavaScript, TypeScript, Go, Python, PHP, Java などに精通し、Vue.js, React, Angular, Flutterを活用した開発経験を持つ。
特にGoのシンプルさと高パフォーマンスを好み、マイクロサービス開発やリファクタリングに強みを持つ。
「レガシーと最新技術の橋渡し」をテーマに、エンジニアリングを通じて事業の成長を支えることに情熱を注いでいる。

APPSWINGBY CTO川嶋秀一
株式会社APPSWINGBY  CTO 川嶋秀一

動画系スタートアップや東証プライム上場企業のR&D部門を経て、2019年5月より株式会社APPSWINGBY 取締役兼CTO。
Webシステム開発からアプリ開発、AI導入、リアーキテクチャ、リファクタリングプロジェクトまで幅広く携わる。
C, C++, C#, JavaScript, TypeScript, Go, Python, PHP, Java などに精通し、Vue.js, React, Angular, Flutterを活用した開発経験を持つ。
特にGoのシンプルさと高パフォーマンスを好み、マイクロサービス開発やリファクタリングに強みを持つ。
「レガシーと最新技術の橋渡し」をテーマに、エンジニアリングを通じて事業の成長を支えることに情熱を注いでいる。