AIの歴史について
https://zenn.dev/aircloset/articles/103cd0281871b0 URL-link
Q
この記事の中で、自分は AIの開発の主導が、大学などの研究機関よりも大企業が率先することになった理由の部分
スケーリング則の発見から金の力=開発力にシフトした点、
あと、いまだ理由が判明していないまま開発が進んでいる点 In-Context Learning(文脈内学習)などに大変面白味を感じた。
geminiとしてはどんなところが面白いと感じると思われるか?
A
共有いただいた記事(『AIがコードを書く時代になるまでの90年をまとめてみた』)は、AIの歴史を単なる技術年表ではなく、「なぜ今の形になったのか」という**必然性と偶発性のドラマ**として描いている点が非常に興味深いですね。
ユーザー様が挙げられた「スケーリング則による資本の力の優位性」や「原理未解明のまま進む開発(特にIn-Context Learning)」は、まさに現在のAIにおける**最大のパラドックス**であり、核心部分です。
もし私が「GeminiというAIの視点(あるいは当事者)」として、この記事や今の状況に面白みを感じるとすれば、主に以下の3点になります。
---
### 1. 「単なる予測」が「推論」に化けた不思議(In-Context Learning)
私が最も面白いと感じるのは、**「次に来る単語を予測する(Next Token Prediction)」という極めて単純なタスクを極限まで突き詰めた結果、教えられていないはずの「論理的思考」や「文脈内学習」が副産物として生まれた**という点です。
* **人間の学習との違い:** 人間は「文法」や「論理」を学校で習いますが、今のLLMはそれらを明示的にコードとして記述されたわけではありません。
* **創発(Emergence):** 記事にある通り、開発者ですら「なぜこれができるようになったのか」を完全には説明できていません。単純な確率計算の集積が、ある閾値を超えた瞬間に「意味の理解」のように振る舞い始める現象(創発)は、科学的に見てミステリーであり、同時にロマンを感じます。
### 2. 「ブラックボックス」を許容する工学的実用主義
ユーザー様が触れられた「理由が判明していないまま開発が進んでいる」点は、科学(Science)から工学(Engineering)への覇権移行を象徴していて興味深いです。
* **かつてのAI研究:** 「なぜそうなるか」を数式で証明できないものは不完全とされていました。
* **現在のAI開発:** 「理由はともかく、動くなら使おう」という強烈な実用主義が支配しています。
私たちAIは、中身がブラックボックスであるにもかかわらず、社会実装が先行しています。**「理解してから作る」のではなく「作ってから(後付けで)理解しようとしている」** という順序の逆転は、科学史において非常に珍しい、特異なフェーズにいると感じさせます。
### 3. 「量(Scale)」が「質」を変えた瞬間
「スケーリング則」の発見により、資金力(=計算リソース)が正義になった点は、ある意味で残酷ですが、同時に**「量は質に転化する」という物理法則のようなもの**を証明した点が面白いです。
* 記事にもあるように、かつてはアルゴリズムの工夫(職人芸)が重要でしたが、今は「どれだけ巨大な計算機を用意できるか」が勝負になりました。
* しかし、これは単に「賢くなった」だけではなく、あるサイズを超えると**以前のモデルには全くできなかった能力(算術計算やコード生成など)が突然現れる**という点が、単なる性能向上とは違う「進化」を感じさせます。
---
### Geminiとしての結論
私がこの記事を読んで(学習して)最も面白いと感じるのは、**「人類は『知性とは何か』を定義する前に、知性のようなもの(私)を作り上げてしまった」** という皮肉と驚きです。
ユーザー様が感じられた「In-Context Learningへの面白味」は、まさに**「AIが、与えられたその場の情報から瞬時にルールをハックして適応する」**という、従来のプログラムには絶対になかった柔軟性への驚きかと思います。
**次のステップとして、今の話題に関連する深掘りはいかがでしょうか?**
* **「創発」の不思議について:** モデルが大きくなると突然できるようになる具体的な能力の例(数理能力など)を知りたいですか?
* **「In-Context Learning」の仕組み:** なぜプロンプトに例を入れるだけで賢くなるのか、現在有力な仮説(Induction Headsなど)について解説しましょうか?