AIはこれからも進化はします。ただ、「今までの伸び方」では、もう賢くなりません。
理由は単純で、学習させるデータが、もうネット上にない、ということなんです。
これは私の感覚的な話ではなくて、開発現場で「2026年問題」とか「データの壁」と呼ばれて深刻に議論されている、構造的な限界です。
AIが「もう賢くならない」と言われる理由
最初の話は、ちょっと驚かれるかもしれません。
ChatGPTやClaudeが出てから、AIはすごい勢いで賢くなってきました。それを毎日使っている方なら、「これ、まだまだ伸びるんじゃないか」と思うのが自然だと思います。
でも、最近の開発現場では、ちょっと違う議論が起きているんですよ。
それが「2026年問題」、あるいは「データの壁」と呼ばれているもの。要するに、AIの賢さに天井が見えてきた、という話です。
これからお話しする3つの観点を知っておくと、AIへの向き合い方がガラッと変わると思います。
理由① 高品質な学習データを、AIは食い尽くしてしまった
このAIライティングという領域で先駆け的な立ち位置を取って、「もう全部AIで記事が作れる」「AIで全部解決できるんじゃないか」と信じて、自社サイトの記事をAIで大量生成し始めた。すると、トラフィック、つまりJasperが作った記事を読みに来る人やオーガニックの流入が半分以下になってしまったんです。さらに売上は約190億円から約52億円へ、劇的に下がってしまった。
普通の会社だったら、かなりやばい状態です。しかもそれがたった1年の間に起きた。創業者は退任し、新しいCEOが呼ばれるという事態になっています。
AIの技術でいったらお金も潤沢でトップクラス。ドメインの権威もちゃんとあるし、予算も潤沢。それでもAIによってダメになってしまった。
これ、対岸の火事ではないんですよ。「AIってすごいね」「もっとAIに任せた方がいいよね」という話と、まったく別の話なんです。
ChatGPTが出た当初を思い出してください。
たしか2021年くらいまでのデータしか学習しておらず、最新のネット記事には繋げられない、という状態でしたよね。
それが、わずか数年で一気に広がりました。ネット上の最新記事も含めて学習できる状態になり、さらに学習データを増やしていった結果、東大や京大に主席で合格できるレベルにまで到達した、なんて話もあります。
ところが、ここで問題が起こります。
人間が書いた高品質な文章は「有限」
大事なポイントなんですが、人間が書いた高品質な文章には、限りがあるんですよ。
ネット上のブログ、論文、書籍、ニュース記事、SNS投稿。これらを ChatGPT、Claude、Gemini、Perplexity といった主要 AI が、すでに食い尽くしてしまっている。
データを学習させればさせるほど AI は賢くなるはずなんですが、もう学習させるものがない。今後ネット上に新しく追加されるデータがあっても、それは過去の総量に比べれば微々たるものです。
これが、「データの壁」と呼ばれているものの正体です。
理由② AIがAIの文章を学習する「モデル崩壊」
問題は、それだけじゃないんです。
今やネット上の文章自体、かなりの割合がAI生成のものになってきています。SEO記事、まとめ記事、ブログ、SNS投稿。AIで量産されたコンテンツがネットを埋め尽くしている。
ということは、これからAIが新しいデータを学習するとき、AIがAIの書いた文章を学び直す、という奇妙な状態になります。
コピーのコピーで、劣化していくAI
これは「モデル崩壊(Model Collapse)」と呼ばれている現象で、研究者たちが警鐘を鳴らしています。
コピーのコピーのコピーが進むほど、AI出力はオリジナリティを失い、平均化していく。最終的には品質が劣化していく。
賢くなるどころか、AIは劣化する方向に向かう可能性すらあると言われています。
理由③ 日本語データは英語の10分の1以下
日本企業にとって、さらに深刻な話があります。
それが、日本語データの不足です。
日本語のネット上のデータ量は、英語の10分の1以下と言われているんですよ。
なぜ日本語データはこんなに少ないのか
これにはいくつか理由があるんですが、わかりやすいのは、英語と日本語では単語の量・バリエーションが違う、ということ。
たとえば「いいね」という意味を表す英語には「good」「great」「excellent」「awesome」「fantastic」など、たくさんの単語がありますよね。それぞれが微妙にニュアンスを変えながら使われている。
英語の方が情報量も単語の多様性も大きいため、結果としてデータ量が圧倒的に多くなる。
我々日本人がAIを使うとき、本質的にはこの「英語データで作られた知能を日本語で使っている」ということを理解しておく必要があります。日本語ネイティブのAIには、構造的な天井があるんです。
じゃあ、AIはこれから何で進化するのか?
学習データの量で進化できないなら、AIは何で賢くなっていくのか。
ざっくり言えば、「量から質」です。
OpenAIやAnthropic(Claude)が力を入れているのが、推論モデルと呼ばれる方向性。要は、思考の質を上げる。同じデータでも、より深く考え、より複雑な問題を解けるようにする。
ただ、ここでも限界が来ます。それが、人間側の問題なんです。
考えるAIに対して、こちらが渡す情報の精度・解像度が低ければ、出力も低くなる。これからのAIは、こちらの解像度がそのまま結果になる時代に入っていきます。
詳しくは別の記事でお話ししますが、AIを使う人と使われる人を分けるスキルは、ここから生まれてきます。
まとめ:AI進化の前提が変わりつつある
整理すると、こういう変化が起きています。
旧来の前提 | 2026年以降の前提 | |
|---|---|---|
学習データ | 増やせばAIは賢くなる | もうほぼ枯渇している |
ネットの情報 | 人間由来で価値が高い | AI生成が過半を占めつつある |
進化のスピード | 指数関数的 | 量的進化は鈍化、推論の質に移行 |
日本語AI | 英語AIに追いつく | 構造的に厳しい(データ量1/10以下) |
「AIは無限に賢くなる」という前提でビジネスを設計している人は、この前提変化を踏まえた戦略の見直しが必要だと思います。
これからは、AIの賢さに頼るのではなく、AIに何を渡すか、どう使うか、で差がつく時代になります。
FAQ
Q. 2026年問題とは何ですか? A. AIの学習データとして使える、ネット上の高品質な人間由来データが枯渇すると言われている問題です。これにより、データの量で性能を上げる従来の進化の仕方ができなくなると予測されています。
Q. モデル崩壊とは何ですか? A. AI生成コンテンツがネット上に増えた結果、新しく学習するAIが「AIの書いた文章」を学んでしまい、オリジナリティが失われ性能が劣化していく現象のことです。
Q. AIが賢くならないなら、これから使う意味はないのでは? A. AIは引き続き有用です。ただし「AIに丸投げすれば何でも解決する」という使い方はできなくなります。今後は、人間側のインプット精度と、AIの使い分けが結果を決めます。