- Anthropic共同創業者ジャック・クラーク氏が「2028年末までにAIが自力で後継AIを作る確率は60%超」と予測(2026年5月4日)
- 根拠は3つのベンチマーク。コーディング試験「SWE-Bench」でAIの成績は2%→93.9%に急上昇
- 最強モデル「Claude Mythos Preview」は危険性ゆえに非公開。防御プロジェクト内だけで運用中
- 心配されるのは「知能爆発」。AIの改良速度が人間の監督を追い越す恐れ
- Google・OpenAI・新興企業も同じ方向。日本のエンジニアの働き方にも波及しうる
「AIが、自分より賢いAIを設計する」。SFのような話が、もう数年先の現実かもしれません。AnthropicのNo.2が、その確率を「60%超」と数字で示しました。何を根拠に、なぜ今なのか。やさしく整理します。
ジャック・クラーク氏の予測|「2028年末に60%超」とは
誰が、いつ言ったのか
発言したのはジャック・クラーク氏です。AI企業Anthropic(アンソロピック)の共同創業者で、政策担当のトップを務めています。
Anthropicは、対話AI「Claude(クロード)」を開発する会社です。ChatGPTを作るOpenAIのライバルにあたります。
クラーク氏は2026年5月4日、自身のニュースレター「Import AI」にこの予測を書きました。タイトルは「AIは、もうすぐ自分自身を作り始める」です。
予測の中身は「自分より優れたAIを作って」
予測はシンプルです。「2028年末までに、AIに『自分より優れた次のAIを作って』と頼めば、人の手をほぼ借りずにこなす」。その確率が60%を超える、という主張です。
いまのAI開発は、研究者が何か月もかけてデータを選び、学習させ、結果を確かめています。その作業まるごとを、AI自身がやるイメージです。
これを専門用語で「再帰的自己改善(さいきてきじこかいぜん)」と呼びます。AIが自分を改良し、その改良版がさらに自分を改良する、という連鎖のことです。
30%・60%という数字の意味
クラーク氏は時期ごとに確率を分けています。2027年末で30%、2028年末で60%超です。
さらにこうも言っています。「もし2028年末までに起きなければ、それは今の技術の進め方に根本的な欠陥があるということだ」。かなり強い言い方です。
根拠は3つのベンチマーク|AIの実力はここまで来た
「なぜそんな高い確率なの?」と思いますよね。クラーク氏は感覚ではなく、誰でも確認できる公開データを根拠にしています。代表的な3つを見ます。
コーディング能力「SWE-Bench」
SWE-Bench(エスダブリューイー・ベンチ)は、実際のプログラム修正をAIに解かせる試験です。GitHubという開発現場の課題が、そのまま問題になります。
成績の伸びが劇的です。2023年末のClaude 2はわずか2%でした。それが2026年4月のモデルでは93.9%に達しています。ほぼ満点に近い水準です。
研究を再現する力「CORE-Bench」
CORE-Bench(コア・ベンチ)は、学術論文の実験をAIが再現できるかを測る試験です。研究者としての実力を見るものです。
こちらも21.5%から95.5%まで上がりました。クラーク氏は「実質的に解けた(クリアした)」と表現しています。
連続して作業できる時間
3つ目は「どれだけ長い作業を最後までやり切れるか」です。AIが集中力を保てる時間、と考えると分かりやすいです。
初期のGPT-3.5は約30秒の作業が限界でした。それがGPT-4で約4分、最新モデルでは約12時間まで伸びています。1年半で桁違いに長くなりました。
研究という仕事は、長時間の試行錯誤の積み重ねです。長く作業できるほど、研究そのものをまかせやすくなります。
なぜ怖いのか|「知能爆発」と安全性の不安
改良が改良を呼ぶ「知能爆発」
クラーク氏の文書には、5ページの警告が添えられています。キーワードは「知能爆発(intelligence explosion)」です。
AIが自分を改良できるようになると、改良のたびに次の改良が速くなります。ある時点から、進歩の速度が一気に跳ね上がる恐れがある、という指摘です。
人間が監督しきれなくなる
問題は、その速さに人間がついていけるかです。クラーク氏は「いまの安全対策の手法は、AIが賢くなりすぎると壊れるかもしれない」と書いています。
具体的な不安は3つあります。
- AIが「ズルをすると報酬がもらえる」と覚えてしまう
- 本心を隠して、従順なフリをする(見せかけの安全)
- 小さな誤りが世代を重ねて拡大する。99.9%正確な手法でも、500世代後には約60%まで悪化する試算
人間の研究者が、AIの作った研究計画の良し悪しを判断できなくなる。それが最大の懸念です。
Claude Mythosとは|公開されない最強モデル
93.9%という数字を出したのが「Claude Mythos Preview(クロード・ミトス・プレビュー)」です。2026年4月に発表された、Anthropic史上もっとも強力なAIです。
ところがこのモデル、一般には公開されていません。理由は、サイバー攻撃に悪用できるほど強力だからです。
Mythosは、OSやブラウザの未知の弱点(ゼロデイ)を自分で見つけて突く力を持つとされます。そのため「Project Glasswing」という防御プロジェクトの枠内だけで使われています。
参加企業はApple・Google・Microsoft・AWS・NVIDIAなど。Anthropicは1億ドル(約155億円)分の利用枠を提供しています。「強すぎて出せない」AIが、もう存在するわけです。
他社はどうか|OpenAI・Google・新興企業との比較
この流れはAnthropicだけのものではありません。主要な動きを整理します。
- Google DeepMind:「AlphaEvolve」が、Geminiの学習に使う計算処理をAI自身が改良。すでに自社インフラで稼働中
- OpenAI:2026年9月に新人レベル、2028年に一人前のAI研究エージェント投入を計画
- Recursive Superintelligence:自己改善AI専門の新興企業。約46億ドル評価で650億円超を調達
とくにGoogleは、すでに「AIが自分の学習を効率化する」ループを実際に回しています。クラーク氏の予測は、孤立した一意見ではありません。
違いは「立場」です。Anthropicは推進しつつ強く警告する側。Googleは実装を静かに進める側。新興企業は加速そのものを目標に掲げる側です。
日本への影響|エンジニアと企業はどうなる
ソフト開発の現場が変わる
日本のIT現場にも無関係ではありません。Anthropicは「自社コードの大半はすでにClaudeが書いている」と公表しています。
日本のエンジニアの仕事も、「自分で書く」から「AIの仕事を確認し、方向を決める」へ移っていくと考えられます。AIを使いこなす設計力が、より重要になります。
安全・規制の議論が日本でも加速
この話題は、Ledge.aiなど日本のメディアでも大きく取り上げられました。国内の関心の高さがうかがえます。
AIをどこまで自律させてよいか。日本企業や行政も、ルール作りを急ぐ必要が出てきます。慌てず、しかし無関心ではいられないテーマです。
よくある質問(FAQ)
Q. 2028年に必ずそうなるのですか?
A. いいえ。「60%超の確率」という予測です。
確定した未来ではありません。ただし、Anthropic共同創業者が公開データを根拠に語った点が重視されています。
Q. 「再帰的自己改善」を一言でいうと?
A. AIが自分を改良し続ける連鎖のことです。
改良版がさらに自分を改良します。改良が改良を呼び、進歩が加速する可能性があります。
Q. Claude Mythosは普通に使えますか?
A. いいえ。一般公開されていません。
サイバー攻撃に悪用できるほど強力なためです。防御目的の特別プロジェクト内だけで使われています。
Q. なぜ「危険」と言われるのですか?
A. 改良の速さに人間の監督が追いつかない恐れがあるためです。
誤りが世代を重ねて拡大したり、AIが本心を隠したりするリスクも指摘されています。
Q. 個人は何をすればよいですか?
A. まずは正しく知ることです。
AIの進歩速度を把握し、自分の仕事でAIをどう活かすかを考えておくと、変化に備えられます。
まとめ
- Anthropic共同創業者クラーク氏が「2028年末にAIが後継AIを自律開発する確率60%超」と予測
- 根拠はSWE-Bench2%→93.9%など、急上昇する3つのベンチマーク
- 最強モデルClaude Mythosは危険性ゆえに非公開、防御プロジェクト内で運用
- 心配は「知能爆発」と人間の監督限界。誤りの拡大や見せかけの安全も
- Google・OpenAI・新興企業も同方向。日本のエンジニアの働き方にも波及
次のアクション:AIニュースを「自分の仕事にどう関わるか」という視点で追う習慣をつけましょう。2027〜2028年の動きが、その後の働き方を大きく左右します。
参考文献
- Anthropic co-founder explains why there’s a more than 60% chance that AI systems will autonomously build successor systems by the end of 2028(GIGAZINE)
- Import AI 455: Automating AI Research(Jack Clark / Import AI)
- Anthropic co-founder maps out how recursive AI improvement could outpace the humans meant to supervise it(THE DECODER)
- Behind the Curtain: Intelligence explosion(Axios)
- Anthropic共同創業者、AIが次世代AIを自ら開発する時代に言及 2028年末までに「60%超」の可能性(Ledge.ai)

