Rakuten AI 3.0炎上の実態——「国産AI」を名乗る条件と、透明性なき発表による波紋
※本記事は2026/03/20時点での情報を基にしており、閲覧時点では内容や状況が変わっている可能性があります。
2026年3月17日、楽天グループは経済産業省・NEDOが推進する国家プロジェクト「GENIAC(Generative AI Accelerator Challenge)」の第3期採択事業として開発した大規模言語モデル「Rakuten AI 3.0」の一般提供を開始した。
約7,000億パラメータ(671B)のMixture of Experts(MoE)アーキテクチャを採用し、日本語ベンチマークでGPT-4oを上回るスコアを謳い、Apache 2.0ライセンスで無償公開(商用利用可)という条件は、「ついに日本発の本格的な大規模モデルが登場した」という期待を業界に与えるものだった。
しかし、発表からわずか12時間程度で、この「国産最大級AI」は大規模な炎上の渦中に置かれることになる。技術コミュニティによるリポジトリの精査により、発表の「内側」が明らかになったためだ。
なお、本メディアでは3月18日付の記事「楽天『Rakuten AI 3.0』提供開始——国産最大規模MoEモデルが日本のAI活用にもたらす実務的インパクト」にて、Rakuten AI 3.0の概要と実務的な活用可能性を速報的に取り上げている。本記事はその続編として、発表後に広がった炎上の構造と、正当な批判・見当違いのバッシングの区別を中心に掘り下げる。
炎上の経緯——config.json1行が引き金を引いた
発見から拡散まで「数時間」
発表当日、Hugging Face上に公開されたRakuten AI 3.0のリポジトリを確認した技術者たちが、モデルの基本設定ファイルであるconfig.jsonの中に気になる記述を発見した。
"model_type": "deepseek_v3"
さらに、総パラメータ671B、アクティブパラメータ37B、コンテキスト長128K——すべての主要スペックが、中国のAI企業DeepSeekが開発し2024年12月に公開した「DeepSeek-V3」と完全に一致していた。この発見はX(旧Twitter)上で瞬く間に拡散し、「国内最大規模の国産AIがDeepSeek-V3ベースだった」という情報がAIコミュニティ全体に広がった。
技術的に言えば、config.jsonはモデルのアーキテクチャを定義する最も基本的なファイルだ。1行見れば誰でも確認できる情報が、プレスリリースには一度も登場しなかった——この事実が批判の最初の火種になった。
ライセンスファイルの削除と事後追加
炎上をさらに加速させたのが、ライセンスの取り扱いをめぐる問題だ。DeepSeek-V3はMITライセンスで公開されており、これをベースにした派生モデルには著作権表示とライセンス表示の保持が求められる。しかし楽天が最初に公開したリポジトリには、DeepSeekのMITライセンスファイルが含まれていなかったことが指摘された。
炎上が広がったあと、楽天はリポジトリに「NOTICEファイル」としてCopyright (c) 2023 DeepSeekというMIT帰属表示を追加した。しかしこの対応が「炎上後にこっそり追加した」と受け取られ、「OSSへの冒涜」「隠蔽工作」という批判をさらに招く結果になった。
GENIAC補助金との矛盾
炎上の第三の焦点が、国費(公金)の使途をめぐる問題だ。楽天は2025年7月にGENIACの第3期に採択されており、最大5億円規模とも指摘される補助金(NEDO負担率100%)を受けてモデルの学習費用の一部を賄っている。GENIACは「日本における生成AIの自律的な開発基盤の確立」を目的とした国家事業だ。
その国家プロジェクトの成果として発表されたモデルが、実態はDeepSeek-V3へのファインチューニング(追加学習)であり、その出自がプレスリリースに明記されていなかった——という構図が「血税を使って中国モデルを日本語最適化しただけ」という声を生んだ。

炎上の「本丸」は何だったのか——技術コミュニティが指摘した核心
DeepSeekを使ったこと自体は問題ではない
技術コミュニティの多くが一致して指摘しているのは、「DeepSeek-V3をベースにしたこと自体は問題ではない」という点だ。オープンウェイトのモデルを基盤に、自社のデータと技術力で特定言語や用途に特化したファインチューニングを行うことは、業界標準として広く行われている手法だ。
Qiitaに掲載された技術者によるリポジトリ解析記事も、「671Bパラメータという巨大モデルがApache 2.0で公開された事実は歓迎すべきで、日本語特化の追加学習に費やされた技術的努力は本物だ」と評している。もし楽天が当初から「DeepSeek-V3をベースに日本語最適化を施しました」と明記して発表していれば、むしろ称賛された可能性が高い、という見解はコミュニティで広く共有されている。
問題の本丸は「透明性の欠如」と「不誠実な印象操作」
炎上の本質は技術的な選択ではなく、情報開示の姿勢にある。楽天のプレスリリースには「オープンソースコミュニティ上の最良なモデルを基に、独自のバイリンガルデータや技術力を投入して開発」という記述があったが、「DeepSeek-V3」という名前は一度も登場しなかった。
「国内最大規模」「日本語に最適化」「GPT-4oを上回る」という言葉が前面に出た一方で、ベースモデルの出自が明かされなかったことで、後からconfig.jsonで事実が判明したとき「印象操作ではないか」という強い反発が生まれた。技術コミュニティは性能そのものよりも、「説明の整合性」と「透明性」に対して極めて敏感であり、そこへのずれが信頼を大きく損なった。
「国産AI」の定義とGENIACの透明性基準
今回の騒動は、「国産AI」という言葉の定義と、国費が絡む開発プロジェクトの情報開示基準という、日本のAI政策に直結する問いも提起している。
日経新聞の報道によれば、日本企業の主要LLMモデル10本のうち6本がDeepSeekまたはQwenをベースにした二次開発だという指摘がある。これは楽天だけが特異な存在というわけではないことを示しているが、GENIACという公的支援の文脈では、「何をどこまで自前で作ったか」「どこに補助金が使われたか」の透明性に対して一般より高い説明責任が求められる。
ある分析記事が指摘するように、今回の騒動をきっかけに「GENIACの次の公募から基盤モデルの出自開示が義務化される」「国産AIの定義が政策的に整備される」という方向に政策が動くかどうかが、日本のAI開発における透明性の水準を大きく左右する分岐点になりうる。
技術的な評価:Rakuten AI 3.0の実力は本物か
DeepSeek-V3という「世界最高の設計図」の上に立つ
炎上の文脈を一旦外して技術的に評価すると、Rakuten AI 3.0が持つ性能は本物だ。DeepSeek-V3は2024年12月の公開時点で、同規模以下のオープンソースモデルとして世界最高水準の性能を示したモデルであり、「世界最高の設計図」をベースにしている事実は、モデルの品質に対して否定的な評価をもたらすものではない。
MoEアーキテクチャの特性として、671Bという総パラメータのうち実際の推論で活性化するのは37B分に限られる。これにより「巨大な知識量を持ちながら、推論コストは小規模モデルに近い」という効率的な設計が実現されており、H100を8枚程度用意できる環境であれば、エンタープライズ向けの本格的な選択肢として機能しうる。
日本語ベンチマークのスコアをめぐる検証
一方でスコアの評価をめぐっては、コミュニティでの検証も行われた。X上では、比較対象として挙げられていた東京科学大学・産総研チームによる「GPT-OSS-Swallow-120B-RL-v0.1」のスコアと、Rakuten AI 3.0のスコアの見え方に乖離があるとの指摘が出た。
こうした検証が行われること自体は、オープンソースモデルとして公開した以上は避けられないプロセスだ。ただし第三者による再現可能な評価方法の整備は、日本語LLMのベンチマーク信頼性という観点でも今後の課題として残っている。

拡散した「見当違いのバッシング」——何が事実で何が誤解か
炎上が広がる中で、技術的な事実とは異なる批判も多数拡散した。正当な批判と誤った批判を区別して整理しておくことは、この騒動を正確に理解するうえで重要だ。
「中国にデータを取られる」は技術的に誤り
最も広く拡散した誤解のひとつが、「Rakuten AI 3.0を使うと中国(DeepSeek)にデータが送られる」というものだ。しかしこれは技術的に事実ではない。
Rakuten AI 3.0はDeepSeek-V3の**モデルアーキテクチャとウェイト(学習済みパラメータ)**を引き継いでいるに過ぎない。楽天のサーバー上で動作する以上、推論時のデータはDeepSeekには一切送信されない。オープンウェイトモデルの「ベースにする」とは、設計図と学習結果を借りて自社の環境で動かすことであり、元の開発者のサーバーに接続することではないからだ。
「Googleが開発したTensorFlowを使ったシステムはGoogleにデータを送っている」という主張が誤りであるのと同じ構造だ。モデルの出自と、データの流通経路は別の問題として区別する必要がある。
「完全な中国製AI」という誤認
もうひとつの見当違いは、「Rakuten AI 3.0はDeepSeek-V3そのものだ」という誤認だ。確かにアーキテクチャとベースウェイトはDeepSeek-V3に由来するが、楽天はその上に独自の日本語・英語バイリンガルデータによる追加学習(ファインチューニング)を施している。日本語処理性能の向上に投じられた技術的努力は本物であり、「ガワだけ被せた」という表現は正確ではない。
楽天が開示すべきだったのは「DeepSeek-V3をベースにしている事実」であり、批判の対象は「DeepSeek-V3を使ったこと」ではなく「それを明言しなかったこと」に絞られるべきだ。
モデルの「偏った回答」問題——根拠と留意点
一部では、Rakuten AI 3.0が領土問題や歴史認識に関する問いに対して中国側に配慮した回答をするケースがあると指摘された。これはDeepSeek-V3のベースモデルが持つバイアスの可能性として技術的に検証に値する問いだ。ただし「バイアスがある」と主張する場合には、再現性のある検証手順と複数サンプルによる確認が必要であり、個別の回答例だけで断定することは慎重であるべきだ。
楽天が日本語追加学習の過程でこうしたバイアスに対してどのような処理を施したかの情報が開示されていない点は、透明性の欠如として正当に問い得る論点ではある。しかし「使うと中国に情報が漏れる」という恐怖に直結させる論法は、技術的な根拠を欠いた過剰反応として区別される必要がある。
BtoB企業・マーケターへの示唆——「AI出自の開示」が信頼資産になる
AIツール選定における出自情報の重要性
今回の騒動がBtoB企業の担当者に直接示す教訓のひとつは、「自社が使用するAIツール・モデルの出自を把握することの重要性」だ。特に、エンタープライズ向けのAI活用において安全保障・コンプライアンス審査が求められる場面では、「どのモデルをベースにしているか」「学習データの出所はどこか」「どの国・組織が開発した技術に依存しているか」という問いが、ベンダーへの確認事項として浮上するケースが増えている。
Rakuten AI 3.0のケースは、エンドユーザーとしての企業が「ブラックボックスとして使っているAIの中身」を意識する契機にもなりうる。
透明性は信頼の根幹となるか
今回の炎上が最も明確に示したのは、AIの開発・提供において透明性が信頼の根幹だという点だ。「技術的には正当な手法を採用していても、情報開示が不誠実であれば信頼は失われる」というこの教訓は、AI関連サービスを提供・検討するBtoB企業にとっても直接的に有効な視点だ。
自社のAI活用において何をどの技術で実現しているかを顧客・ステークホルダーに正直に開示することは、短期的にはリスクに見えることがあっても、長期的には技術コミュニティとの信頼関係を構築する資産になる。
「AIを使っています」よりも「このAIを、このように使っています」という説明ができる企業の方が、信頼形成において有利な可能性は否定できない。
「知らされなかった」という事実が残す問題
今回の炎上で失われたものと残ったものを整理しておきたい。失われたのは「最初の発表時の信頼」だ。技術的には優れた日本語AIが、透明性の欠如と不誠実な印象操作によって、本来得られたはずの称賛を失った。
ライセンス問題は具体的に是正され、楽天のエンジニアが日本語最適化のために積み上げた努力は本物だ。しかし「知らされなかった」という事実は変わらない。
残ったのは、日本のAI開発コミュニティに投げかけられた問いだ。「国産AIとは何か」「オープンソースを活用する際の透明性の基準はどうあるべきか」「国費が投入された開発プロジェクトの成果物には、どの水準の情報開示が求められるか」——これらの問いは、楽天だけではなく日本のAI政策全体が向き合うべき課題として、AIコミュニティで現在も語られている。