📖 この記事で分かること
- Google DeepMindが2026年4月2日にGemma 4を正式公開
- E2B〜31Bの4サイズ、全モデルがマルチモーダル対応
- Apache 2.0ライセンスに変更し商用利用の制限が撤廃
- iOSアプリ「Google AI Edge Gallery」でオフライン動作が可能
💡 知っておきたい用語
- MoE(Mixture of Experts)【ミクスチャー・オブ・エキスパーツ】:1つのモデルの中に複数の「専門家」回路を持ち、入力に応じて必要な回路だけを起動させる仕組み。人間に例えると、何でもやろうとする1人の社員より、得意分野ごとに専門家を振り分けるチーム制に近い。推論コストを大幅に削減できる。
最終更新日: 2026年04月04日
Gemma 4【ジェマ 4】とは何か
Google DeepMindが2026年4月2日に発表したオープンモデルファミリーの最新版が「Gemma 4」です。Gemini 3と同じ研究基盤をもとに開発されており、Googleのオープンモデルとして過去最高水準の性能を実現しています。
初代Gemmaシリーズは累計4億回以上ダウンロードされ、10万以上の派生バリアントが生まれるほどコミュニティで広く活用されてきました。Gemma 4はその後継として、推論能力の大幅強化とマルチモーダル対応の全面拡充を一気に実現した、実質的なメジャーアップデートとなっています。
4つのモデルサイズと主な仕様
Gemma 4は用途とハードウェア環境に応じて4サイズが用意されています。
| モデル | 有効パラメータ | コンテキスト長 | 対応モダリティ |
|---|---|---|---|
| E2B | 2.3B(総5.1B) | 128K | テキスト・画像・音声 |
| E4B | 4.5B(総8B) | 128K | テキスト・画像・音声 |
| 26B A4B(MoE) | 3.8B(総25.2B) | 256K | テキスト・画像 |
| 31B Dense | 31B | 256K | テキスト・画像 |
E2BとE4BはスマートフォンやRaspberry Piなどのエッジデバイスをターゲットにした軽量モデルです。E2BはPer-Layer Embeddings(PLE)という独自技術により、実効2.3Bパラメータながら総5.1B相当の表現力を持ち、量子化すると1.5GB未満のメモリで動作します。両モデルはテキスト・画像に加えて最大30秒の音声入力にもネイティブ対応しており、外部の音声認識サービスなしで処理できます。
26B A4BモデルはMoEアーキテクチャを採用しており、総パラメータ25.2Bのうち推論時にアクティブになるのは3.8Bのみです。128個のエキスパートから8つを選択する設計で、大型モデルの知識を持ちながら低レイテンシで応答できます。コンテキスト長は256Kトークンで、長文ドキュメントや複数ファイルをまたぐコード解析にも対応します。
31B Denseモデルは、Arena AIのオープンモデル部門テキストリーダーボードで世界3位を記録しています。26B A4Bも同じく世界6位に位置しており、公式発表によれば「20倍のサイズのモデルを上回る」性能を発揮するとされています。
Apache 2.0への移行が意味すること
Gemma 3までは独自の「Gemma Terms of Use」が適用されており、商用利用の一部に制限がありました。Gemma 4からはApache 2.0ライセンスに変更され、改変や再配布を含む商用利用が制限なく可能になっています。
企業がGemma 4ベースのプロダクトを自社サービスに組み込んだり、ファインチューニングしたモデルを配布したりする際のハードルが大きく下がった点は、実務的に重要な変化です。スタートアップから大企業まで、オープンモデルを選択肢に入れやすくなったといえるでしょう。
性能面での進化:前世代比の伸び
数学推論の標準ベンチマークであるAIME 2026のスコアを見ると、世代間の差異が明確に現れています。
- Gemma 3 27B(Thinking非使用):20.8%
- Gemma 4 E2B:37.5%
- Gemma 4 E4B:42.5%
- Gemma 4 26B MoE:88.3%
- Gemma 4 31B Dense:89.2%
E2BとE4Bは前世代の最大モデル(27B)を有効パラメータが10分の1以下の状態で超えています。これはGemma 4に全モデル共通で搭載された「Thinkingモード(思考モード)」の効果が大きく、複雑な問題を段階的に分解して推論する機能が精度を大幅に引き上げています。
コンテキスト長についても、Gemma 3の27Bが8Kトークンだったのに対し、Gemma 4の大型モデルは256K、小型モデルでも128Kと大幅に拡張されています。
iOSアプリ「Google AI Edge Gallery」で試せる
Gemma 4のE2BとE4Bは、iOSアプリ「Google AI Edge Gallery」(App Store、無料)からすぐに試すことができます。iOS 17.0以降が必要で、アプリサイズは31.4MBと軽量です。
アプリの主な機能は以下の通りです。
- AIチャット:マルチターンの会話
- Ask Image:画像をアップロードして内容を質問
- Audio Scribe:音声を文字起こし・他言語に翻訳
- Prompt Lab:要約・コード生成などの単発プロンプト実験
- Tiny Garden:テキストで植物を育てるオフラインゲーム
- モバイルアクション:デバイス操作のオフライン制御実験
- パフォーマンス計測:トークン生成速度やレイテンシのリアルタイム確認
モデルをダウンロードさえすれば、すべての処理がデバイス上でオフライン完結します。インターネット接続不要でプライバシーを保ちながら試せる点は、企業での評価用途にも適しています。
Androidでは、AICore Developer Previewを通じてGemma 4にアクセスでき、今後リリース予定のGemini Nano 4との前方互換も確保されています。
今後の注目点
Gemma 4は現時点でHugging Face、Kaggle、Ollamaからモデルウェイトをダウンロードでき、Google Colab・Vertex AIでのファインチューニングにも対応しています。Qualcomm Technologies・MediaTekとの協力のもとモバイルハードウェアへの最適化も進められており、今後のGemini Nano 4搭載デバイスへの展開が注目されます。
Kaggle上では「Gemma 4 Good Challenge」が開催中で、社会課題解決に向けた活用事例が募集されています。オープンモデルとしての性能が大型クローズドモデルに追いつく速度は加速しており、Gemma 4はその象徴的な存在となりそうです。
よくある質問
Q: Gemma 4は無料で使えますか?
A: はい、Apache 2.0ライセンスのもと無料で使用・改変・商用利用が可能です。モデルウェイトはHugging Face、Kaggle、Ollamaから無料でダウンロードできます。
Q: iPhoneだけで動かせますか?
A: はい。「Google AI Edge Gallery」アプリ(App Store、無料)をインストールし、E2BまたはE4Bをダウンロードすれば、インターネット接続なしでオフライン動作が可能です。iOS 17.0以降が必要です。
Q: Gemma 3と比べて何が変わりましたか?
A: 主な変更点は、①全モデルへのThinkingモード搭載、②音声入力のネイティブ対応(E2B/E4B)、③コンテキスト長の大幅拡張(最大256K)、④MoEアーキテクチャモデルの追加、⑤Apache 2.0ライセンスへの変更の5点です。
まとめ
Gemma 4は2026年4月2日にGoogle DeepMindが発表した最新オープンモデルファミリーです。E2Bからの小型4モデルが全てマルチモーダル対応し、Apache 2.0ライセンスで商用制限が撤廃されました。iOSアプリ「Google AI Edge Gallery」からすぐに試せる手軽さも特筆すべき点で、エッジAIの普及を一段と加速させる可能性があります。パラメータ効率とオープン性を両立した本リリースは、2026年上半期のオープンモデル界で最大の話題になりそうです。
【用語解説】
- MoE(Mixture of Experts)【ミクスチャー・オブ・エキスパーツ】: 複数の専門モジュール(エキスパート)を用意し、入力ごとに適切なモジュールだけを起動させるアーキテクチャ。全モジュールを常に使う密結合(Dense)モデルに比べ、推論コストを大幅に削減できる。
- Thinkingモード【シンキングモード】: モデルが最終回答を出す前に、内部で段階的な思考プロセスを実行する機能。複雑な数学や論理推論の精度を高める効果があり、Gemma 4では全モデルに搭載されている。
- Apache 2.0ライセンス【アパッチにてんれいライセンス】: 改変・再配布・商用利用を原則として自由に認めるオープンソースライセンス。条件は著作権表示の保持のみで、プロプライエタリ(専有)製品への組み込みも許可される。
免責事項: 本記事の情報は執筆時点のものです。AI技術は急速に進歩しているため、機能や制限は予告なく変更される場合があります。
引用元:
- [1] Google公式ブログ「Gemma 4: Byte for byte, the most capable open models」 – https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
- [2] Google公式「Gemma 4 モデルカード」 – https://ai.google.dev/gemma/docs/core/model_card_4
- [3] Android Developers Blog「Announcing Gemma 4 in the AICore Developer Preview」 – https://android-developers.googleblog.com/2026/04/AI-Core-Developer-Preview.html
- [4] Apple App Store「Google AI Edge Gallery」 – https://apps.apple.com/jp/app/google-ai-edge-gallery/id6749645337
- [5] Classmethod「Gemma 4 を DGX Spark で動かして日本語とマルチモーダルをベンチマーク」 – https://dev.classmethod.jp/articles/dgx-spark-gemma4-benchmark/
Previous Post
NotebookLM活用実践集|DX支援の現場から聞いた事例3選
Next Post
AIがGoogle Meetに「顔と声」で参加する時代へ——PikaStream 1.0 完全導入ガイド
15年以上の開発経験を持つソフトウェアエンジニア。クラウドやWeb技術に精通し、業務システムからスタートアップ支援まで幅広く手掛ける。近年は、SaaSや業務システム間の統合・連携開発を中心に、企業のDX推進とAI活用を支援。
技術だけでなく、経営者やビジネスパーソンに向けた講演・執筆を通じて、生成AIの最新トレンドと実務への落とし込みをわかりやすく伝えている。
また、音楽生成AIのみで構成したDJパフォーマンスを企業イベントで展開するなど、テクノロジーと表現の融合をライフワークとして探求している。