「AIを使いたいけど、データが外部に漏れるのが心配」「毎月のAPI費用が読めない」——そんな悩みを持つ中小企業の経営者の方は多いのではないでしょうか。
2025年、Googleは最新のオープンAIモデル「Gemma 4」を正式リリースしました(公式ドキュメント)。Gemma 4にはモバイル・エッジ向けのE2B(有効パラメータ2B)から31Bまで4つのサイズがあり、KaggleやHugging Faceから無料でダウンロードできます。今回は、軽量なGemma 3の1Bモデルを使ってスマートフォン上で完全オフラインで動くAIチャットアプリを開発・検証しました。GGUFファイルを差し替えるだけでGemma 4への移行も可能な構成です。本記事では、その仕組みと中小企業にとっての意味をわかりやすく解説します。
まずは動画で見てみましょう
Googleが公開しているGemmaの最新情報はこちらの公式動画をご覧ください。
そして、こちらが当社が実際にAndroidスマートフォン上でGemmaを動かしているデモ動画です。完全オフラインで、端末内だけでAIが応答しています。
そもそもGemmaとは?
Gemma(ジェマ)は、Googleが開発したオープンソースのAIモデルです。ChatGPTやGeminiと同じ「大規模言語モデル(LLM)」の一種ですが、大きな違いがあります。
| ChatGPT / Gemini | Gemma | |
|---|---|---|
| 動作場所 | クラウド(インターネット必須) | 自分の端末(オフラインOK) |
| 費用 | 月額料金 or API従量課金 | 無料 |
| データの行き先 | 外部サーバーに送信 | 端末の中で完結 |
| ライセンス | 商用利用に制限あり | Apache 2.0(商用利用自由) |
つまり、Gemmaは「自分の手元で動かせるAI」です。
何がすごいのか? — 中小企業にとっての3つのメリット
1. 通信費・API費用がゼロ
クラウドAIは使えば使うほどコストがかかります。社員10人が毎日使えば、月数万円〜数十万円になることも。Gemmaは端末内で動くので、どれだけ使っても追加費用はかかりません。
2. 機密情報が外に出ない
顧客データ、見積書、社内の議事録——AIに質問したい内容ほど機密性が高いものです。Gemmaはインターネットに接続せずに動くので、入力した情報が端末の外に出ることはありません。
3. インターネット環境がなくても使える
工場、倉庫、建設現場、移動中の車内——Wi-Fiが届かない場所でもAIを活用できます。機内モードでも問題なく動作します。
実際に作ったアプリ「Gemma Chat」
当社が開発した「Gemma Chat」は、Androidスマートフォン上でGemmaを動かすチャットアプリです。
動作の流れ
- アプリをインストール(APKファイル、約124MB)
- AIモデルファイルをダウンロード(約700MB、初回のみ)
- アプリからモデルを読み込む
- あとはオフラインでチャットし放題
ソースコードはGitHubで公開しています:
https://github.com/tsubasagit/gemma-chat
動作要件
| 項目 | 要件 |
|---|---|
| OS | Android 8.0以上 |
| RAM | 4GB以上 |
| ストレージ | 空き1GB以上 |
3〜4年前のスマートフォンでも動作します。特別な高性能端末は必要ありません。
技術的な仕組み(エンジニア向け)
Gemma Chatは以下の技術スタックで構成されています。
- React Native (Expo) — クロスプラットフォームのモバイルアプリフレームワーク
- llama.rn — llama.cppのReact Nativeバインディング。C++でLLM推論を実行
- GGUF形式 — モデルを4bit/8bitに量子化し、スマートフォンのメモリに収まるサイズに圧縮
llama.cppという高速な推論エンジンがC++レベルで動作するため、スマートフォンのCPUだけでもリアルタイムにテキストを生成できます。
開発の流れ
- PCでOllamaを使ってGemmaの動作確認 — モデルの日本語能力や応答速度を事前に検証
- Expoプロジェクトを作成 — React Native + TypeScriptでアプリの骨格を構築
- llama.rnを組み込み — ネイティブビルドでC++推論エンジンをアプリに統合
- Android実機でテスト — Pixel 6a(RAM 6GB)で動作確認、1Bモデルが実用的に動作
企画からAndroid実機での動作確認まで、約半日で完了しました。
今後の展望
現在はテキストチャットのみの対応ですが、Gemmaの上位モデル(4Bパラメータ以上)は画像認識にも対応しています。RAM 8GB以上の端末であれば、カメラで撮影した画像をAIに分析させることも可能になります。
例えば、こんな活用が考えられます:
- 現場で撮影した写真の自動レポート作成
- 手書きメモのデジタル化
- 商品画像の説明文自動生成
- 設備の目視点検の記録支援
考察:農業・現場向けエッジデバイスではGemma 3が現実解
最新のGemma 4は高性能ですが、すべてのデバイスに載るわけではありません。農業や工場など、小型・低コストのデバイスで動かしたい場面では、モデルのサイズ選びが重要になります。
Gemma 4 vs Gemma 3:エッジデバイスでの比較
| モデル | ファイルサイズ (Q4_0) | 必要RAM目安 | Raspberry Pi 4 (4GB) | ESP32等 |
|---|---|---|---|---|
| Gemma 3 1B | 約700MB | 約2GB | 動作可能 | 不可 |
| Gemma 4 E2B | 約3.0GB | 約4.5GB | メモリ不足 | 不可 |
| Gemma 4 E2B (Q2_K) | 約2.3GB | 約3.5GB | ギリギリ | 不可 |
Gemma 4の最小モデル(E2B)は「有効パラメータ2B」と表記されていますが、実際にはMoE(混合エキスパート)構造のため、モデル全体では約5Bあります。4bit量子化しても約3GBとなり、Raspberry Pi 4(RAM 4GB)ではOS分を差し引くとメモリが足りません。ESP32のようなマイコンでは論外です。
農業・現場での活用を考えると
ビニールハウスの温度管理、圃場の作業記録、出荷時の品質チェック——こうした現場でAIを活用するには、安価で省電力な小型デバイスで動くことが大前提です。
- Raspberry Pi 4(RAM 4GB、約1万円)にGemma 3 1Bを載せれば、オフラインで質問応答やテキスト分析が可能
- 電源さえあれば、Wi-Fiのない畑の中でも動作する
- 複数台のRaspberry Piを各ハウスに設置し、それぞれが独立してAI処理するような構成も現実的
つまり、最新=最適とは限らないのがエッジAIの世界です。Gemma 4の高い性能が必要な場面ではスマートフォンやタブレットで、Raspberry Piのような超小型デバイスではGemma 3の1Bモデルが現時点での現実解です。用途とデバイスに合わせて最適なモデルを選ぶことが、エッジAI活用の鍵になります。
まとめ
Gemma Chatは、「AIは高い」「データが心配」「ネットがない現場では使えない」という中小企業の3大ハードルを一気に解消するアプローチです。
| 課題 | Gemma Chatの解決策 |
|---|---|
| AIは高い | モデルもアプリも無料 |
| データが心配 | 完全オフライン、データは端末内 |
| ネットがない | インターネット不要で動作 |
オンデバイスAIは、まだ始まったばかりの技術です。しかし、スマートフォンの性能が年々向上する中で、「クラウドに頼らないAI活用」は今後の中小企業DXの重要な選択肢になるでしょう。
ご興味のある方は、ぜひGitHubからお試しください。導入のご相談もお気軽にどうぞ。


