みんなのケータイ

スマホでパワフルなAIを無料? で使い放題にする! オープンなAIモデルを扱える「LM Studio」を使ってみた

 今やChatGPTとかGeminiとか、CopilotとかClaudeとか、いろいろなAIツール・アシスタントがあって、だいたい無料で使えたりもするけれど、ヘビーに使い始めると制限にぶち当たって往生してしまいがち。

 有料会員になっても制限が全くないわけではないし、なんとなくクラウドやインターネットに流したくないヒミツのプロンプトをどうするか、という問題もある。

 ならば、全部手元でAIを動かせばいいのではないだろうか。いわゆるローカルAIっていうやつだ。スマホ単体でローカルAIを実践するにあたっては、「Google AI Edge Gallery」という便利なアプリもあるけれど、さすがにスマホの限られたリソースだとできることも限られる。ワイはもっと賢いAIを使いたいんじゃ!

スマホ単体でローカルAIを使えるようにする「Google AI Edge Gallery」

 そこでふと思い付いたのが、今この文章を打っているパソコンを使えないだろうか、ってこと。そこそこのGPUを積んでいるので、そいつをうまくなんとかしてスマホから利用できるようにすれば、いい感じに賢いローカルAI環境をいつでもどこでも好きなだけ活用できるのでは?

 で、ありがたいことに今の時代、そういうことを簡単に可能にするツール類がそのへんに転がっている。

 たとえばオープンなAIモデルを直接扱える「LM Studio」なるツールをパソコン上でサーバーとして動かし、「Open WebUI」というローカルAIのフロントエンドになるツールも追加して、そこにスマホからWebブラウザでアクセスするだけで、まあまあ賢いAIチャットが実現できてしまうのだ。

 ネットの先人たちの情報を参考にした、ざっくりとしたセットアップ手順はまず、パソコンで「LM Studio」をインストール。

公式サイトからLM Studioのインストーラーをダウンロードして実行
使いたいAIモデルを見つけてダウンロードしておく
「Status: Stopped」になっているのを、クリックして「Running」の状態に
「Reachable at: http://...」と表示されているところのURLを覚えておく

 次にパソコンで「Open WebUI」を導入、設定(Pythonインストールが前提)。

Windows PowerShellで「uv」というPythonのパッケージ管理ツールをインストール。コマンドは「powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"」
そのuvでopen-webuiをインストールし、任意の作業フォルダを指定して起動する。「$env:DATA_DIR="F:Devopenwebui"; uvx --python 3.11 open-webui@latest serve」
このような表示になったら起動完了
Open WebUIが「http://(PCのローカルIPアドレス):8080」で立ち上がるので、スマホのWebブラウザーでアクセス(初回は管理者アカウントの作成が必要になる)
ログインしたらメニューの最下部にあるアイコンから「管理者パネル」→「設定」→「接続」へ
「OpenAI API接続の管理」の設定に、さきほどLM StudioにあったURL(v1などのエンドポイントも含む)を入力(利用するAIモデルによってこのあたりの設定は異なる場合がある)
あとはAIモデルを選択してチャットし放題!

 ツールはどれも無料だし、AIモデルもオープンなものがよりどりみどりなので、AIさんにプロンプトをいくら投げまくってもお金は一切かからない。

 いや、正確にはパソコンを動かすための電気代がかかるのでコストゼロというわけにはいかないけれども、AIの利用上限に悩まされることはないし、ヒミツのプロンプトを打ち込んだところで誰かにバレることもないので、気兼ねなくAIチャットをエンジョイできるのが素晴らしい!

Google Gemma 3に画像分析してもらうと、さっそく盛大にハルシネーションをかましてくれたけれども、まあ楽しい

 あと、今回の方法だとパソコンと同じネットワーク内にいることが条件となるから、自宅外だと使えない点には注意しておきたい。外から自宅のパソコンにアクセスして利用できるようにする方法もあるけれど、そのあたりはちょっと面倒なので後回し、ってことで。

 それはさておき、好き放題にいろいろ相談できるローカルAIはやっぱり気楽だ。パソコンのGPUをブン回すので電気代は覚悟しなければならないけれども、それなりのGPUならそれなりのサイズのAIモデルで、それなりに高速に賢い答えを返してくれる。

 筆者の環境(Intel Core Ultra 265、メモリ64GB、NVIDIA GeForce RTX 4070 12GB)だと、たとえばプログラムコーディング向きのQwen2.5 Coder 14B(データサイズ8.37GB)がギリギリ実用範囲内だ。

簡単な「おみくじツール」を作ってもらった
一発目、いきなりの「凶」
忘年会の季節、「今すぐ割り勘しなきゃ!でもいいアプリがない!」というときは……
ローカルAIにお願いすれば、数十秒で割り勘ツールが完成だ!

 もちろんこんなサイズのAIモデルは、スマホでは直接扱うなんて不可能。それが自宅にいる限りはちゃんとスマホから使えちゃうわけで、なかなかエキサイティングではないか。

 でも数年後には、これくらいのAIモデルもスマホ単体で動かせる時代になるんだろうなあ、とも思う。2025年も終わりに近づいているけれども、来年もまたどれだけスマホが進化するのか、楽しみだ。