Ollamaを使ってローカル(M1 Max 64GB)でOpenAI gpt-oss:20bを実行してみた

Ollamaを使ってローカル(M1 Max 64GB)でOpenAI gpt-oss:20bを実行してみた

はじめに

これまでローカルで動かせる LLM は、性能のわりに大量の VRAM を必要とするものが多く、正直使いにくいと感じていました。 そんな折、OpenAI が gpt-oss:120b(Checkpoint VRAM 60 GB)と gpt-oss:20b(Checkpoint VRAM 13GB)を発表しました。 特に gpt-oss:20b は、普段よく使っている o3-mini と同等の性能を持ちながら、私の業務用 PC でも動かせそうだったので、試してみることにしました。

gpt-oss Model Card リンク
ollama-m1-max-64gb-openai-gpt-oss-20b_model-card

実行環境

  • Macbook Pro M1 Max 64GB
  • MacOS Sequoia v15.6
  • Ollama 0.11.2

手順

基本セットアップ

  1. Ollama公式サイトに最新版のOllamaをダウンロードし、インストールする
  2. モデルの gpt-oss:20b を選択する
  3. モデルをダウンロードされてなければ、適当に質問を入力したら、自動にダウンロードしてくれる
  4. gpt-oss:20bがダウンロード完了だったら、返事してくれます。

ollama-m1-max-64gb-openai-gpt-oss-20b_01

ollama-m1-max-64gb-openai-gpt-oss-20b_02

ollama-m1-max-64gb-openai-gpt-oss-20b_03

ollama-m1-max-64gb-openai-gpt-oss-20b_04

インターネット検索機能を有効にしてみる

  1. 🌐(地球)ボタンを有効にし、Sign Inでログインページに飛ぶ(アカウントがない方は事前にOllamaアカウント登録してください)
  2. Connect deviceページに、Connectボタンを押す
  3. Open OllamaボタンでOllamaアプリにリダイレクトする
  4. ログインできたら「xxxをネットで検索してください」と指示すれば検索してくれます

ollama-m1-max-64gb-openai-gpt-oss-20b_07x

ollama-m1-max-64gb-openai-gpt-oss-20b_08

ollama-m1-max-64gb-openai-gpt-oss-20b_09x

ollama-m1-max-64gb-openai-gpt-oss-20b_10

CPU・GPU・メモリの利用状況

  • CPU:20%前後 (Ollamaアプリ 10-% + gpt-oss:20b 10+%)
  • GPU:80% 〜 90% (最大限に使われる)
  • メモリ:13GB+

ollama-m1-max-64gb-openai-gpt-oss-20b_0y

ollama-m1-max-64gb-openai-gpt-oss-20b_0x

使ってみた感想

  • 基本的にサクサク動いてくれて、普段のQ&Aには利用できる(公式によりますと gpt-oss:20bはo3-miniと同等性能を持つ)
  • 簡単な検索指示(例えば:今日東京の天気)は余計に多く検査を行い、結果が出るまでは2分ほどかけてしまって、賢くない印象(推論モデルでしょうがないか...)

以上

この記事をシェアする

facebookのロゴhatenaのロゴtwitterのロゴ

© Classmethod, Inc. All rights reserved.