Raycast Pro AI モデル:全リスト、プラン、用途

2026年4月22日公開 • 約9分で読めます

Raycast Pro がどの AI モデルをサポートしているか気になっているなら、短い答えはこうです:たくさん。Raycast は1つの AI アシスタントではなく、1つの Mac ランチャー内に12以上の AI プロバイダーへのアクセスを提供し、すべて同じキーボードショートカットからトリガーできます。このガイドでは、実際に利用可能なモデル、各層を解放するための費用、その日の特定のワークフローで使う価値のあるモデルを解説します。

モデルリストは2026年に大幅に拡大しました。Raycast は現在、OpenAI の GPT-5 ファミリーから Anthropic Claude、Google Gemini、Mistral、DeepSeek、Perplexity Sonar、xAI Grok、Meta Llama、そして Raycast 独自の Ray-1 モデルまでホストしています。ガイドなしで整理するのは大変なので、以下ではモデルごとの内訳をプラン要件、設定手順、ユースケース推奨とともに説明します。

サブスクリプションするかどうかまだ評価中なら、Raycast Pro 割引 2026年を通じた現在の割引オファーを、定価にコミットする前にチェックする価値があります。詳細は末尾に。

Raycast Pro がサポートする AI モデル、プロバイダー別全リスト

Raycast の AI 統合の幅広さは、最大のセールスポイントの1つです。単一プロバイダーに縛られるのではなく、すべての主要 LLM ファミリーにまたがるマルチモデルピッカーが利用できます。製品の AI 機能の簡潔な概要については、Raycast の AI 機能ページをご覧ください。

Raycast 内の OpenAI GPT ファミリー

OpenAI は Raycast 内で最も深い統合を持っています。フルラインナップには GPT-5、GPT-5.1、GPT-5 Reasoning、GPT-5 mini、GPT-5 nano、GPT-4.1、GPT-4.1 mini、GPT-4o、GPT-4 Turbo、GPT-4 が含まれます。この範囲により、最先端の推論モデルと、より軽量で高速なバリアントを同じインターフェースで利用できます — クイックな検索のために重いモデルに切り替える必要はありません。当サイトのRaycast と ChatGPT のウォークスルーでは、OpenAI 特有のワークフローをさらに深く掘り下げています。

Anthropic Claude、Google Gemini、Perplexity、xAI

Anthropic の Claude 3.7 Sonnet は Raycast のフラッグシップ Claude オプションです。実際には、20万トークンのコンテキストウィンドウのおかげで、拡張されたコーディングセッションと構造化されたライティングタスクで他の利用可能なモデルを上回ります。Claude がメインドライバーなら、当サイトのRaycast + Claude ガイドで統合を詳しく説明しています。Google Gemini もサポート対象プロバイダーです。Perplexity の3つの Sonar モデル(Sonar、Sonar Pro、Sonar Reasoning Pro)は、レスポンスにライブウェブコンテキストを取り込むため目立ち、リサーチに本当に役立ちます。xAI の Grok-4.1 Fast と Grok-4.1 Fast Reasoning は、強力な推論速度を持つ新しい追加としてこのグループを締めくくります。

Mistral、Meta Llama、DeepSeek、そして Raycast 独自のモデル

フルリストはさらに広がります。Mistral ファミリーは Mistral Large、Mistral Medium、Mistral Small 3、Mistral Nemo、Codestral をカバーします。Meta の Llama 4 Scout と Llama 3.3 70B は Groq 経由で利用可能です。DeepSeek-V3 と DeepSeek-R1 は Together AI 経由で提供されます。Qwen3 バリアントと Moonshot AI の Kimi K2.5 がサードパーティオプションを締めくくります。

別途言及する価値があるもの:Raycast 独自の Ray-1 と Ray-1 mini モデルはプラットフォームネイティブで、汎用のホスト型 API ではなく、ランチャーのワークフローパターンに最適化されています。特定のモデル名を探してここに来た場合、ほぼ確実にこのリストに含まれているか、後述のカスタムプロバイダー経由でアクセス可能です。

Raycast Pro のどのプランがどの AI モデルを解放するか

3つの層を明確に並べると、プラン構造は分かりやすくなります。ほとんどの混乱は、どのモデルが Advanced AI アドオンの背後にあり、どれが基本の Pro に含まれているかを知らないことから生じます。完全な請求の内訳については、当サイトのRaycast Pro 料金ガイドですべての層を並べて示しています。

無料層で得られるもの(とその制限)

無料プランには、基本モデル全体で50件の AI トライアルメッセージが含まれます。インターフェースをテストし、AI が Raycast のランチャーワークフローにどう統合されているかを感じるには十分ですが、日常使用には耐えません。高度なモデルなし、無制限アクセスなし、クラウド同期なし。作業用セットアップではなくプレビューと考えてください。

Raycast Pro が月額 $8 でカバーするもの

Pro プランは年額課金で1ユーザーあたり月額 $8、月額課金で $10 です。Raycast の基本 AI モデルでの無制限メッセージ、クラウド同期、無制限クリップボード履歴、そしてカスタムテーマとノートを含む生産性機能フルセットが解放されます。レート制限は毎分50リクエスト、毎時300リクエストですが、通常使用ではほとんど達しません。プランには14日間の無料トライアルも含まれており、完全にコミットする前にサインアップするリスクを取り除きます。公式プラン詳細については、Raycast Pro ページをご覧ください。

Advanced AI アドオンが重要な場合

トップ層のモデルは Advanced AI アドオンの背後にあり、Pro に加えて月額 $8 の追加コストです。この層では GPT-4、GPT-4 Turbo、Claude 3.7 Sonnet、他プロバイダーの同等のプレミアムモデルが解放されます。コストを文脈に置くと:Raycast の Advanced AI アドオン経由で GPT-4 にアクセスしても、月額 $20 の単体 ChatGPT Plus サブスクリプションより安く、リストのすべての他のモデルに同時にアクセスできます。

定価を支払う前に両方の層をテストしたい場合、Raycast Pro 割引 2026年で利用可能なプロモーション価格が、チェックアウト時に80%割引を自動適用します。クーポンコード不要で、基本 Pro プランと Advanced AI アドオンへのパスの両方をカバーします。

モデルを切り替えて AI セットアップを設定する方法

Raycast の AI 設定は1ヶ所に集約されており、どこを見ればよいか分かれば管理が容易です。

Quick AI と AI Chat のデフォルトモデル設定

Raycast 設定(Cmd+,)を開き、AI タブに移動します。ここから、Quick AI コマンドと AI Chat 会話に別々のデフォルトモデルを設定できます。これらは異なるモデルにできるため、クイック検索には高速で軽量なモデル、拡張された会話にはより有能なモデルが欲しい場合に便利です。会話の途中で切り替えることも可能です:チャットウィンドウ上部のモデルドロップダウンを使用し、Shift+Cmd+, を押して現在の会話用にその設定を保存します。ステップバイステップのスクリーンショットと追加設定については、Raycast の AI ドキュメントをご参照ください。当サイトのRaycast AI コマンドガイドでは、モデル選択を再利用可能なショートカットにパッケージ化する方法をカバーしています。

より高度な制御のための独自 API キーの追加

設定 → AI のカスタム API キーセクションでは、OpenAI、Anthropic、その他のサポート対象プロバイダーの独自キーを持ち込めます。キーを追加すると、Raycast は自身の枠の代わりにそれを使用します。既存の API クレジットがある場合や、Raycast のレート制限の外で操作したい場合に便利です。この方法で解放されたモデルの横にはキーアイコンが表示され、どのリクエストが自分のアカウントを通じて、どれが Raycast の共有割当を通じて行くかが常に分かります。

Raycast に選ばせる Auto Model の使用

現在実験的な Auto Model 機能は、実行中のタスクの種類に基づいて最も適切なモデルを自動的に選択します。モデル選択について考えたくないユーザーにとって、これは実用的なデフォルトです。「モデル管理」コマンドを実行して、使わないプロバイダーを非表示にすることもでき、モデルピッカーをクリーンで素早くナビゲートしやすく保てます。毎日同じプロンプトを使うなら、ワークフローごとにモデル + システムプロンプトの組み合わせを固定するためにRaycast AI プリセットと組み合わせてください。

Mac ワークフローに合う Raycast AI モデルの選び方

これだけ多くのモデルが利用可能なので、実用的な質問はこうなります:実際にどれを使うべきか?答えは何をしているかに依存します。

コーディングと開発者タスク

GPT-5.1 と Codex バリアントは、コード生成、デバッグ、エージェント型コーディングタスクのフロントランナーです。GPT-5 と GPT-5.1 は複雑な多段推論をうまく処理します — 複数ファイル間のバグを追跡するときにまさに必要なものです。Claude 3.7 Sonnet はここでのもう1つの強力な候補です。20万トークンのコンテキストウィンドウにより、大規模なコードベースで作業するときに特に便利です。両モデルとも GitHub やターミナル統合などの Raycast のネイティブ開発者拡張機能とよく組み合わさります。

多言語作業とライティング

Mistral Large は多言語タスクで際立っており、非英語言語全体で強力な推論を持ち、同じ速度層のほとんどの他のモデルには匹敵しないレベルです。Claude 3.7 Sonnet は長文ライティングと要約で一貫して良好に機能し、使用前の編集が少なくて済む出力を生成します。最新情報が必要なリサーチ重視のライティングには、Perplexity の Sonar Pro がレスポンスにリアルタイムのウェブコンテキストを取り込みます — このリストの他のモデルがネイティブにできないことです。

日常使用のための高速で軽量なレスポンス

クイックコマンド、リマインダー、単一質問の検索のために1日に何十回も AI をトリガーするとき、推論速度は生の能力よりも重要です。GPT-4o mini、Groq 経由の Llama 3.1 8B、Mistral Nemo、xAI Grok-3 Mini がここでの実用的な選択肢です。これらのモデルは低遅延を優先しており、一日中ランチャーと実際の作業の間を移動するときに速度差が顕著です。

Raycast でのローカルおよびカスタムモデルの実行

プライバシー要件や他プロバイダーでの既存の API クレジットを持つユーザーにとって、Raycast のカスタムモデルサポートは最も評価されていない機能の1つです。

プライベートでオフラインの AI のための Ollama セットアップ

Ollama をダウンロードし、アプリケーションフォルダに移動します。実行中に、Raycast 設定 → AI →「Ollama モデルを追加」から直接ローカルモデルを追加できます。100以上のモデルがサポートされており、小さな135Mパラメータのバリアントから671Bパラメータバージョンまでの Llama ファミリー全体を含みます。このオプションは無料プランで動作し、ハードウェア以外の費用はかからず、すべてのデータをローカルに保ちます — 厳格なデータプライバシー要件を持つ誰にとっても正しい構成です。

YAML で Replicate とその他の外部プロバイダーを接続

Raycast のカスタムプロバイダー機能(Replicate と Raycast でのカスタムモデルサポートを含む)は、~/.config/raycast/ai/providers.yaml の YAML 設定ファイルを通じて、OpenAI 互換 API エンドポイントをサポートします。構造はプロバイダー ID、ベース URL、API キー、モデルリストを定義します。例えば、Replicate エントリは Replicate の API ベース URL と meta/llama-3.1-8b-instruct のようなモデル ID を使います。モデル ID とエンドポイントの詳細については、Replicate の公式モデルドキュメントを参照してください。YAML を直接編集したくない場合、Raycast AI カスタムプロバイダー拡張機能が、設定ファイルに触れることなくプロバイダーを管理するための GUI ベースの代替を提供します。

カスタムに行くべき場合と組み込みモデルを使い続けるべき場合

組み込みモデルはほとんどのユースケースをカバーします。カスタムプロバイダーとローカルセットアップが意味を持つのはいくつかの特定の状況です:

  • サードパーティ API にデータを送ることを防ぐプライバシー要件がある
  • プロバイダーに既存の API クレジットがあり、それらを Raycast 経由でルーティングしたい
  • Raycast がデフォルトで含まない特定のモデルが必要

これらのシナリオ以外では、組み込みモデルリストは十分に包括的で、カスタムセットアップは意味のある利点なしにオーバーヘッドを追加します。

過払いせずにすべてのモデルをテスト

Raycast Pro がサポートする AI モデルの再確認:GPT-5、Claude、Gemini、Mistral、Llama、DeepSeek、Perplexity Sonar、xAI Grok、その他12以上 — すべて1つのキーボードショートカットからアクセス可能で、各アプリ用に別のアプリを管理する必要はありません。プラン構造は明確です:基本 Pro は無制限の基本 AI アクセスでほとんどのユーザーをカバーし、毎日コーディングや複雑な分析のためにトップ層の推論モデルに依存する場合は Advanced AI アドオンが価値あります。どの層が合うか分からない?当サイトの割引ランディングページで現在のオファーから始めてください。

14日間の無料トライアルは財務的リスクを完全に取り除きます。1ドルもアカウントを離れる前にワークフローを評価するためのフルアクセスが得られます — 実際のタスクを実行し、Claude 3.7 Sonnet や GPT-5 が基本モデルと比較して出力を改善するかどうかを確認するのに十分な時間です。Raycast Pro 割引 2026年は、トライアル後にチェックアウト時に80%割引を自動適用し、クーポンコードは不要です。高度な層を含むこの記事でカバーされているすべてのモデルを、標準価格のほんの一部で始める最も摩擦の少ない方法です。

よくある質問

Raycast Pro はどの AI モデルをサポートしていますか?

Raycast Pro は12以上の AI プロバイダーをサポートしており、OpenAI の GPT-5、GPT-5.1、GPT-5 Reasoning、GPT-4.1、GPT-4o、Anthropic Claude 3.7 Sonnet、Google Gemini、Perplexity Sonar、xAI Grok-4.1、Mistral(Large、Medium、Small、Nemo、Codestral)、Meta Llama 4 Scout、DeepSeek、Qwen3、Moonshot Kimi K2.5、Raycast ネイティブの Ray-1 モデルなどが含まれます — すべて1つのキーボードショートカットから利用可能です。

Advanced AI アドオンとは何ですか?

Advanced AI アドオンは Raycast Pro の上に月額 $8 で追加でき、GPT-4、GPT-4 Turbo、Claude 3.7 Sonnet など他プロバイダーの同等のプレミアムモデルなどのトップクラスモデルが解放されます。Pro と合わせても、単体の ChatGPT Plus サブスクリプションより安く、すべてのサポート対象モデルを1つのインターフェースで利用できます。

自分の API キーを使えますか?

はい。設定 → AI → カスタム API キーから、OpenAI、Anthropic、その他のサポート対象プロバイダーの独自キーを持ち込めます。キーが設定されていると、Raycast は自身の枠ではなくあなたのアカウントを通じてリクエストをルーティングします。既存のクレジットがある場合や Raycast の共有レート制限をバイパスしたい場合に便利です。この方法で解放されたモデルの横にはキーアイコンが表示されます。

Raycast AI はオフラインで動作しますか?

組み込みのホスト型モデルにはインターネット接続が必要ですが、Raycast は Ollama を通じてローカルでオフラインの AI をサポートしています。Ollama をインストールしてから、設定 → AI → Ollama モデルを追加でローカルモデルを追加します。100以上のモデルがサポートされており、Llama ファミリー全体を含みます。このオプションは無料プランでも利用可能で、すべての推論はローカルで実行されます。

Raycast Pro を80%オフで入手

14日間の無料トライアル。クーポンコード不要。割引は自動的に適用されます。

割引を取得 →

関連記事