Raycast Pro KI-Modelle: Vollständige Liste, Pläne und Anwendungsfälle

Veröffentlicht am 22. April 2026 • 9 Min. Lesezeit

Wenn du dich fragst, welche KI-Modelle Raycast Pro unterstützt, lautet die kurze Antwort: sehr viele. Raycast gibt dir nicht einen KI-Assistenten — es gibt dir Zugang zu über einem Dutzend KI-Anbietern innerhalb eines einzigen Mac-Launchers, alle über dasselbe Tastenkürzel ausgelöst. Dieser Leitfaden behandelt, welche Modelle tatsächlich verfügbar sind, was jede Stufe kostet, um sie freizuschalten, und welches Modell es wert ist, für deinen spezifischen Workflow an einem bestimmten Tag genutzt zu werden.

Die Modellliste ist 2026 deutlich gewachsen. Raycast hostet jetzt alles von OpenAIs GPT-5-Familie über Anthropic Claude, Google Gemini, Mistral, DeepSeek, Perplexity Sonar, xAI Grok, Meta Llama bis hin zu Raycasts eigenem Ray-1-Modell. Das ist viel, ohne Leitfaden zu sortieren — was folgt, ist eine Modell-für-Modell-Aufschlüsselung mit Planvoraussetzungen, Konfigurationsschritten und Anwendungsfall-Empfehlungen.

Wenn du noch abwägst, ob du abonnieren sollst, lohnt sich ein Blick auf ein aktuelles Rabattangebot über Raycast Pro Rabatt 2026, bevor du dich auf den vollen Preis festlegst — Details am Ende.

Welche KI-Modelle unterstützt Raycast Pro? Vollständige Liste nach Anbieter

Die Breite der KI-Integrationen von Raycast ist eines seiner stärksten Verkaufsargumente. Statt an einen einzelnen Anbieter gebunden zu sein, bekommst du eine Multi-Modell-Auswahl, die jede große LLM-Familie abdeckt. Für einen kompakten Überblick über die KI-Fähigkeiten des Produkts siehe die KI-Feature-Seite von Raycast.

OpenAIs GPT-Familie in Raycast

OpenAI hat die tiefste Integration innerhalb von Raycast. Die vollständige Reihe umfasst GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-5 mini, GPT-5 nano, GPT-4.1, GPT-4.1 mini, GPT-4o, GPT-4 Turbo und GPT-4. Diese Bandbreite gibt dir sowohl modernste Reasoning-Modelle als auch leichtere, schnellere Varianten in derselben Oberfläche — kein Wechsel auf ein schweres Modell für eine schnelle Recherche nötig. Unser Raycast und ChatGPT Walkthrough geht tiefer auf den OpenAI-spezifischen Workflow ein.

Anthropic Claude, Google Gemini, Perplexity und xAI

Anthropics Claude 3.7 Sonnet ist die Flaggschiff-Claude-Option in Raycast. In der Praxis übertrifft es andere verfügbare Modelle bei längeren Coding-Sessions und strukturierten Schreibaufgaben, hauptsächlich wegen seines Kontextfensters mit 200.000 Tokens. Wenn Claude dein Haupttreiber ist, behandelt unser Raycast + Claude Leitfaden die Integration im Detail. Google Gemini ist ebenfalls ein unterstützter Anbieter. Perplexitys drei Sonar-Modelle — Sonar, Sonar Pro und Sonar Reasoning Pro — stechen heraus, weil sie Live-Web-Kontext in ihre Antworten einziehen und damit für Recherche wirklich nützlich sind. xAIs Grok-4.1 Fast und Grok-4.1 Fast Reasoning runden diese Gruppe als neuere Ergänzungen mit starken Reasoning-Geschwindigkeiten ab.

Mistral, Meta Llama, DeepSeek und Raycasts eigene Modelle

Die vollständige Liste geht noch weiter. Die Mistral-Familie umfasst Mistral Large, Mistral Medium, Mistral Small 3, Mistral Nemo und Codestral. Metas Llama 4 Scout und Llama 3.3 70B sind via Groq verfügbar. DeepSeek-V3 und DeepSeek-R1 kommen über Together AI. Qwen3-Varianten und Moonshot AIs Kimi K2.5 runden die Drittanbieter-Optionen ab.

Separat erwähnenswert: Raycasts eigene Ray-1- und Ray-1-mini-Modelle sind nativ für die Plattform — das heißt, sie sind auf die Workflow-Muster des Launchers optimiert statt eine generische gehostete API zu sein. Wenn du hierher auf der Suche nach einem bestimmten Modellnamen gekommen bist, steht er mit hoher Wahrscheinlichkeit auf dieser Liste oder ist über die später behandelten benutzerdefinierten Anbieter zugänglich.

Welcher Plan schaltet welche KI-Modelle in Raycast Pro frei

Die Planstruktur ist unkompliziert, sobald man die drei Stufen klar nebeneinander sieht. Die meiste Verwirrung entsteht, wenn man nicht weiß, welche Modelle hinter dem Advanced-AI-Add-on stehen und was im Basis-Pro enthalten ist. Für eine vollständige Abrechnungsaufschlüsselung legt unser Raycast Pro Preisleitfaden jede Stufe nebeneinander.

Was der kostenlose Tarif bietet (und seine Grenzen)

Der kostenlose Plan enthält 50 KI-Testnachrichten über grundlegende Modelle. Das reicht, um die Oberfläche zu testen und ein Gefühl dafür zu bekommen, wie KI in Raycasts Launcher-Workflow integriert ist — aber unter täglicher Nutzung hält es nicht stand. Keine erweiterten Modelle, kein unbegrenzter Zugang, kein Cloud-Sync. Sieh es als Vorschau, nicht als funktionierendes Setup.

Was Raycast Pro für 8 $/Monat abdeckt

Der Pro-Plan kostet 8 $ pro Nutzer pro Monat bei jährlicher Abrechnung oder 10 $ bei monatlicher. Er schaltet unbegrenzte Nachrichten an Raycasts einfachen KI-Modellen, Cloud-Sync, unbegrenzten Zwischenablageverlauf und den vollständigen Produktivitäts-Funktionsumfang einschließlich benutzerdefinierter Themes und Notes frei. Es gelten Rate-Limits — 50 Anfragen pro Minute, 300 pro Stunde — die im normalen Gebrauch selten erreicht werden. Der Plan enthält außerdem eine 14-tägige kostenlose Testphase, die das Risiko beim Anmelden nimmt, bevor du dich vollständig festlegst. Für die offiziellen Plandetails siehe die Raycast-Pro-Seite.

Wann das Advanced-AI-Add-on wichtig wird

Die Top-Tier-Modelle stehen hinter dem Advanced-AI-Add-on, das zusätzlich 8 $ pro Monat zusätzlich zu Pro kostet. Diese Stufe schaltet GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet und vergleichbare Premium-Modelle anderer Anbieter frei. Zum Kostenkontext: Der Zugriff auf GPT-4 über Raycasts Advanced-AI-Add-on kostet weiterhin weniger als ein eigenständiges ChatGPT-Plus-Abo zu 20 $ pro Monat — und du bekommst gleichzeitig jedes andere Modell auf der Liste.

Wenn du beide Stufen vor dem vollen Preis testen willst, wendet die Aktionspreisgestaltung über Raycast Pro Rabatt 2026 automatisch an der Kasse einen 80-%-Rabatt an, kein Gutscheincode nötig, sowohl für den Basis-Pro-Plan als auch für den Weg zum Advanced-AI-Add-on.

Wie du Modelle wechselst und dein KI-Setup konfigurierst

Raycasts KI-Konfiguration ist an einem Ort zentralisiert, was die Verwaltung einfach macht, sobald du weißt, wo du hinschauen musst.

Dein Standardmodell für Quick AI und AI Chat festlegen

Öffne die Raycast-Einstellungen (Cmd+,) und navigiere zum Tab „AI". Von hier aus legst du separate Standardmodelle für Quick-AI-Befehle und AI-Chat-Konversationen fest — das können unterschiedliche Modelle sein, was nützlich ist, wenn du ein schnelles, leichtes Modell für kurze Lookups und ein leistungsfähigeres für längere Unterhaltungen willst. Auch ein Wechsel mitten in der Konversation ist möglich: Nutze das Modell-Dropdown oben im Chat-Fenster und drücke Shift+Cmd+, um diese Einstellung für die aktuelle Konversation zu speichern. Für Schritt-für-Schritt-Screenshots und weitere Einstellungen konsultiere Raycasts KI-Dokumentation. Unser Raycast AI Commands Guide zeigt, wie du Modellentscheidungen in wiederverwendbare Shortcuts packst.

Eigene API-Keys für mehr Kontrolle hinzufügen

Im Abschnitt „Custom API Keys" unter Einstellungen → AI kannst du deine eigenen Keys von OpenAI, Anthropic oder anderen unterstützten Anbietern einbringen. Wenn du einen Key hinzufügst, nutzt Raycast ihn statt des eigenen Kontingents — nützlich, wenn du bestehende API-Credits hast oder außerhalb von Raycasts Rate-Limits arbeiten willst. Ein Schlüssel-Symbol erscheint neben so freigeschalteten Modellen, damit du immer weißt, welche Anfragen über dein Konto laufen und welche über Raycasts geteilte Zuteilung.

Auto Model nutzen und Raycast wählen lassen

Die Auto-Model-Funktion — derzeit experimentell — wählt automatisch das am besten geeignete Modell je nach Art der Aufgabe aus. Für Nutzer, die nicht über Modellauswahl nachdenken wollen, ist das eine praktische Voreinstellung. Du kannst außerdem den Befehl „Manage Models" ausführen, um Anbieter auszublenden, die du nie verwendest, was die Modellauswahl sauber und schnell navigierbar hält. Wenn du jeden Tag dieselben Prompts nutzt, kombiniere das mit Raycast AI Presets, um Modell- und System-Prompt-Kombinationen pro Workflow festzulegen.

Das richtige Raycast-AI-Modell für deinen Mac-Workflow wählen

Bei so vielen verfügbaren Modellen wird die praktische Frage: Welches solltest du tatsächlich verwenden? Die Antwort hängt davon ab, was du tust.

Coding und Entwickleraufgaben

GPT-5.1 und seine Codex-Varianten sind die Spitzenreiter bei Codegenerierung, Debugging und agentischen Coding-Aufgaben. GPT-5 und GPT-5.1 bewältigen komplexes Multi-Step-Reasoning gut — genau das, was du brauchst, wenn du Bugs über mehrere Dateien hinweg nachverfolgst. Claude 3.7 Sonnet ist der andere starke Kandidat hier; sein Kontextfenster mit 200.000 Tokens macht es besonders nützlich beim Arbeiten mit großen Codebasen. Beide Modelle harmonieren gut mit Raycasts nativen Entwicklererweiterungen wie GitHub- und Terminal-Integrationen.

Mehrsprachige Arbeit und Schreiben

Mistral Large ist der Standout für mehrsprachige Aufgaben — mit starkem Reasoning in nicht-englischen Sprachen, das die meisten anderen Modelle in derselben Geschwindigkeitsstufe nicht erreichen. Claude 3.7 Sonnet leistet konstant Gutes bei Langform-Schreiben und Zusammenfassungen und erzeugt Ergebnisse, die weniger Überarbeitung brauchen, bevor sie nutzbar sind. Für recherchelastiges Schreiben, bei dem du aktuelle Informationen brauchst, zieht Perplexitys Sonar Pro Echtzeit-Web-Kontext in die Antwort ein — etwas, was die anderen Modelle in dieser Liste nativ nicht können.

Schnelle, leichte Antworten für den Alltag

Wenn du KI dutzende Male am Tag für schnelle Befehle, Erinnerungen und Einzelfragen auslöst, zählt Inferenzgeschwindigkeit mehr als reine Fähigkeit. GPT-4o mini, Groq-gehostetes Llama 3.1 8B, Mistral Nemo und xAI Grok-3 Mini sind hier die praktischen Optionen. Diese Modelle priorisieren niedrige Latenz, und der Geschwindigkeitsunterschied ist spürbar, wenn du den Tag über zwischen Launcher und eigentlicher Arbeit hin- und herwechselst.

Lokale und benutzerdefinierte Modelle in Raycast ausführen

Für Nutzer mit Datenschutzanforderungen oder bestehenden API-Credits bei anderen Anbietern ist Raycasts Custom-Model-Support eines der am meisten unterschätzten Features.

Ollama für private, offline nutzbare KI einrichten

Lade Ollama herunter und verschiebe es in deinen Programme-Ordner. Sobald es läuft, kannst du lokale Modelle direkt aus den Raycast-Einstellungen → AI → „Add Ollama Model" hinzufügen. Über 100 Modelle werden unterstützt, einschließlich der gesamten Llama-Familie von kleinen 135M-Parameter-Varianten bis zu 671B-Parameter-Versionen. Diese Option funktioniert im kostenlosen Plan, kostet über deine Hardware hinaus nichts und hält alle Daten lokal — damit die richtige Konfiguration für alle mit strengen Datenschutzanforderungen.

Replicate und andere externe Anbieter via YAML verbinden

Raycasts Custom-Providers-Funktion — einschließlich Replicate und Custom-Model-Support in Raycast — unterstützt jede OpenAI-kompatible API-Endpunkt-Anbindung über eine YAML-Konfigurationsdatei unter ~/.config/raycast/ai/providers.yaml. Die Struktur definiert eine Anbieter-ID, Basis-URL, API-Key und Modellliste. Ein Replicate-Eintrag würde beispielsweise die Replicate-API-Basis-URL und eine Modell-ID wie meta/llama-3.1-8b-instruct verwenden. Siehe Replicates offizielle Modelldokumentation für Modell-IDs und Endpunktdetails. Wenn du kein YAML direkt bearbeiten willst, bietet die Raycast AI Custom Providers Extension eine GUI-basierte Alternative zur Anbieterverwaltung, ohne die Config-Datei anzufassen.

Wann Custom-Setup sinnvoll ist und wann integrierte Modelle genügen

Die integrierten Modelle decken die überwältigende Mehrheit der Anwendungsfälle ab. Custom Providers und lokale Setups sind in einigen spezifischen Situationen sinnvoll:

  • Du hast Datenschutzanforderungen, die das Senden von Daten an Drittanbieter-APIs verhindern
  • Du hast bestehende API-Credits bei einem Anbieter und willst sie über Raycast laufen lassen
  • Du brauchst ein bestimmtes Modell, das Raycast standardmäßig nicht enthält

Außerhalb dieser Szenarien ist die integrierte Modellliste umfassend genug, dass Custom-Setup Overhead hinzufügt, ohne nennenswerten Nutzen zu liefern.

Jedes Modell testen, ohne zu viel zu bezahlen

Zusammenfassend zu den von Raycast Pro unterstützten KI-Modellen: Du bekommst GPT-5, Claude, Gemini, Mistral, Llama, DeepSeek, Perplexity Sonar, xAI Grok und ein Dutzend weitere, alle zugänglich über ein einziges Tastenkürzel — ohne für jedes eine separate App verwalten zu müssen. Die Planstruktur ist klar: Basis-Pro deckt die meisten Nutzer mit unbegrenztem Basis-KI-Zugang ab, und das Advanced-AI-Add-on lohnt sich, wenn du täglich auf Top-Tier-Reasoning-Modelle für Coding oder komplexe Analysen angewiesen bist. Unsicher, welche Stufe passt? Beginne auf unserer Rabatt-Landingpage mit dem aktuellen Angebot.

Die 14-tägige kostenlose Testphase nimmt das finanzielle Risiko vollständig. Du bekommst vollen Zugang, um den Workflow zu evaluieren, bevor ein einziger Dollar dein Konto verlässt — genug Zeit, um echte Aufgaben auszuführen und zu sehen, ob Claude 3.7 Sonnet oder GPT-5 dein Ergebnis gegenüber den Basis-Modellen tatsächlich verbessert. Raycast Pro Rabatt 2026 wendet dann nach der Testphase automatisch an der Kasse einen 80-%-Rabatt an, ohne dass ein Gutscheincode nötig ist. Es ist der reibungsärmste Weg, mit jedem in diesem Artikel behandelten Modell einschließlich der Advanced-Stufe zu einem Bruchteil des Standardpreises loszulegen.

Häufig gestellte Fragen

Welche KI-Modelle unterstützt Raycast Pro?

Raycast Pro unterstützt über ein Dutzend KI-Anbieter, darunter OpenAIs GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-4.1, GPT-4o, Anthropic Claude 3.7 Sonnet, Google Gemini, Perplexity Sonar, xAI Grok-4.1, Mistral (Large, Medium, Small, Nemo, Codestral), Meta Llama 4 Scout, DeepSeek, Qwen3, Moonshot Kimi K2.5 und Raycasts eigene Ray-1-Modelle — alles über ein einziges Tastenkürzel.

Was ist das Advanced-AI-Add-on?

Das Advanced-AI-Add-on kostet zusätzlich 8 $ pro Monat zusätzlich zu Raycast Pro und schaltet Top-Tier-Modelle wie GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet und vergleichbare Premium-Modelle anderer Anbieter frei. Zusammen mit Pro liegt es unter einem eigenständigen ChatGPT-Plus-Abo und bietet dir jedes unterstützte Modell in einer Oberfläche.

Kann ich meine eigenen API-Keys nutzen?

Ja. Unter Einstellungen → AI → Custom API Keys kannst du deine eigenen Keys von OpenAI, Anthropic oder anderen unterstützten Anbietern einbringen. Ist ein Key konfiguriert, leitet Raycast Anfragen über dein Konto statt über das eigene Kontingent — nützlich, wenn du bestehende Credits hast oder die geteilten Rate-Limits von Raycast umgehen willst. Ein Schlüssel-Symbol erscheint neben so freigeschalteten Modellen.

Funktioniert Raycast AI offline?

Die integrierten gehosteten Modelle benötigen eine Internetverbindung, aber Raycast unterstützt lokale, offline nutzbare KI über Ollama. Installiere Ollama und füge dann lokale Modelle via Einstellungen → AI → Add Ollama Model hinzu. Über 100 Modelle werden unterstützt, einschließlich der gesamten Llama-Familie, und diese Option ist im kostenlosen Plan verfügbar, wobei die gesamte Inferenz lokal läuft.

80 % Rabatt auf Raycast Pro sichern

14 Tage kostenlos testen. Kein Gutscheincode nötig. Rabatt wird automatisch angewendet.

Rabatt sichern →

Verwandte Artikel