Modèles IA Raycast Pro : Liste Complète, Plans et Cas d'Usage

Publié le 22 avril 2026 • 9 min de lecture

Si vous vous demandez quels modèles IA Raycast Pro prend en charge, la réponse courte est : beaucoup. Raycast ne vous donne pas un seul assistant IA, il vous donne accès à plus d'une dizaine de fournisseurs IA au sein d'un unique lanceur Mac, tous déclenchés depuis le même raccourci clavier. Ce guide couvre les modèles réellement disponibles, le coût de chaque niveau pour les débloquer, et quel modèle vaut la peine d'être utilisé pour votre workflow spécifique à un moment donné.

La liste des modèles s'est considérablement étoffée en 2026. Raycast héberge désormais tout, de la famille GPT-5 d'OpenAI à Anthropic Claude, Google Gemini, Mistral, DeepSeek, Perplexity Sonar, xAI Grok, Meta Llama et au modèle propre de Raycast Ray-1. C'est beaucoup à trier sans guide, donc ce qui suit est une analyse modèle par modèle avec les exigences de plan, les étapes de configuration et les recommandations par cas d'usage.

Si vous évaluez encore l'idée de vous abonner, une offre de réduction actuelle via Raycast Pro Réduction 2026 mérite d'être vérifiée avant de vous engager au plein tarif : détails à la fin.

Quels modèles IA Raycast Pro prend-il en charge, liste complète par fournisseur

L'étendue des intégrations IA de Raycast est l'un de ses arguments de vente les plus forts. Plutôt que d'être verrouillé chez un seul fournisseur, vous obtenez un sélecteur multi-modèles qui couvre chaque grande famille de LLM. Pour un aperçu concis des capacités IA du produit, voir la page des fonctionnalités IA de Raycast.

La famille GPT d'OpenAI dans Raycast

OpenAI a l'intégration la plus profonde dans Raycast. La gamme complète comprend GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-5 mini, GPT-5 nano, GPT-4.1, GPT-4.1 mini, GPT-4o, GPT-4 Turbo et GPT-4. Cette gamme vous donne à la fois des modèles de raisonnement de pointe et des variantes plus légères et plus rapides dans la même interface, sans avoir à passer à un modèle lourd pour une recherche rapide. Notre guide Raycast et ChatGPT approfondit le workflow spécifique à OpenAI.

Anthropic Claude, Google Gemini, Perplexity et xAI

Claude 3.7 Sonnet d'Anthropic est l'option Claude phare dans Raycast. En pratique, il surpasse les autres modèles disponibles pour les sessions de code longues et les tâches d'écriture structurée, en grande partie grâce à sa fenêtre de contexte de 200 000 tokens. Si Claude est votre modèle principal, notre guide Raycast + Claude couvre l'intégration en détail. Google Gemini est aussi un fournisseur pris en charge. Les trois modèles Sonar de Perplexity, Sonar, Sonar Pro et Sonar Reasoning Pro, se démarquent parce qu'ils intègrent un contexte web en direct dans leurs réponses, ce qui les rend véritablement utiles pour la recherche. Grok-4.1 Fast et Grok-4.1 Fast Reasoning de xAI complètent ce groupe en tant qu'ajouts plus récents avec de fortes vitesses de raisonnement.

Mistral, Meta Llama, DeepSeek et les modèles propres de Raycast

La liste complète s'étend davantage. La famille Mistral couvre Mistral Large, Mistral Medium, Mistral Small 3, Mistral Nemo et Codestral. Llama 4 Scout et Llama 3.3 70B de Meta sont disponibles via Groq. DeepSeek-V3 et DeepSeek-R1 viennent via Together AI. Les variantes Qwen3 et Kimi K2.5 de Moonshot AI complètent les options tierces.

À souligner séparément : les modèles propres Ray-1 et Ray-1 mini de Raycast sont natifs de la plateforme, ce qui signifie qu'ils sont optimisés pour les motifs de workflow du lanceur plutôt que d'être une API hébergée générique. Si vous cherchiez un nom de modèle spécifique, il est presque certainement sur cette liste, ou accessible via les fournisseurs personnalisés couverts plus loin.

Quel plan débloque quels modèles IA dans Raycast Pro

La structure des plans est simple une fois que vous voyez les trois niveaux clairement exposés. La plupart de la confusion vient du fait qu'on ne sait pas quels modèles sont derrière le module Advanced AI par rapport à ce qui est inclus dans Pro de base. Pour un détail complet de la facturation, notre guide des tarifs Raycast Pro présente chaque niveau côte à côte.

Ce que le niveau gratuit vous offre (et ses limites)

Le plan gratuit inclut 50 messages IA d'essai sur les modèles de base. C'est suffisant pour tester l'interface et avoir une idée de la façon dont l'IA s'intègre dans le workflow du lanceur Raycast, mais cela ne tiendra pas sous un usage quotidien. Pas de modèles avancés, pas d'accès illimité, pas de synchronisation cloud. Pensez-y comme à un aperçu, pas à une configuration de travail.

Ce que Raycast Pro couvre à 8 $/mois

Le plan Pro coûte 8 $ par utilisateur et par mois en facturation annuelle, ou 10 $ en facturation mensuelle. Il débloque les messages illimités sur les modèles IA de base de Raycast, la synchronisation cloud, l'historique du presse-papiers illimité, et l'ensemble complet des fonctionnalités de productivité incluant les thèmes personnalisés et les notes. Des limites de taux s'appliquent, 50 requêtes par minute et 300 par heure, mais elles sont rarement atteintes en usage normal. Le plan inclut aussi un essai gratuit de 14 jours, qui retire le risque à l'inscription avant d'être pleinement engagé. Pour les détails officiels du plan, voir la page Raycast Pro.

Quand le module Advanced AI compte

Les modèles haut de gamme sont derrière le module Advanced AI, qui coûte 8 $ supplémentaires par mois en plus de Pro. Ce niveau débloque GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet et les modèles premium équivalents d'autres fournisseurs. Pour mettre le coût en perspective : accéder à GPT-4 via le module Advanced AI de Raycast coûte toujours moins qu'un abonnement ChatGPT Plus autonome à 20 $ par mois, et vous obtenez simultanément tous les autres modèles de la liste.

Si vous voulez tester les deux niveaux avant de payer le plein tarif, le prix promotionnel disponible via Raycast Pro Réduction 2026 applique une réduction de 80 % automatiquement au paiement, sans code promo requis, couvrant à la fois le plan Pro de base et le chemin vers le module Advanced AI.

Comment changer de modèle et configurer votre installation IA

La configuration IA de Raycast est centralisée en un seul endroit, ce qui la rend facile à gérer une fois qu'on sait où chercher.

Définir votre modèle par défaut pour Quick AI et AI Chat

Ouvrez les Paramètres Raycast (Cmd+,) et naviguez vers l'onglet AI. De là, vous définissez des modèles par défaut séparés pour les commandes Quick AI et les conversations AI Chat ; ces modèles peuvent être différents, ce qui est utile si vous voulez un modèle léger et rapide pour les recherches rapides et un modèle plus capable pour les conversations longues. Changer en cours de conversation est aussi possible : utilisez la liste déroulante de modèle en haut de la fenêtre de chat, et appuyez sur Maj+Cmd+, pour sauvegarder cette préférence pour la conversation en cours. Pour des captures d'écran pas à pas et d'autres paramètres, consultez la documentation IA de Raycast. Notre guide des commandes IA Raycast couvre comment empaqueter des choix de modèles dans des raccourcis réutilisables.

Ajouter vos propres clés API pour plus de contrôle

La section Custom API Keys dans Paramètres → AI vous permet d'apporter vos propres clés d'OpenAI, Anthropic ou d'autres fournisseurs pris en charge. Quand vous ajoutez une clé, Raycast l'utilise au lieu de son propre quota, ce qui est utile si vous avez des crédits API existants ou voulez opérer hors des limites de taux de Raycast. Une icône de clé apparaît à côté des modèles débloqués de cette façon, vous savez ainsi toujours quelles requêtes passent par votre compte versus l'allocation partagée de Raycast.

Utiliser Auto Model pour laisser Raycast choisir

La fonctionnalité Auto Model, actuellement expérimentale, sélectionne automatiquement le modèle le plus approprié selon le type de tâche en cours. Pour les utilisateurs qui ne veulent pas réfléchir au choix de modèle, c'est un défaut pratique. Vous pouvez aussi exécuter la commande « Manage Models » pour masquer les fournisseurs que vous n'utilisez jamais, ce qui garde le sélecteur de modèles propre et rapide à naviguer. Si vous utilisez les mêmes prompts tous les jours, associez ceci aux AI Presets Raycast pour verrouiller les combinaisons modèle + system prompt par workflow.

Choisir le bon modèle IA Raycast pour votre workflow Mac

Avec autant de modèles disponibles, la question pratique devient : lequel devriez-vous vraiment utiliser ? La réponse dépend de ce que vous faites.

Code et tâches de développement

GPT-5.1 et ses variantes Codex sont en tête pour la génération de code, le débogage et les tâches de code agentique. GPT-5 et GPT-5.1 gèrent bien le raisonnement complexe multi-étapes, exactement ce dont vous avez besoin quand vous suivez des bugs sur plusieurs fichiers. Claude 3.7 Sonnet est l'autre concurrent solide ici ; sa fenêtre de contexte de 200 000 tokens le rend particulièrement utile pour travailler avec de grandes bases de code. Les deux modèles s'associent bien aux extensions de développement natives de Raycast comme GitHub et les intégrations terminal.

Travail multilingue et rédaction

Mistral Large se distingue pour les tâches multilingues, avec un raisonnement solide dans les langues non anglaises que la plupart des autres modèles n'égalent pas au même niveau de vitesse. Claude 3.7 Sonnet performe constamment bien pour l'écriture longue et la synthèse, produisant des sorties qui nécessitent moins d'édition avant d'être utilisables. Pour la rédaction qui demande de la recherche où vous avez besoin d'informations actuelles, Sonar Pro de Perplexity intègre un contexte web en temps réel dans la réponse, quelque chose que les autres modèles de cette liste ne peuvent pas faire nativement.

Réponses rapides et légères pour un usage quotidien

Quand vous déclenchez l'IA des dizaines de fois par jour pour des commandes rapides, des rappels et des recherches à question unique, la vitesse d'inférence compte plus que la capacité brute. GPT-4o mini, Llama 3.1 8B hébergé par Groq, Mistral Nemo et Grok-3 Mini de xAI sont les choix pratiques ici. Ces modèles priorisent une faible latence, et la différence de vitesse est perceptible quand vous circulez entre le lanceur et votre vrai travail tout au long de la journée.

Exécuter des modèles locaux et personnalisés dans Raycast

Pour les utilisateurs avec des exigences de confidentialité ou des crédits API existants chez d'autres fournisseurs, le support de modèles personnalisés de Raycast est l'une de ses fonctionnalités les plus sous-estimées.

Configurer Ollama pour une IA privée et hors ligne

Téléchargez Ollama et déplacez-le vers votre dossier Applications. Une fois qu'il tourne, vous pouvez ajouter des modèles locaux directement depuis Paramètres Raycast → AI → « Add Ollama Model ». Plus de 100 modèles sont pris en charge, y compris toute la famille Llama allant des petites variantes à 135M paramètres aux versions à 671B paramètres. Cette option fonctionne sur le plan gratuit, ne coûte rien au-delà de votre matériel, et garde toutes les données en local, ce qui en fait la bonne configuration pour quiconque a des exigences strictes de confidentialité des données.

Connecter Replicate et d'autres fournisseurs externes via YAML

La fonctionnalité Custom Providers de Raycast, Replicate et le support de modèles personnalisés dans Raycast inclus, prend en charge tout endpoint d'API compatible OpenAI via un fichier de config YAML à ~/.config/raycast/ai/providers.yaml. La structure définit un ID de fournisseur, une URL de base, une clé API et une liste de modèles. Une entrée Replicate, par exemple, utiliserait l'URL de base de l'API de Replicate et un ID de modèle comme meta/llama-3.1-8b-instruct. Consultez la documentation officielle des modèles Replicate pour les IDs de modèles et les détails d'endpoint. Si vous préférez ne pas éditer YAML directement, l'extension Raycast AI Custom Providers propose une alternative basée GUI pour gérer les fournisseurs sans toucher au fichier de config.

Quand passer au personnalisé plutôt que de rester sur les modèles intégrés

Les modèles intégrés couvrent la grande majorité des cas d'usage. Les fournisseurs personnalisés et les installations locales ont du sens dans quelques situations spécifiques :

  • Vous avez des exigences de confidentialité qui empêchent d'envoyer des données à des API tierces
  • Vous avez des crédits API existants chez un fournisseur et voulez les router via Raycast
  • Vous avez besoin d'un modèle spécifique que Raycast n'inclut pas par défaut

En dehors de ces scénarios, la liste des modèles intégrés est suffisamment complète pour que la configuration personnalisée ajoute de la surcharge sans bénéfice significatif.

Tester chaque modèle sans surpayer

Pour récapituler quels modèles IA Raycast Pro prend en charge : vous regardez GPT-5, Claude, Gemini, Mistral, Llama, DeepSeek, Perplexity Sonar, xAI Grok et une douzaine d'autres, tous accessibles depuis un seul raccourci clavier sans gérer une application séparée pour chacun. La structure des plans est claire : Pro de base couvre la plupart des utilisateurs avec un accès IA de base illimité, et le module Advanced AI vaut le coup si vous comptez sur les modèles de raisonnement haut de gamme pour le code ou l'analyse complexe au quotidien. Pas sûr du niveau qui vous convient ? Commencez par notre page de réduction pour l'offre en direct.

L'essai gratuit de 14 jours supprime entièrement le risque financier. Vous obtenez un accès complet pour évaluer le workflow avant qu'un seul dollar ne quitte votre compte, assez de temps pour exécuter de vraies tâches et voir si Claude 3.7 Sonnet ou GPT-5 améliore vraiment votre sortie par rapport aux modèles de base. Raycast Pro Réduction 2026 applique ensuite une réduction de 80 % automatiquement au paiement après l'essai, sans code promo requis. C'est la manière la moins contraignante de commencer avec chaque modèle couvert dans cet article, y compris le niveau avancé, à une fraction du prix standard.

Questions Fréquentes

Quels modèles IA Raycast Pro prend-il en charge ?

Raycast Pro prend en charge plus d'une dizaine de fournisseurs IA, notamment GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-4.1 et GPT-4o d'OpenAI, Claude 3.7 Sonnet d'Anthropic, Google Gemini, Perplexity Sonar, xAI Grok-4.1, Mistral (Large, Medium, Small, Nemo, Codestral), Meta Llama 4 Scout, DeepSeek, Qwen3, Moonshot Kimi K2.5, et les modèles natifs Ray-1 de Raycast — le tout depuis un seul raccourci clavier.

Qu'est-ce que le module complémentaire Advanced AI ?

Le module complémentaire Advanced AI coûte 8 $ supplémentaires par mois en plus de Raycast Pro et débloque les modèles haut de gamme comme GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet et les modèles premium équivalents d'autres fournisseurs. Associé à Pro, il reste sous le prix d'un abonnement ChatGPT Plus autonome tout en vous donnant tous les modèles pris en charge dans une seule interface.

Puis-je utiliser mes propres clés API ?

Oui. Paramètres → AI → Custom API Keys vous permet d'apporter vos propres clés d'OpenAI, Anthropic ou d'autres fournisseurs pris en charge. Quand une clé est configurée, Raycast route les requêtes via votre compte au lieu de son propre quota, ce qui est utile si vous avez des crédits existants ou voulez contourner les limites de taux partagées de Raycast. Une icône de clé apparaît à côté des modèles débloqués de cette façon.

Raycast AI fonctionne-t-il hors ligne ?

Les modèles hébergés intégrés nécessitent une connexion internet, mais Raycast prend en charge l'IA locale et hors ligne via Ollama. Installez Ollama, puis ajoutez des modèles locaux via Paramètres → AI → Add Ollama Model. Plus de 100 modèles sont pris en charge, y compris toute la famille Llama, et cette option est disponible sur le plan gratuit avec toute l'inférence en local.

Obtenez 80 % de Réduction sur Raycast Pro

Essai gratuit de 14 jours. Aucun code promo requis. La réduction s'applique automatiquement.

Obtenir la réduction →

Articles Associés