Modelos de IA de Raycast Pro: Lista Completa, Planes y Casos de Uso

Publicado el 22 de abril de 2026 • 9 min de lectura

Si te preguntas qué modelos de IA admite Raycast Pro, la respuesta corta es: muchos. Raycast no te da un solo asistente de IA, te da acceso a más de una docena de proveedores de IA dentro de un único lanzador de Mac, todos activados desde el mismo atajo de teclado. Esta guía cubre qué modelos están realmente disponibles, cuánto cuesta desbloquear cada nivel y qué modelo vale la pena usar para tu flujo de trabajo específico en un día dado.

La lista de modelos ha crecido significativamente en 2026. Raycast ahora aloja todo, desde la familia GPT-5 de OpenAI hasta Anthropic Claude, Google Gemini, Mistral, DeepSeek, Perplexity Sonar, xAI Grok, Meta Llama y el propio modelo Ray-1 de Raycast. Eso es mucho que clasificar sin una guía, por lo que lo que sigue es un desglose modelo por modelo con requisitos de plan, pasos de configuración y recomendaciones de casos de uso.

Si aún estás evaluando si suscribirte, una oferta de descuento actual mediante Descuento de Raycast Pro 2026 vale la pena revisarla antes de comprometerte con el precio completo, detalles al final.

Qué modelos de IA admite Raycast Pro, lista completa por proveedor

La amplitud de las integraciones de IA de Raycast es uno de sus puntos fuertes. En lugar de estar atrapado en un único proveedor, obtienes un selector multi-modelo que abarca todas las grandes familias de LLM. Para un resumen conciso de las capacidades de IA del producto, consulta la página de funciones de IA de Raycast.

La familia GPT de OpenAI en Raycast

OpenAI tiene la integración más profunda dentro de Raycast. La línea completa incluye GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-5 mini, GPT-5 nano, GPT-4.1, GPT-4.1 mini, GPT-4o, GPT-4 Turbo y GPT-4. Ese rango te da tanto modelos de razonamiento de última generación como variantes más ligeras y rápidas en la misma interfaz, sin necesidad de cambiar a un modelo pesado para una consulta rápida. Nuestro tutorial de Raycast y ChatGPT profundiza en el flujo específico de OpenAI.

Anthropic Claude, Google Gemini, Perplexity y xAI

Claude 3.7 Sonnet de Anthropic es la opción insignia de Claude en Raycast. En la práctica, supera a otros modelos disponibles en sesiones extendidas de programación y tareas de escritura estructurada, en gran parte debido a su ventana de contexto de 200.000 tokens. Si Claude es tu opción principal, nuestra guía de Raycast + Claude cubre la integración en detalle. Google Gemini también es un proveedor compatible. Los tres modelos Sonar de Perplexity, Sonar, Sonar Pro y Sonar Reasoning Pro, destacan porque incorporan contexto web en vivo en sus respuestas, haciéndolos genuinamente útiles para investigación. Grok-4.1 Fast y Grok-4.1 Fast Reasoning de xAI completan este grupo como adiciones más nuevas con velocidades de razonamiento fuertes.

Mistral, Meta Llama, DeepSeek y los propios modelos de Raycast

La lista completa se extiende más. La familia Mistral cubre Mistral Large, Mistral Medium, Mistral Small 3, Mistral Nemo y Codestral. Llama 4 Scout y Llama 3.3 70B de Meta están disponibles vía Groq. DeepSeek-V3 y DeepSeek-R1 llegan a través de Together AI. Las variantes Qwen3 y Kimi K2.5 de Moonshot AI completan las opciones de terceros.

Merece mención aparte: los propios modelos Ray-1 y Ray-1 mini de Raycast son nativos de la plataforma, lo que significa que están optimizados para los patrones de flujo de trabajo del lanzador en lugar de ser una API alojada genérica. Si viniste aquí buscando un nombre de modelo específico, casi con seguridad está en esta lista, o accesible vía los proveedores personalizados que se cubren más adelante.

Qué plan desbloquea qué modelos de IA en Raycast Pro

La estructura del plan es directa una vez que ves los tres niveles expuestos claramente. La mayor parte de la confusión viene de no saber qué modelos están detrás del complemento Advanced AI versus lo que se incluye en Pro base. Para un desglose completo de facturación, nuestra guía de precios de Raycast Pro expone cada nivel lado a lado.

Qué te da el plan gratuito (y sus límites)

El plan gratuito incluye 50 mensajes de prueba de IA en modelos básicos. Es suficiente para probar la interfaz y hacerte una idea de cómo se integra la IA en el flujo de trabajo del lanzador de Raycast, pero no aguantará un uso diario. Sin modelos avanzados, sin acceso ilimitado, sin Cloud Sync. Piénsalo como una vista previa, no como una configuración funcional.

Qué cubre Raycast Pro a $8/mes

El plan Pro cuesta $8 por usuario al mes en facturación anual, o $10 en facturación mensual. Desbloquea mensajes ilimitados en los modelos básicos de IA de Raycast, Cloud Sync, historial ilimitado del portapapeles y el conjunto completo de funciones de productividad, incluidos temas personalizados y notas. Se aplican límites de tasa: 50 solicitudes por minuto, 300 por hora, pero rara vez se alcanzan en uso normal. El plan también incluye una prueba gratuita de 14 días, que elimina el riesgo al registrarse antes de comprometerse plenamente. Para los detalles oficiales del plan, consulta la página de Raycast Pro.

Cuándo importa el complemento Advanced AI

Los modelos de nivel superior están detrás del complemento Advanced AI, que cuesta $8 adicionales al mes sobre Pro. Este nivel desbloquea GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet y modelos premium equivalentes de otros proveedores. Para poner el coste en contexto: acceder a GPT-4 mediante el complemento Advanced AI de Raycast sigue costando menos que una suscripción independiente a ChatGPT Plus a $20 al mes, y obtienes todos los demás modelos de la lista simultáneamente.

Si quieres probar ambos niveles antes de pagar el precio completo, el precio promocional disponible a través de Descuento de Raycast Pro 2026 aplica automáticamente un descuento del 80% al pagar, sin código de cupón requerido, cubriendo tanto el plan Pro base como el camino al complemento Advanced AI.

Cómo cambiar de modelo y configurar tu IA

La configuración de IA de Raycast está centralizada en un solo lugar, lo que facilita su gestión una vez que sabes dónde mirar.

Establecer tu modelo por defecto para Quick AI y AI Chat

Abre Ajustes de Raycast (Cmd+,) y ve a la pestaña AI. Desde aquí, estableces modelos por defecto separados para los comandos de Quick AI y para las conversaciones de AI Chat; pueden ser modelos distintos, lo cual es útil si quieres un modelo rápido y ligero para consultas rápidas y uno más capaz para conversaciones extendidas. También es posible cambiar a mitad de conversación: usa el menú desplegable de modelo en la parte superior de la ventana de chat, y pulsa Shift+Cmd+, para guardar esa preferencia para la conversación actual. Para capturas paso a paso y ajustes adicionales, consulta la documentación de IA de Raycast. Nuestra guía de comandos de IA de Raycast cubre cómo empaquetar elecciones de modelo en atajos reutilizables.

Añadir tus propias claves de API para más control

La sección Custom API Keys en Ajustes → AI te permite usar tus propias claves de OpenAI, Anthropic u otros proveedores compatibles. Cuando añades una clave, Raycast la usa en lugar de su propia cuota, útil si tienes créditos API existentes o quieres operar fuera de los límites de tasa de Raycast. Aparece un icono de llave junto a los modelos desbloqueados de esta forma, para que siempre sepas qué solicitudes pasan por tu cuenta versus por la asignación compartida de Raycast.

Usar Auto Model para dejar que Raycast elija

La función Auto Model, actualmente experimental, selecciona automáticamente el modelo más apropiado según el tipo de tarea que ejecutes. Para usuarios que no quieren pensar en la selección de modelo, este es un valor predeterminado práctico. También puedes ejecutar el comando "Manage Models" para ocultar proveedores que nunca usas, lo que mantiene el selector de modelos limpio y rápido de navegar. Si usas los mismos prompts todos los días, combínalo con Raycast AI Presets para fijar combinaciones de modelo + prompt de sistema por flujo.

Elegir el modelo de IA de Raycast adecuado para tu flujo en Mac

Con tantos modelos disponibles, la pregunta práctica se convierte en: ¿cuál deberías usar realmente? La respuesta depende de lo que estés haciendo.

Tareas de programación y desarrollo

GPT-5.1 y sus variantes Codex son los punteros para generación de código, depuración y tareas de codificación agéntica. GPT-5 y GPT-5.1 manejan bien el razonamiento complejo de varios pasos, exactamente lo que necesitas al rastrear bugs a través de múltiples archivos. Claude 3.7 Sonnet es el otro fuerte contendiente aquí; su ventana de contexto de 200.000 tokens lo hace especialmente útil al trabajar con grandes bases de código. Ambos modelos funcionan bien con las extensiones de desarrollo nativas de Raycast como GitHub e integraciones de terminal.

Trabajo multilingüe y escritura

Mistral Large destaca para tareas multilingües, con razonamiento fuerte en idiomas distintos del inglés que la mayoría de los demás modelos no igualan al mismo nivel de velocidad. Claude 3.7 Sonnet rinde consistentemente bien para escritura de formato largo y resúmenes, produciendo resultados que requieren menos edición antes de ser utilizables. Para escritura con gran carga de investigación donde necesitas información actual, Sonar Pro de Perplexity incorpora contexto web en tiempo real en la respuesta, algo que los demás modelos de esta lista no pueden hacer de forma nativa.

Respuestas rápidas y ligeras para el uso diario

Cuando estás activando la IA docenas de veces al día para comandos rápidos, recordatorios y consultas de una sola pregunta, la velocidad de inferencia importa más que la capacidad bruta. GPT-4o mini, Llama 3.1 8B alojado en Groq, Mistral Nemo y xAI Grok-3 Mini son las opciones prácticas aquí. Estos modelos priorizan la baja latencia, y la diferencia de velocidad se nota cuando te mueves entre el lanzador y tu trabajo real durante el día.

Ejecutar modelos locales y personalizados en Raycast

Para usuarios con requisitos de privacidad o créditos API existentes en otros proveedores, el soporte de modelos personalizados de Raycast es una de sus funciones más infravaloradas.

Configurar Ollama para IA privada y sin conexión

Descarga Ollama y muévelo a tu carpeta de Aplicaciones. Una vez que esté ejecutándose, puedes añadir modelos locales directamente desde Ajustes de Raycast → AI → "Add Ollama Model". Se admiten más de 100 modelos, incluida toda la familia Llama con tamaños desde pequeñas variantes de 135M parámetros hasta versiones de 671B parámetros. Esta opción funciona en el plan gratuito, no cuesta nada más allá de tu hardware y mantiene todos los datos locales, siendo la configuración adecuada para cualquiera con requisitos estrictos de privacidad de datos.

Conectar Replicate y otros proveedores externos vía YAML

La función Custom Providers de Raycast, que incluye soporte para Replicate y modelos personalizados, admite cualquier endpoint de API compatible con OpenAI mediante un archivo de configuración YAML en ~/.config/raycast/ai/providers.yaml. La estructura define un ID de proveedor, URL base, clave de API y lista de modelos. Una entrada de Replicate, por ejemplo, usaría la URL base de la API de Replicate y un ID de modelo como meta/llama-3.1-8b-instruct. Consulta la documentación oficial de modelos de Replicate para IDs de modelo y detalles de endpoint. Si prefieres no editar YAML directamente, la extensión Raycast AI Custom Providers ofrece una alternativa gráfica para gestionar proveedores sin tocar el archivo de configuración.

Cuándo ir a personalizado frente a quedarse con modelos integrados

Los modelos integrados cubren la gran mayoría de casos de uso. Los proveedores personalizados y las configuraciones locales tienen sentido en unas pocas situaciones específicas:

  • Tienes requisitos de privacidad que impiden enviar datos a APIs de terceros
  • Tienes créditos API existentes en un proveedor y quieres enrutarlos a través de Raycast
  • Necesitas un modelo específico que Raycast no incluye por defecto

Fuera de esos escenarios, la lista de modelos integrados es lo suficientemente completa como para que la configuración personalizada añada sobrecarga sin beneficio significativo.

Probar todos los modelos sin pagar de más

Para recapitular qué modelos de IA admite Raycast Pro: estás viendo GPT-5, Claude, Gemini, Mistral, Llama, DeepSeek, Perplexity Sonar, xAI Grok y una docena más, todos accesibles desde un único atajo de teclado sin gestionar una app separada para cada uno. La estructura del plan es clara: Pro base cubre a la mayoría de usuarios con acceso ilimitado a IA básica, y el complemento Advanced AI vale la pena si dependes diariamente de modelos de razonamiento de primer nivel para programación o análisis complejo. ¿No estás seguro de qué nivel te conviene? Empieza con nuestra página de descuento para la oferta actual.

La prueba gratuita de 14 días elimina completamente el riesgo financiero. Obtienes acceso completo para evaluar el flujo de trabajo antes de que salga un solo dólar de tu cuenta, tiempo suficiente para ejecutar tareas reales y ver si Claude 3.7 Sonnet o GPT-5 mejoran realmente tu producción comparado con los modelos base. Descuento de Raycast Pro 2026 luego aplica automáticamente un descuento del 80% al pagar tras la prueba, sin código de cupón requerido. Es la forma con menos fricción de empezar con todos los modelos cubiertos en este artículo, incluido el nivel avanzado, a una fracción del precio estándar.

Preguntas Frecuentes

¿Qué modelos de IA admite Raycast Pro?

Raycast Pro admite más de una docena de proveedores de IA, incluyendo GPT-5, GPT-5.1, GPT-5 Reasoning, GPT-4.1, GPT-4o de OpenAI; Claude 3.7 Sonnet de Anthropic; Google Gemini; Perplexity Sonar; xAI Grok-4.1; Mistral (Large, Medium, Small, Nemo, Codestral); Meta Llama 4 Scout; DeepSeek; Qwen3; Moonshot Kimi K2.5; y los modelos nativos Ray-1 de Raycast — todos desde un único atajo de teclado.

¿Qué es el complemento Advanced AI?

El complemento Advanced AI cuesta $8 adicionales al mes sobre Raycast Pro y desbloquea modelos de primer nivel como GPT-4, GPT-4 Turbo, Claude 3.7 Sonnet y modelos premium equivalentes de otros proveedores. Junto con Pro, sigue estando por debajo de una suscripción independiente a ChatGPT Plus, dándote todos los modelos compatibles en una sola interfaz.

¿Puedo usar mis propias claves de API?

Sí. Ajustes → AI → Custom API Keys te permite usar tus propias claves de OpenAI, Anthropic u otros proveedores compatibles. Cuando configuras una clave, Raycast enruta las solicitudes a través de tu cuenta en lugar de su propia cuota, lo cual es útil si tienes créditos existentes o quieres evitar los límites de tasa compartidos de Raycast. Aparece un icono de llave junto a los modelos desbloqueados de esta forma.

¿Funciona Raycast AI sin conexión?

Los modelos alojados integrados requieren conexión a internet, pero Raycast admite IA local y sin conexión a través de Ollama. Instala Ollama, luego añade modelos locales en Ajustes → AI → Add Ollama Model. Se admiten más de 100 modelos, incluida toda la familia Llama, y esta opción está disponible en el plan gratuito con toda la inferencia ejecutándose localmente.

Obtén un 80% de Descuento en Raycast Pro

Prueba gratuita de 14 días. Sin código de cupón. El descuento se aplica automáticamente.

Obtener descuento →

Artículos Relacionados