Raycast Pro AI 模型:完整清单、套餐与应用场景
发布于 2026 年 4 月 22 日 • 阅读约 9 分钟
如果您想知道 Raycast Pro 支持哪些 AI 模型,短答案是:非常多。Raycast 不是只给您一个 AI 助手,而是在一个 Mac 启动器里提供十余家 AI 提供商的访问,全部通过同一个键盘快捷键触发。本指南涵盖实际可用的模型有哪些、每个层级解锁的费用,以及对您具体工作流而言,哪款模型值得在某一天使用。
2026 年模型列表大幅扩充。Raycast 现在托管了从 OpenAI GPT-5 家族到 Anthropic Claude、Google Gemini、Mistral、DeepSeek、Perplexity Sonar、xAI Grok、Meta Llama,以及 Raycast 自有的 Ray-1 模型等几乎所有模型。这么多信息一次消化会很吃力,所以下面按模型逐一分解套餐要求、配置步骤和应用场景建议。
如果您还在评估是否订阅,通过 Raycast Pro 2026 优惠 的当前折扣值得在全价下单前确认,详情在文末。
Raycast Pro 支持哪些 AI 模型:按提供商的完整清单
Raycast AI 集成的广度是其最大卖点之一。您无需被锁在单一提供商,可以使用一个覆盖所有主流 LLM 家族的多模型选择器。产品 AI 能力的简明概览请见 Raycast AI 功能页。
Raycast 中的 OpenAI GPT 家族
OpenAI 在 Raycast 中的集成最深。完整阵容包括 GPT-5、GPT-5.1、GPT-5 Reasoning、GPT-5 mini、GPT-5 nano、GPT-4.1、GPT-4.1 mini、GPT-4o、GPT-4 Turbo 和 GPT-4。这个范围让您在同一界面里兼具前沿推理模型和更轻快的变体——快速查一下不必切到重型模型。我们的 Raycast 和 ChatGPT 详解 对 OpenAI 相关工作流深入讨论。
Anthropic Claude、Google Gemini、Perplexity 和 xAI
Anthropic 的 Claude 3.7 Sonnet 是 Raycast 中旗舰级 Claude 选项。实战中,它在长时间编码会话和结构化写作任务上优于其他模型,很大程度上得益于其 200,000 token 的上下文窗口。如果 Claude 是您的主力,我们的 Raycast + Claude 指南 详细讲解集成。Google Gemini 也在支持行列。Perplexity 的三款 Sonar 模型——Sonar、Sonar Pro、Sonar Reasoning Pro——的突出之处在于将实时网络上下文引入响应,让它们在研究场景中真正有用。xAI 的 Grok-4.1 Fast 和 Grok-4.1 Fast Reasoning 作为较新的加入项,以强劲的推理速度补齐此组。
Mistral、Meta Llama、DeepSeek 和 Raycast 自有模型
完整列表还在延伸。Mistral 家族覆盖 Mistral Large、Mistral Medium、Mistral Small 3、Mistral Nemo 和 Codestral。Meta 的 Llama 4 Scout 和 Llama 3.3 70B 通过 Groq 提供。DeepSeek-V3 和 DeepSeek-R1 通过 Together AI 接入。Qwen3 变体与 Moonshot AI 的 Kimi K2.5 补齐第三方选项。
单独提一下:Raycast 自家的 Ray-1 和 Ray-1 mini 模型是平台原生,意味着它们是为启动器工作流模式优化的,而不是一个通用的托管 API。如果您来这里找某个具体模型名,它几乎一定就在这份清单里,或者可以通过后文涉及的自定义提供商接入。
Raycast Pro 哪个套餐解锁哪些 AI 模型
一旦把三个层级清楚摆出来,套餐结构就很直白。大部分困惑来自没搞清楚哪些模型在高级 AI 附加包背后、哪些已含在基础 Pro 里。完整计费分解请见我们的 Raycast Pro 定价指南,将每个层级并排呈现。
免费版给您什么(以及它的限制)
免费版包含覆盖基本模型的 50 条 AI 试用消息。这足够测试界面、感受 AI 如何融入 Raycast 的启动器工作流,但撑不起日常使用。没有高级模型、没有无限访问、没有云同步。将它视作预览,而非工作配置。
Raycast Pro 每月 8 美元覆盖什么
Pro 套餐年付 8 美元/每用户每月,月付 10 美元。它解锁 Raycast 基础 AI 模型的无限消息、云同步、无限剪贴板历史,以及完整效率功能集(含自定义主题和笔记)。存在速率限制——每分钟 50 次请求,每小时 300 次——但正常使用中很少触发。套餐还包含 14 天免费试用,在您完全承诺前消除注册风险。官方套餐详情见 Raycast Pro 页面。
何时高级 AI 附加包才有意义
顶级模型位于高级 AI 附加包后面,在 Pro 基础上每月额外 8 美元。该层解锁 GPT-4、GPT-4 Turbo、Claude 3.7 Sonnet,以及其他提供商的同等高级模型。把成本放进上下文:通过 Raycast 高级 AI 附加包访问 GPT-4,仍比单独订阅每月 20 美元的 ChatGPT Plus 便宜,而且同时获得清单中其他所有模型。
如果您想在全价付费前测试两个层级,通过 Raycast Pro 2026 优惠 的促销价会在结账时自动应用 8 折,无需优惠码,涵盖基础 Pro 套餐和通往高级 AI 附加包的路径。
如何切换模型与配置您的 AI 环境
Raycast 的 AI 配置集中在一个地方,只要知道在哪里就很好管理。
为 Quick AI 和 AI Chat 设定默认模型
打开 Raycast 设置(Cmd+,)并进入 AI 标签。从这里可以分别为 Quick AI 命令和 AI Chat 对话设置默认模型——两者可以不同,这在您想用一个快速轻量模型做快速查找、同时用一个更强模型做长对话时很有用。对话中途也可切换:使用聊天窗口顶部的模型下拉,按 Shift+Cmd+, 为当前对话保存该偏好。分步截图与更多设置请参阅 Raycast AI 文档。我们的 Raycast AI 命令指南 讲解如何把模型选择打包成可复用的快捷方式。
添加自己的 API 密钥以获得更多控制
设置 → AI 下的"自定义 API 密钥"让您导入 OpenAI、Anthropic 或其他支持的提供商的密钥。添加密钥后,Raycast 使用您的密钥而不是自身配额,这在您拥有现有 API 额度或希望跳出 Raycast 速率限制时很有用。通过此方式解锁的模型旁会出现一个密钥图标,所以您始终知道哪些请求走您的账户、哪些走 Raycast 共享配额。
使用 Auto Model 让 Raycast 自动选择
目前处于实验阶段的 Auto Model 功能会根据任务类型自动选择最合适的模型。对于不想花心思选模型的用户,这是一个实用的默认项。您还可以运行"管理模型"命令,隐藏从不使用的提供商,保持模型选择器清爽和快速导航。如果您每天使用相同提示词,可搭配 Raycast AI 预设 为每个工作流锁定"模型 + 系统提示"组合。
为您的 Mac 工作流挑选合适的 Raycast AI 模型
面对这么多模型,实用问题是:到底该用哪个?答案取决于您在做什么。
编码与开发者任务
GPT-5.1 及其 Codex 变体是代码生成、调试和代理式编码任务的领跑者。GPT-5 和 GPT-5.1 处理复杂多步推理很擅长,这正是跨文件追查 bug 时所需。Claude 3.7 Sonnet 是另一个强劲选手;其 200,000 token 上下文窗口在处理大型代码库时尤其有用。两者都与 Raycast 原生开发者扩展(如 GitHub 和终端集成)配合良好。
多语言工作与写作
Mistral Large 在多语言任务上是标杆,其他同速度层的模型难以匹敌其跨非英语语言的推理能力。Claude 3.7 Sonnet 在长篇写作和摘要上表现稳定,输出可用前所需编辑较少。需要实时信息的研究型写作,Perplexity 的 Sonar Pro 会将实时网络上下文拉入响应——这是清单中其他模型原生做不到的。
日常使用的快速、轻量响应
当您一天里要触发 AI 数十次进行快速命令、提醒和单题查询时,推理速度比原始能力更重要。GPT-4o mini、Groq 托管的 Llama 3.1 8B、Mistral Nemo 和 xAI Grok-3 Mini 是此处的实用选择。这些模型优先低延迟,当您在启动器和实际工作之间全天往返时,速度差异十分明显。
在 Raycast 中运行本地与自定义模型
对于有隐私要求或在其他提供商有现成 API 额度的用户,Raycast 的自定义模型支持是其最被低估的功能之一。
设置 Ollama 实现私有、离线 AI
下载 Ollama 并移动到应用程序文件夹。运行后,您可以直接从 Raycast 设置 → AI → "添加 Ollama 模型"添加本地模型。支持超过 100 个模型,包括完整的 Llama 家族,从小到 135M 参数到大到 671B 参数的变体。该选项在免费版上也可用,除硬件外不产生任何费用,且所有数据保留在本地——对于有严格数据隐私要求的用户是最合适的配置。
通过 YAML 连接 Replicate 及其他外部提供商
Raycast 的自定义提供商功能(含 Replicate 和 Raycast 中的自定义模型支持)支持通过 ~/.config/raycast/ai/providers.yaml 配置文件接入任何兼容 OpenAI 的 API 端点。结构定义提供商 ID、基础 URL、API 密钥和模型列表。例如一个 Replicate 条目会使用 Replicate 的 API 基础 URL 和如 meta/llama-3.1-8b-instruct 的模型 ID。模型 ID 和端点详情请参阅 Replicate 官方模型文档。如果您不想直接编辑 YAML,Raycast AI 自定义提供商扩展 提供基于 GUI 的替代方案,无需修改配置文件即可管理提供商。
何时走自定义、何时坚持内置模型
内置模型覆盖绝大多数用例。自定义提供商和本地设置在几种特定情形下才有意义:
- 您有隐私要求,不能把数据发到第三方 API
- 您在某提供商有现成 API 额度,希望通过 Raycast 使用
- 您需要 Raycast 默认不包含的特定模型
在这些场景之外,内置模型列表已足够全面,自定义设置只会徒增开销而无实质收益。
不付冤枉钱测试每个模型
回顾 Raycast Pro 支持的 AI 模型:GPT-5、Claude、Gemini、Mistral、Llama、DeepSeek、Perplexity Sonar、xAI Grok,以及十多种其他模型,都可以通过一个键盘快捷键访问,无需为每个模型管理单独的应用。套餐结构清晰:基础 Pro 覆盖大多数用户,提供无限基础 AI 访问;如果您每天依赖顶级推理模型进行编码或复杂分析,高级 AI 附加包就值得。不确定哪个层级适合?请先从 我们的折扣主页 开始了解当前优惠。
14 天免费试用彻底消除财务风险。您在花一分钱之前就能完整评估工作流——足够运行真实任务并验证 Claude 3.7 Sonnet 或 GPT-5 相较基础模型是否真的提升了您的产出。Raycast Pro 2026 优惠 然后会在试用结束后于结账自动应用 8 折,无需优惠码。这是使用本文所有模型(含高级层)成本最低的方式,价格仅为标准定价的一小部分。
常见问题解答
Raycast Pro 支持哪些 AI 模型?
Raycast Pro 支持十余家 AI 提供商,包括 OpenAI 的 GPT-5、GPT-5.1、GPT-5 Reasoning、GPT-4.1、GPT-4o,Anthropic Claude 3.7 Sonnet,Google Gemini,Perplexity Sonar,xAI Grok-4.1,Mistral(Large、Medium、Small、Nemo、Codestral),Meta Llama 4 Scout,DeepSeek,Qwen3,Moonshot Kimi K2.5,以及 Raycast 原生的 Ray-1 模型——全部通过同一个键盘快捷键访问。
高级 AI 附加包是什么?
高级 AI 附加包在 Raycast Pro 基础上每月额外 8 美元,解锁 GPT-4、GPT-4 Turbo、Claude 3.7 Sonnet 等顶级模型,以及其他提供商的同等高级模型。与 Pro 合起来仍低于 20 美元的独立 ChatGPT Plus 订阅,同时还在一个界面里获得所有支持的模型。
可以使用自己的 API 密钥吗?
可以。设置 → AI → 自定义 API 密钥让您导入 OpenAI、Anthropic 或其他支持的提供商的密钥。配置密钥后,Raycast 会通过您的账户转发请求,而不占用其自身配额,这在您拥有现有额度或希望绕开 Raycast 共享速率限制时很有用。通过此方式解锁的模型会显示一个密钥图标。
Raycast AI 可以离线使用吗?
内置托管模型需要联网,但 Raycast 通过 Ollama 支持本地离线 AI。安装 Ollama 后,前往 设置 → AI → 添加 Ollama 模型。支持超过 100 个模型,包括完整的 Llama 家族;该选项在免费版上也可用,所有推理都在本地完成。