Raycast-G4F (GPT4Free)
在 Raycast 上免费使用强大的 GPT-4、Llama-3 等 AI 模型 - 无需 API 键。
主页 · 隐私政策
截图
<img src=https://github.com/user-attachments/assets/1085b901-c72f-4bd9-9a37-473057e95393 width=400 alt="1"> <img src=https://github.com/user-attachments/assets/fb74f124-f1ac-4957-928e-363394ac0c3b width=400 alt="2"> <img src=https://github.com/user-attachments/assets/cf425e1a-8eaa-49d1-af31-e5fe8c6702db width=400 alt="3"> <img src=https://github.com/user-attachments/assets/7ab0da34-8f4d-4414-9548-901336e85588 width=400 alt="4">
入门
“如果你喜欢这个扩展,请考虑给它一个 ✨星星✨,非常感谢!” - 可能是开发者
安装
此扩展目前尚未在 Raycast Extension 商店中提供,但 从源代码安装非常简单。
- 从 GitHub 克隆仓库 / 下载源代码。
- 导航到目录,并在下载的文件夹中打开终端窗口。
- 运行
npm ci
以安装所需的依赖项。 - 运行
npm run dev
以构建并导入扩展。
然后,扩展及其所有命令应出现在您的 Raycast 应用程序中。
故障排除
如果在安装过程中出现任何意外问题,请打开一个问题。
更新
自动
扩展本身内置了更新支持!只需运行扩展中的“检查更新”命令, 它会为你处理更新过程。此外,你还可以在首选项中启用“自动检查更新”功能。
手动
在命令行中,依次运行 git pull
,npm ci
和 npm run build
。
如果自动更新不起作用,你可能需要手动更新(如果发生这种情况,请同时打开一个 GitHub 问题); 手动更新还允许你获取和查看源代码的最新更改。
总结
- ▶️️ 流媒体支持 - 实时查看消息加载,提供无缝体验。
- ⚡ 随时随地提问 - 提供 18 个命令,无论你需要什么,都有适合你的。
- 💪 支持许多提供商和模型(详细信息如下!)
- 💬 聊天命令 - 与 AI 进行对话,聊天记录将保存在扩展中。
- 🌐 网络搜索 - 让 GPT 搜索网络以获取最新信息。
- 📄 文件上传 - 你可以上传图像、视频、音频和文本文件到 AI。(仅适用于少数提供商, 更多功能即将推出!)
- 🎨 图像生成能力 - 想象任何东西,并使用最先进的模型将其变为现实。
- ✏️ 自定义 AI 命令 - 使用自定义提示创建自己的命令!
提供商与模型
提供者 | 模型 | 特点 | 状态 | 速度 | 扩展作者的评级及备注 |
---|---|---|---|---|---|
GPT | gpt-3.5-turbo(默认) | ▶️ | 快速 | 7.5/10,最可靠且表现不错的模型,但有一些更强的模型。 | |
GPT | gpt-4 | 中等 | 6.5/10,不支持流式传输,但仍是一个很好的模型。 | ||
DeepInfra | meta-llama-3.1-405b | ▶️ | 中等 | 8.5/10,最新最先进的开放模型,适合复杂任务。 | |
DeepInfra | meta-llama-3.1-70b | ▶️ | 快速 | 8/10,最近的模型,具有大上下文大小。 | |
DeepInfra | meta-llama-3.1-8b | ▶️ | 非常快速 | 7.5/10,最近的模型,具有大上下文大小。 | |
DeepInfra | Mixtral-8x22B | ▶️ | 快速 | 7.5/10,适用于一般使用的可靠模型。 | |
DeepInfra | Mixtral-8x7B | ▶️ | 非常快速 | 7.5/10 | |
DeepInfra | Qwen2-72B | ▶️ | 中等 | 7/10 | |
DeepInfra | Mistral-7B | ▶️ | 非常快速 | 6.5/10 | |
DeepInfra | openchat-3.6-8b | ▶️ | 非常快速 | 7/10 | |
DeepInfra | meta-llama-3-70b | ▶️ | 中等 | 7/10 | |
DeepInfra | meta-llama-3-8b | ▶️ | 非常快速 | 6/10 | |
DeepInfra | gemma-2-27b | ▶️ | 非常快速 | 6.5/10 | |
DeepInfra | WizardLM-2-8x22B | ▶️ | 中等 | 7/10 | |
DeepInfra | llava-1.5-7b | ▶️ 📄¹ | 快速 | 6/10,支持图像输入。 | |
Blackbox | 自定义模型 | ▶️ | 非常快速 | 6.5/10,生成非常快,带有内置的网页搜索能力,但优化用于编码。 | |
DuckDuckGo | gpt-4o-mini | ▶️ | 非常快速 | 8.5/10,真实的GPT-4o-mini模型,具有很强的隐私保护。 | |
DuckDuckGo | claude-3-haiku | ▶️ | 极快 | 7/10 | |
DuckDuckGo | meta-llama-3-70b | ▶️ | 非常快速 | 7.5/10 | |
DuckDuckGo | mixtral-8x7b | ▶️ | 极快 | 7.5/10 | |
Meta AI | meta-llama-3.1 | ▶️ | 中等 | 7/10,最近的模型,具有互联网访问功能。 | |
SambaNova | llama3-405b | ▶️ | 非常快速 | 8.5/10,最近的型号,速度非常快,但只有4K上下文窗口。 | |
SambaNova | llama3-70b | ▶️ | 极快 | 8.5/10 | |
SambaNova | llama3-8b | ▶️ | 极快 | 8.5/10 | |
Replicate | mixtral-8x7b | ▶️ | 中等 | ?/10 | |
Replicate | meta-llama-3.1-405b | ▶️ | 中等 | ?/10 | |
Replicate | meta-llama-3-70b | ▶️ | 中等 | ?/10 | |
Replicate | meta-llama-3-8b | ▶️ | 快速 | ?/10 | |
Google Gemini | 自动(gemini-1.5-pro或gemini-1.5-flash) | ▶️ 📄 | 非常快速 | 8/10,非常好的整体模型,但需要API Key。(是免费的,见下面部分) | |
GPT4Free Local API | - | ▶️ | - | 允许访问多种提供商。了解更多 | |
Ollama Local API | - | ▶️ | - | 允许本地推理。了解更多 |
▶️ - 支持流式传输。
📄 - 支持文件上传。
¹: 仅支持图像。
提供商特定的说明
- Google Gemini: 需要API Key才能使用此模型。您可以完全免费获取一个:
- 访问 https://aistudio.google.com/app/apikey
- 如果尚未登录,请登录您的Google账号。
- 点击"创建API Key"并按照那里的说明操作。
- 复制API Key并将其粘贴到扩展首选项中的相应框中。
截至写作时,Google Gemini的速率限制是每天1500个请求。对于任何正常使用来说,这应该绰绰有余。 如果您的使用案例需要提高的速率限制,您甚至可以使用不同的Google账户创建多个API Key;在首选项中用逗号将它们分隔开。
- Google Gemini:该提供商支持文件上传功能,以及询问屏幕内容命令! 要在AI聊天中上传文件,请按Command-Enter或在操作中选择"撰写消息"。然后,只需点击上传按钮即可开始。
特点
网络搜索
如果GPT没有足够的知识或背景,让它决定是否搜索网络信息。
- 如何启用:转到扩展首选项并勾选"启用网络搜索"框。
- 设置:需要API Key才能使用此功能。您可以完全免费获取一个:
- 访问 https://app.tavily.com
- 使用Google/GitHub账户登录。
- 复制API Key并将其粘贴到扩展首选项中的相应框中。
截至写作时,网络搜索功能的速率限制约为每月500个请求。 这对于大多数用户应该足够,但同样,您也可以使用不同的账户创建多个API Key;在首选项中用逗号将它们分隔开。
智能聊天命名
在您发送第一条消息后,让GPT自动为当前聊天会话取一个名字。例如,这类似于ChatGPT网页UI的做法。
自动检查更新
让扩展每天自动检查更新。如果有新版本可用,您将收到通知,并可选择单击一下来更新扩展。
持久化存储
启用扩展数据的更持久存储,例如 AI 聊天数据或自定义命令。 这会将该数据的副本备份到您计算机上的文件。适用于保存大量数据。 注意:关闭此选项时,您的数据已经保存得很好。如果您有敏感数据,请不要启用此功能。
代码解释器(BETA)
允许 GPT 在本地执行 Python 代码。模型被指示仅生成安全代码,但请自担风险使用!
只有具有函数调用功能的模型支持此功能。目前,这仅包括选定的 DeepInfra 模型。
常见问题
为什么这个扩展不在官方的 Raycast 商店中?
- 我提交了它,当时扩展处于早期阶段,但由于 Raycast 对添加 AI 扩展相当保守,它因使用第三方 API 的担忧而被拒绝。我认为这是一个有效的顾虑,我想非常透明地说明您的数据将去往哪里,所以我会很快在项目主页上写下所有细节。但请放心,我会使用合法网站的安全 API;我还会非常频繁地更新扩展,以确保我使用的所有提供者都是最新的。
- 因此,扩展必须从源代码安装。对此,我深表歉意,因为这确实比从商店下载稍微复杂一些。我已尽力使安装过程快速且简化——请提供反馈,看看是否足够简单!
这个扩展与付费的 Raycast AI 相比如何?
- 首先,raycast-g4f 是完全免费的!我坚信这样的 AI 功能,尤其是在像 Raycast 这样出色的生产工具中,不应该隐藏在付费墙之后。
- 在用户界面方面,最大的区别可能是聊天 GUI。由于 Raycast 提供的开发者 API 有限,无法完全复制 Raycast AI 界面。然而,我扩展中使用的 GUI 非常直观,并且也被很多 Raycast 上的 AI 扩展使用。
- 关于可用的模型和 AI 质量:Raycast AI 绝对有更多的模型选择——毕竟,钱能解决问题 ;) 但请放心,我扩展中的 AI 响应质量绝不会逊色!一些可用模型包括 gpt-3.5-turbo、gpt-4(正品!)、Google Gemini 以及像 Llama 3.1 和 Mixtral-8x22B 这样的大型且有能力的开源模型。如果您仍有疑虑,我鼓励您试用该扩展!:-)
Star 历史
许可证与致谢
许可证:GPLv3。完整许可证见 LICENSE.txt。
代码库源自 Evan Zhou 的 Raycast Gemini。
用于生成的第三方库:
(这两个包都由扩展作者维护。)
此存储库中的一些代码受到了最初的 gpt4free 项目(用 Python 编写)的启发或移植。