
走进与逃离Arc:我的浏览器选择之路
作者回顾了自己从使用IE到Chrome、Edge,再到Arc浏览器的经历,强调Arc的创新设计和功能,但因性能问题决定寻找替代品,最终选择了Vivaldi浏览器,并通过配置还原Arc的部分体验。
这篇博客总结了作者在AI工具使用上的经验,特别是如何通过Raycast AI提升工作效率。作者认为AI工具本质上是大脑的延伸,传统工具如Notion等主要解放了双手,而AI工具则进一步减轻了大脑负担。Raycast AI成为作者的主力平台,因其结合本地工具和多模态功能,提供了更强的智能和功能性,超越了之前使用的POE平台。
个人感觉我在大模型应用上还是积累了很多看法,也是零零碎碎地写了很多文字记录在我的Notion里,在这里我一次性将这些经验总结成一篇文章,抛砖引玉,分享一下我在开发工作中使用大模型提效的方案。
(还有一点是AI的进展越来越快了,再不发感觉都没有时效性了,就永远发不出来了)
开发工作本质上也是知识型工作,工作流可以抽象为「知识收集 -> 处理 -> 产出为不同形式」。
在这个层次上,AI和传统工具并没有本质上的区别,都是作为我们大脑的延伸帮助我们提效,只是从单纯的外部数据存储变成了可以帮助我们进行一些需要「智能」的任务。
现在的AI工具具备了一定的智能,甚至工具调用能力,可以自主地完成更多任务,可以将原本需要人脑负责的部分任务交给他,真正做到了减轻人脑负担,利用人脑的特点和大模型的特点互补,进一步解放人类的生产力
不同的工具在不同的流程中发挥着不同的作用,因此我们可以根据场景来对AI工具的应用进行划分,可以更好地认识到不同AI工具在实际生产过程中的具体价值和使用方法。
这里我就按照流程和场景对我下面提到的AI工具进行简单梳理:
AI产品类别 | 知识输入 | 知识处理 | 知识输出 |
传统聊天Bot(如ChatGPT、豆包、POE等) | ✅ 信息查询 | ✅ 总结、摘要、重写 | ❌ |
AI联网搜索引擎(如Perplexity) | ✅ 信息查询和调研报告 | ❌ | ✅ 直接生成调研报告 |
AI开发Agent(如Cursor) | ✅ 解读现有代码库 | ❌ | ✅ 协助完成开发任务 |
付费产品都会标注💰并提供免费替代方案
免费平替方案:
✅ AI服务:豆包 & Deepseek & Ollama
✅ Raycast:免费版(提供启动器和插件功能)+Ollama/ChatGPT插件(绑定Ollama或API)
无法覆盖的功能:
❌ 和系统级的上下文直接交互,如Notion、终端等
❌ 基座模型能力,如Claude的MCP等
Raycast现在是我的主力模型平台,它承载了日常交流中80%以上的对话和咨询,包括模型对话、联网查找等。
大模型的基础还是进行语言聊天,但是随着技术的不断迭代,多模态、function call等技术突破让大模型不再局限于文字上下文,而是识别图片、自主调用工具,从Chat(被动地接受文本后输出)变为Agent(主动获取信息并和外界交互)。
在这之前,我的主力模型平台是POE,它的优点是用和GPT/Claude一样的价格($20),可以一站式地体验到所有的模型,包括主流语言模型、推理模型、图像生成模型、音视频生成模型等。
但是,它有一个比较明显的缺点——用户体验上没有进步,现在大部分的主流在线大模型交互平台都在交互上有各种各样的花式创新,而POE感觉在Agent能力上没有任何进步的趋势。
Poe | ChatGPT | Claude | |
推理模型 | ✅ 所有模型 | ✅ o1&o3 | ✅ 3.7 Reasoning |
实时预览 | ✅ | ✅ Code Interpretor & canvas | ✅ Artifact |
主动执行操作 | ❌ | ✅ Computer Use | ✅ Operator |
调用工具 | ❌ | ✅ function call | ✅ MCP |
绘图模型 | ✅ 需要切换第三方模型 | ✅ 集成DALL-E可以直接画图 | ❌ 通过MCP间接调用 |
视频生成 | ✅ 需要切换第三方模型 | ✅ Sora | ❌ 通过MCP间接调用 |
正值此时,Raycast带来了一个重磅更新:将整个电脑的能力都暴露给大模型,让Raycast成为了一个大Agent。
https://www.raycast.com/changelog
这一升级,让Raycast AI直接从一个无足轻重的订阅服务提供商变成了非常有竞争力的AI生产力平台,对比POE,在价格和功能性上基本完胜。
POE | Raycast | |
价格 | $20/月(年费$18) | $10/月(年费$8) |
聚合语言模型 | ✅ 所有模型 | 🤔 主流模型,包括GPT所有模型、Claude所有模型和所有开源LLM模型 |
多媒体模型 | ✅ 所有模型 | ⚠️ 仅支持DALL.E、StableDiffusion和Flux |
代码执行与预览 | ✅ 支持HTML、JSX和Python | ❌ 不支持 |
快捷入口 | ❌ 浏览器/套壳Web应用,不支持URL快速访问 | ✅ 启动器直接访问 |
编辑系统Prompt | ✅ 支持创建智能体 | ✅ 支持创建Preset、Command,快速处理相关场景和指定任务 |
上下文获取 | ❌ 用户自行获取并提供给聊天 | ✅ 支持获取第三方数据源,包括网络搜索、电脑中的第三方应用 |
工具调用 | ❌ 不支持配置工具 | ✅ 支持调用电脑上的工具,但是尚不支持自己配置MCP工具 |
上面标绿的部分,就是我从POE转向Raycast的核心理由,有一个能覆盖之前我所有需求、更便宜且还功能性更强的选择,我没有任何理由留恋之前的平台了。
作为启动器,提供先前POE无法提供的上下文信息并调用我本机的工具,如直接从剪贴板或本地应用(Notion, 备忘录等)获取信息,或者执行Shell命令、操作Finder等,甚至可以替代我一部分其他AI工具
使用@web
指令,显式调用搜索工具进行网络搜索
使用支持Web Search的模型(如Claude)作为快捷模型,Tab快速询问也能支持搜索
Raycast Store中的Ollama和ChatGPT插件,更方便地调用API进行聊天,通过一些配置也可以还原大部分的Raycast AI功能,且完全不用额外付费。
Raycast中可以直接管理Ollama模型和聊天记录,不用单独起一个Open WebUI的网页服务。
在Chat功能中,Raycast可以方便地添加各种上下文,比如标签页啥的:
同时,Raycast还支持针对不同场景配置不同的模型,这对不支持多模态的推理模型非常实用,比如我的日用搭配就是Qwen2.5-VL+DSR1-7b,跑在36G+M3Pro上还是比较流畅的。
除了本地运行模型外,还可以利用ChatGPT插件接入云端第三方API端点,比如我这里就接的是火山引擎的端点,模型搭配为DeepseekR1满血版+Doubao1.5Pro(视觉模型)。
同样的,这里也支持如多模态输入、自定义视觉模型、保存回话历史、创建自定义AI指令、获取本地上下文等功能,就不再详细展示。
Perplexity是最早做AI搜索引擎的一批公司,现在这个领域的技术壁垒已经打破,可以根据开源方案自己构建AI Web搜索引擎(如Perplexica),也有很多竞争者(比如许多模型内置的联网搜索功能),但Perplexity靠自己证明了它们的成功更多的是产品层面的把控,在精准搜索和研究的体验目前个人体感还是无出其右(而且咸鱼200就能拿下年费Pro)。
在查找某个陌生API用法或者对某个新领域进行调研时,Perplexity的专业搜索是非常好的帮手。
AI搜索的出现,可以说完全颠覆了我的信息获取流程。面对一个全新的领域或名词,在AI搜索出现前后,我的工作流程如下:
AI搜索出现前
react swiper npm
alternatives for react-carrousel
,或在npm中搜索关键字 react,carrousel
AI搜索出现后
基于Pro Search的问题理解和拆分能力
基于之前的方案进行追问:
整套流程可以缩减到20分钟以内,即可快速了解一个领域
下面是我近期使用Perplexity的查找记录,基本都是传统搜索难以覆盖或者工作量很大的领域,PPL为了节省了大量的时间,而其他的搜索工具都太简陋了,PPL这种专门的AI搜索工具像是有一个人在帮我查资料做总结,而其他工具则像是提供了一个「顺手查查资料」的途径。(移动端豆包做的还是很不错,但是专业搜索感觉还是差点意思)
需要指明的是,大部分情况,甚至做新领域调研这种相对需要思考能力的场景,普通(免费版)搜索已经完全够用了,Pro的优点在于会先构建思维链再去搜索和总结,会查询更多资料,获得更翔实的回复。
对于Pro订阅用户,Perplexity自然也端上了自己最核心的工具——Pro搜索,和最近新增的Deep Research。
相比于普通搜索,Pro Search的主要区别是多了一个前置思考的功能,可能会消耗更长的时间,但可以得到更充实和准确的答案。
大部分情况下切换到Pro搜索都是无害的升级,但大部分场景其实又不太需要Pro搜索。普通用户每天有5次使用Pro搜索的机会,而Pro订阅用户则有300次。
OpenAI此前基于o3推理模型推出了深度研究(Research Mode),但该功能仅针对200刀的ChatGPT Pro,根据其官方博客介绍,Deep Researc相较于传统搜索有以下区别:
传统AI搜索像是「找一个人帮你组织keyword,查找资料后进行整合」,而Deep Research则是「找一个会查资料、跑代码、画图的专家帮你完成一份调研报告」,在专业性上更上了一个档次。
但是,随着Deepseek R1的出现,推理模型开始飞入寻常百姓家,于是Perplexity推出了自己的Deep Research,还非常慷慨地给免费用户提供了每天5次的调用。
那么,Perplexity的Deep Research和OpenAI的有什么区别呢?这里说说我的看法。
这里简单对比了一下同一个问题下不同模式的对比,可以看到越高级的模式资料来源越多,推理时间越长,最后的产物也更丰富。
从我个人的使用经验来看,高级功能的使用建议如下:
Windsurf是我日常使用的AI IDE,增强补全、仓库上下文对话、本地规则、自动开发、MCP插件等功能一应俱全,做到了AI IDE的一线水准。
后续会更新一期专门讲如何使用Project Rules+MCP集成,让Agent直接帮忙开发本地已有的项目。
个人推荐:
Cursor | Windsurf | CLine/Roo Code | Trae | Continue DEV | Marscode | |
价格 | $20/M | $15/M | Free | Free | Free | Free |
超级补全 | ✅ | ✅ | ❌ | ✅ | ❌ | ✅ |
内联AI(终端等) | ✅ | ✅ | ❌ | ✅ | ✅ | ✅ |
仓库上下文感知 | ✅ | ✅ | ❌ | ✅ | ✅ | ✅ |
全自动Agent | ✅ | ✅ | ✅ | ✅ | ❌ | ❌ |
自定义规则 | ✅ | ✅ | ✅ | ❌ | ✅ | ❌ |
全局记忆 | ❌ | ✅ | ❌ | ❌ | ❌ | ❌ |
MCP集成 | ✅ | ✅ | ✅ | ❌ | ✅ | ❌ |
非代码上下文(如自定义文档、Git等) | ✅ | ⚠️ 仅支持预设文档 | ❌ | ❌ | ✅ | ❌ |
Git Commit MSG | ✅ | ❌ | ❌ | ✅ | ❌ | ✅ |
比起普通的补全,Cursor或Windsurf的预测会更激进,包括多行预测、Tab预测等,这里直接使用官方图演示,实际的使用概率是非常高的。
在老fe框架中遇到了一个问题,在不想了解已弃用的技术栈同时,又想深入到源码找到具体原因,AI IDE的仓库对话起到了重要的作用,让我原本需要花上可能一整天去了解的代码,在30分钟内快速定位并得到根本原因。
个人是经常记不住一些不常用的git操作的,这个时候我一般久唤起行内AI操作帮我写命令,省去了查询跳转的步骤。
豆包浏览器插件是真神级生产力工具,一己之力干趴了多个浏览器工具,而且还完全免费。
可以直接总结和询问当前页面,基于HTML而非视觉,支持跨页面、PDF页面等
支持调用豆包进行翻译,替代了我的沉浸式翻译
基于字幕快速帮你看完整个视频并生成总结,可以快速跳转到感兴趣的部分,并在聊天中询问视频内容,目前已不支持bilibili,但可以使用内置的「视频小助手」替代
如AI搜索、划词翻译、图片工具栏等,个人不是很常用
对所有输入框添加AI辅助撰写功能,提供润色、起草等功能,个人不是很常用
作者: ChlorineC
创建于: 2025-03-17 16:12:00
更新于: 2025-03-17 16:30:00
版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
作者回顾了自己从使用IE到Chrome、Edge,再到Arc浏览器的经历,强调Arc的创新设计和功能,但因性能问题决定寻找替代品,最终选择了Vivaldi浏览器,并通过配置还原Arc的部分体验。
本文介绍了个人密码管理方案,选择了开源的KeePass作为主要工具,强调了其便捷的多端同步、自动填充和安全性。作者分享了KeePass的配置过程、插件使用、自动填充优化以及移动端的配置,最后讨论了双因素认证和TOTP的管理方法,提供了实用的参考资料和使用体验的改进建议。
作者分享了个人博客框架迭代历程:从Hexo迁移到Astro的尝试,到发现Elog平台带来的启发,最终思考将Notion作为内容管理系统的新方案。文章重点描述了作者对博客系统的核心需求——解决创作同步问题,以及在探索NotionNext等解决方案过程中遇到的技术限制和思考。
使用VS Code的独立配置功能,可以为不同项目创建特定的配置文件,解决了在公司环境中因安全合规要求而无法使用第三方插件的问题。通过配置云同步和工作区单独配置,满足日常开发需求。推荐使用Codeium作为开源解决方案。