[开源] 写了个 Chrome 侧边栏 AI 阅读助手:支持自定义 Key 和 Ollama 本地模型

查看 7|回复 0
作者:deterrer   
最近看长文、技术文档和一些内部页面时,经常会用 AI 做总结或者继续追问。
但用了一圈 Chrome 插件后,发现几个问题:
  • 很多插件强制订阅,哪怕只是调用一下大模型也要包月
  • 有些不支持自定义 API Key ,等于多了一层中间商
  • 页面内容要先传到插件方服务器,对敏感文档不太放心
  • 对 Ollama / LM Studio 这类本地模型支持不好

    所以我写了一个 Chrome 侧边栏插件:PageMind
    它的目标比较简单:插件本身不做中转,不收集数据,你可以用自己的 Key ,也可以直接跑本地模型。
    PageMind 是什么
    PageMind 是一个运行在 Chrome 侧边栏里的 AI 网页阅读助手。
    打开网页后,点击插件图标,就可以在侧边栏里:
  • 总结当前页面
  • 基于页面内容继续多轮对话
  • 用斜杠命令生成 TLDR 、思维导图、批判性分析等内容
  • 接入 OpenAI 、MiniMax ,以及兼容 OpenAI API 格式的模型服务
  • 接入 Ollama / LM Studio 这类本地模型

    为什么做这个
    我主要想解决两个问题。
    第一个是 自定义 Key
    你可以直接填自己的 OpenAI 、MiniMax 或其他兼容 API 的 Key 。插件不提供中转服务,也没有订阅收费。模型费用直接按你自己的 API 用量计算。
    第二个是 本地模型支持
    如果你本地已经跑了 Ollama ,只需要把 API Base URL 配成:
    http://localhost:11434/v1
    然后选择本地的 Llama 、Qwen 、DeepSeek 等模型,就可以让页面内容只发到本机的模型服务里。对于公司内部文档、私密网页,或者不想把内容发到第三方服务的场景,会更安心一些。
    现在支持的功能
  • 一键总结当前页面
  • 基于网页内容多轮追问
  • 流式输出
  • 深色模式
  • Slash Commands ,输入 / 快速触发命令
  • 内置 /mindmap、/tldr、/critique
  • 支持自定义命令,比如 /translate、/code
  • 支持推理模型输出,thinking / reasoning 内容会折叠展示

    关于隐私
    PageMind 目前是纯前端 Chrome 插件,没有后端服务,也没有账号系统和 telemetry 。
    页面内容只会在你主动触发总结或提问时,发送到你自己配置的 API 地址:
  • 如果配置的是 OpenAI / MiniMax ,就发送到对应模型服务商
  • 如果配置的是 Ollama / LM Studio ,就发送到你本机的 localhost 服务

    链接
    GitHub:
    https://github.com/liangzhiyu/PageMind
    Chrome 应用商店:
    https://chromewebstore.google.com/detail/pagemind/eakpofgefidinlpoahmpimngjldddelg?hl=zh-CN&utm_source=ext_sidebar
    如果你也在用本地模型,或者不想为了网页总结插件再单独包月,可以试试看。
    Bug 和功能建议欢迎直接提 Issue ,我会继续迭代。
    欢迎 star!
  • 您需要登录后才可以回帖 登录 | 立即注册

    返回顶部