分享

362. 小工具、大作为:Page Assist 把在线大模型接到本地

 汉无为 2025-03-01
上周五的 359期,提到了一个名为 Page Assist 的浏览器插件,这可能是目前为止连接本地大模型最简单的一个办法了。
别小看这个连 10MB 都不到的浏览器插件,还有后续手段 ...
本期要说的是,Page Assist 除了可以和本地大模型建立连接,还可以把在线大模型也引入本地
有啥用?
把在线大模型接到本地,最直接的一个好处就是,在线大模型肯定比本地大模型更厉害
既然这样,干脆直接用在线大模型,不就完了吗?也可以,但是如果你有本地文档需要大模型处理,但又不想在线上传,这种情况,就需要把大模型接到本地了。
此外还有,如果想搭建本地知识库,本地算力又不够,这时,把在线大模型接入本地,就是变成了刚需。
在硅基流动上免费注册
硅基流动网站地址:https:///,用手机免费注册一个账号。
注册后,进入网站:左侧菜单 → API 密钥 → 新建密钥 → 点击复制
图片
把上面的 apk 密钥复制下来。
选择大模型
点左侧菜单最上面的“模型广场”,可以浏览硅基流动网站提供的所有大模型。
其中最火的,就是排在第一的 DeepSeek-R1(满血版),所有免费注册的用户,都可以获得 14元(相当于 2000万的 Tokens的使用额度。
图片
也有免费的大模型,比如,这些都是免费的:
图片
把上面看好的模型记下来,下面马上会用到 ...
设置 Page Assist
在浏览器上打开 Page Assist 页面,点右上角小齿轮 → OpenAi 兼容 API → 添加提供商:
图片
名称随便填,但 url 一定要如上图,并把刚才复制的密钥粘贴在下面。
点击“更新”,退出设置界面。
添加模型
如果上面的设置正确的话,点下图右侧鼠标所在的小箭头处,就会跳出来大模型的列表,一共 77个,和在硅基流动网站上看到的一致。
图片
在这个列表中,找到刚才在网站上看好的大模型,并在名称前打勾,保存后退出。
这样,你就把硅基流动里的在线大模型,接入到了本地:
图片
如上图,其中在线大模型中的第一个 “deepseek-ai/DeepSeek-R1-Distill-Llama-8B” 为免费版,后面的两个为付费版(注册时送了 14元的使用额度)。
查看额度
本地调用满血版 “DeepSeek-R1”时,会有几秒钟的延迟,目前为止,我只问了几个简单问题,还没能发挥出它真正的威力。
不过,它一旦开始回答问题,后台就会有费用产生。
可以回到硅基流动的后台,查看剩余额度:
图片
Page Assist 插件升级
上次提到这款插件升级快,上周五还是 1.4.5 版本,昨天就直接跳到了 1.5.0。
这款插件应该是可以通过插件市场正常安装、升级,不过如果你有需要的话,可以私信 plugin,后台会回复给你一个百度盘的下载链接,你可以在 “Page Assist” 文件夹里,找到下面这三个插件的安装包:
图片

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多