一、LLM-Price这是一个非常小巧的工具,同时也是一个非常实用的工具,LLM-Price 是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,作为用户,可以很方便地在这个网站对大模型API进行”比价“ 据作者描述,整个网站完全由 Claude Sonnet 进行设计、开发,并持续更新的,他先是通过定时脚本,自动获取各大供应商的 Pricing 页面,然后由 Claude Sonnet 提取数据后更新,后续只需要不断添加 Pricing 页面的地址即可,是一个完全由 LLM 驱动的 LLM 价格汇总网站 由于这个是作者的个人需求所形成的产物,所以目前看到只支持了国外的AI服务商,如OpenAI、Azure、AWS、Google等,并没看到国内的AI服务商。 地址:https:/// 二、Cloud-GPUs这个是一个和LLM-Price 类似的网站,唯一的区别是它对比的是GPU的价格,如果对GPU价格感兴趣的朋友也可以看看。 地址:https:/// 三、OpenUI如果你对AI生成代码感兴趣,那这个工具一定适合你。OpenUI 是一个用于快速、灵活构建UI组件的工具,通过输入提示词,就能生成UI界面,并且还能生成对应的HTML和React组件。 使用OpenUI非常简单,打开网站后你会看到中间有一个文本框,你可以自由输入对所需界面的文字描述,目前可以支持一些简单的组件生成,比如登录页,商品卡片等等。 比如这是输入”Generate a modal popup for user feedback, including text area and submit button.“ 生成的一个UI组件 点击左上角的箭头按钮选中需要修改的内容,在弹出的对话框中输入修改的指令,就能进行实时修改。还可以输入指令得到简单的动态效果(有点像之前我提到的Pika工具,里面可以对某一个区域进行重绘)。 项目地址:https://github.com/wandb/openui Demo地址:https://openui.v/ 四、Anything-LLMAnything-LLM 是一款适用于本地 LLM + RAG 的开源、一体化 AI 桌面应用程序。它允许你将任何文件、资源或内容片段转换为上下文,这样任何大型语言模型(LLM)在聊天过程中都可以将其作为参考资料。 该应用程序允许你选择使用商业现成的LLM或流行的开源LLM和向量数据库解决方案,构建一个私人的ChatGPT,你可以在本地运行,也可以远程托管,并且能够与你提供的任何文件进行智能对话。 Anything-LLM将你的文件划分为称为工作区的对象。工作区的运作方式很像一个线程,但它还增加了文件的容器化。工作区可以共享文件,但它们之间不会相互通信,因此你可以保持每个工作区的上下文清晰。 Anything-LLM 还有一些非常酷炫的特性:
项目地址:https://github.com/Mintplex-Labs/anything-llm 五、PrivateGPTPrivateGPT顾名思义,就是你的GPT访问是私密的,不会有数据泄露风险。像我们平常使用OpenAI的ChatGPT的时候,其实他们也会拿我们询问的数据进行训练。 PrivateGPT允许用户在没有互联网连接的情况下,使用大型语言模型(LLMs)的能力来查询文档,其实就是利用本地大模型。目前这个项目斩获了51K个Star,是Github里面的明星项目。 PrivateGPT提供了一个API,提供了构建私密、上下文感知的AI应用所需的所有原语。它遵循并扩展了OpenAI API标准,并支持正常和流式响应。此外,PrivateGPT还提供了一个工作的Gradio UI客户端来测试API,以及一些有用的工具,如批量模型下载脚本、文档文件夹监视等。 项目地址:https://github.com/zylon-ai/private-gpt 六、GPTCrawlergpt-crawler 是由 BuilderIO 发起的一个开源项目,旨在帮助用户通过爬取网站内容来生成知识文件,从而创建自定义的 GPT。这个工具特别适用于希望基于特定网站内容(例如文档、教程、FAQ等)构建定制化问答系统的场景。 简单理解的话,gpt-crawler 就是爬虫 + OpenAI 的结合体,比如你想构建一个擅长解答法律的AI助手,就可以通过 gpt-crawler 爬取法律相关数据,然后上传到OpenAI。 如果我不想上传到OpenAI怎么办?其实你思维可以发散一下,我前面讲到的PrivateGPT恰好就提供了一个API,并且它遵循并扩展了OpenAI API标准,所以你其实可以将 gpt-crawler + PrivateGPT 结合,这样就可以构建一个属于自己的AI助手。 目前 gpt-crawler 支持对单个URL爬取,如果要爬取多个URL,你就必须提供一个 sitemap.xml 的链接,比如 https:///sitemap.xml 如果你要爬取的网站没有提供 sitemap.xml,或者你想同时爬取多个网站的链接,有两种办法,一是通过 npm run start:server 启动 gpt-crawler 的API服务器,然后通过 /crawl 端点发送 POST 请求来实现;第二需要稍微改动下源码,加个配置,然后在获取下载链接的地方替换成多个URL。 地址:https://github.com/BuilderIO/gpt-crawler |
|