分享

AI深度用户这一年-超级个体和腾讯的后发制人

 mingdon 2025-02-17 发布于广东

这是一篇个人使用AI打造第二大脑的实践札记,记录较详细又杂夹着各种观点(暴论),因此会比较长。

我不是专业程序员,因此实践下来亲测可行的方法,理论上门槛并不会太高。也欢迎大家提更好的方案。这是AI平权的价值,也是为什么微信接入Deepseek让我如此激动。

最庞大的日常数据 私有数据 最便宜的开源模型,能擦出巨大的火花。尽管现在功能不齐全,且只能针对公网搜索,但假以时日,私有数据接入后,个人超级助理和知识库很有可能是下一个AI应用热点。我相信chatbox只是AI的初级形态。个人第二大脑才是下一步,但这只有少数的生态卡位大玩家有实力打造。

这是为什么去年12月我就在星球坚定的看好腾讯必然会走的这一步。

图片

自从ds出圈以来,大模型渗透率大幅提升,中国用户用AI、接AI的热情高涨,并且能以极低甚至接近于免费的价格享受很多AI应用。这虽然是中国内卷的一个侧写,也正是普通用户的红利时刻。

继续前,我推荐下同样是腾讯的产品ima。个人已经在上面开始打造知识库,并且目前是我使用deepseekr1最流畅的平台之一。但这款产品也远没到终局。

蓝色是例子,正文是记叙,加粗是暴论。


2023年第一次和ChatGPT对话,被其智能化和拟人性惊艳,第一次改变了被程序化客服塑造的AI只是弱智的印象。

2023年中因为想白嫖GPT听说Cursor不仅免费接入还能帮助编程,遂开始使用。到今天已经编写有上百个程序脚本。当时感慨终于不用再记忆繁琐的Python语法,被其意图领悟和编程能力深深惊艳。也感谢让一个分析人员能够不再求助于程序员,自己上手处理大批量数据。

2023年底开始尝试用cursor进行数据分析。开始用Python建立指标追踪体系。由于正好有Wind的API,迅速扩大了数据分析范围。

    做了不少数据分析专题,不少发表在公众号上,比如A股炒作主题的周期、中美指数互动等。极端情况下,过往需要1天excel的分析可以2小时内跑完。用Python Cursor的好处是能够跑一次程序就更新整个数据框架,并且直接看到结果和图示,不用处理庞大的Excel表格。

开始探索如何将语义分析融入数据框架,开始思考大模型怎样嵌入数据分析流程。

    例如,在分析CPI分项的时候,可能有十几个分项,数值结果固然能看出来谁变化最大、边际变化最显著或和分析师预期差最大,但大模型可以读完结果直接总结成文字,还可以做更多主观判断和联网分析。通过和程序联动,等于0.5个可以出短报告的分析师。

当时偷懒,没有研究如何使用API(后来发现这是最简单的方法),而是尝试了Google Sheet等在线表格产品,通过函数调用大模型分析特定格子中更新后的内容。但后来发现还不如直接上传整个表格给大模型分析。

2024年中彻底放弃印象笔记。

理想中的笔记产品应该是能够“随便扔进去,随时问出来“。简单而言,任何需要我打标签、整理、花功夫处理输入内容的笔记产品,我相信最终都会被有大模型帮我自动整理的笔记产品替代。

当读取功能足够强大的时候,整理这一步都可以跨过。只需要确保我要召回、搜寻、提取特定内容的时候,大模型能够帮我精准找回我当时扔进去的东西。

目前IMA上的知识库,图片没必要打标签或命名,已经可以结构化搜索或用deepseek提问。典型的对人类看起来丑,但模型不介意。

图片

任何我放进内容后无法交互,无法方便召回的笔记或收藏产品,最终都会变成死胡同,成为数据黑洞。

    微信的收藏是很多人广泛使用的,但是大部分内容进去后不会再读,因为缺乏有机的交互方式,这里的有机指的是,除了关键字搜索以外,更智能的方式应该是通过大模型进行对话提问。

    但当模型被开源平权后,数据沉淀和场景丝滑比大模型能力更重要。例如,有朝一日微信能接入Deepseek读取收藏的内容时,收藏就被激活了。

因为微信收藏足够贴近场景(最高质量的中文文章库),足够简单(长按选择),输入最直接,所以它可以战胜很多的笔记类产品。更不用说微信上还有文件传输助手。中国用户把社交通讯和工作混杂的方式,恰恰给了腾讯巨大的潜力。

  当然,这可能也带来无奈,由于微信本身对于工作的贴合度太强,以至于工作微信一直起不来。顶着工作号的微信在熟人网络圈里有恐怖谷效应。

2024年上半年开始头疼如何处理复杂的异构数据。这里的异构数据包括,对于我来说,1)每天从微信各种群里面收到的外资投行研报、国内券商研报、第三方报告等,最终以本地PDF的形式存在;各种群里面收到的图片;各类群的讨论;互联网上浏览找到有价值的网页,变成书签和摘录的信息;Wind获取的数据;各种知识星球下载的文件和读到的内容。

  发现微信又在其中扮演着几乎中枢的角色。很大一部分资料来源于微信。

除了异构数据以外,还有大量的二次处理后数据。包括外资研报的笔记摘要、wind数据处理结果(不少已经由Cursor处理)。

这里要特别提一点。在AI时代,通过AI和文档进行交互的过程和结果本身也成了一种宝贵的个人数据,因为每个人向AI提的问题、交互的结果、输出的内容都不一样的。实际上,很多的对话过程就是一次深入的研究,对话即研究成果。

    NotebookLM、豆包等就考虑到了这一点,可以将整个对话保存成为一篇笔记。

    开始使用 NotebookLM处理每天时效性最强的交易台数据流。因为这需要多篇放一起精读。多篇 精读这个需求下,NotebookLM是比较乘手的。

    但即使notebook单个对话能够上传50个文件,但和每天收到的百来个文件体量来比,仍然是杯水车薪。我需要的是一个完整的数据库。

2025年初,为了解决本地文件的索引,开始使用Cherry Studio对本地文件直接进行向量化,以方便未来搜索和大模型对话。

对于非程序员,存在本地的海量文件还没良好的处理方式。上传到任何平台容量有限、无法全量一起阅读,需要预分类;本地化虽然用嵌入模型处理成本不高,但还缺乏好产品把大模型能力整合进来(Cherry和大模型碰上海量的本地文件,会有上下文长度和带宽的问题)。

开始用Notion AI汇集图片 文字数据。

意识到图片作为一个独特的信息含量丰富多维的数据格式,处理起来依然存在麻烦。Chatbox笔记产品一般无法满足处理图片的需求,因为1)他和我图片来源(比如最大的来源微信)之间需要多个操作才能导入;2)没法做自动化的提取文字和预处理,不方便后续用大模型对话。自动化指的是我扔上去自动处理。例如NotionAI,上传图片后需要选择AI对话和总结才会形成文字摘要。图片少还行,多了就乏了。

没有结构化、文字化的数据格式,比如图片和音频视频,就是数据黑洞。无法被后续方便的索引检查和对话

  目前大部分大模型产品,出于算力不浪费的考虑,需要在你上传文档或者图片后,主动提交一个问题,比如让他总结才会输出相应的描述。

可能因为现阶段算力仍然贵,是瓶颈,但只不过现在是以后,一定不是。所以问题最终会得到解决。

现阶段服务提供商需要考虑成本,不能够无条件的把所有上传的文档,图片,视频帮你token化进行索引,不会主动分析,变成可对话的文字资料。当然,tokenize这第一步成本较低,我相信会逐渐成为知识库产品标配。

为什么说未来一定会解决?我们可以这样想象。在3g时代,很多人都不敢长期打开移动流量。很多人不会在外面光看长视频,而是在家里WIFI下完才出去看。这些道4g 5G时代都成为可笑的行为。当时是流量资源,现在是算力资源。当资源足够丰富的时候,大部分的产品会将预处理作为标配,把所有的内容变成潜在可对话和索引的资料。

最终的结果指向仍然是贴心性、易用性。算力是一个漫长赛跑中不得不加注的成本,入场券。但最终不会成为杀手锏和瓶颈,还是谁贴近信息的源头,谁最有实力决定用户体验。

第一顺位一定是苹果或者微软这样的封闭体系,所有的数据流和处理交互都在硬件或者操作系统基础上完成。

第二就是腾讯这样承载大部分信息流和数据来源的平台。

第三顺位才是各种垂直应用。

对于知识库和个人第二大脑来说,网络效应极强,头部效应极强。

开始使用ima后,我发现腾讯是真的比较懂用户。Ima可以比较好的解决我的图片问题以及收藏问题,现在微信公众号上获取的文章我已经优先用ima收藏,便于以后检索和对话。图片则有两种方式。微信中收到的图片还是得先批量保存。按之前的工作流,我是先发送到文件传输助手,那么现在就是多一道批量下载的动作,然后再批量上传到ima。ima最大的好处是,所有上传的图片自动解析变成可索引的图片,这或许和微信在提取文字中的丰富经验有关,技术是继承而来的。

有时候一些小功能能增加大粘性。记得当年多少人用QQ来截图吗?

ima也可以实现豆包和notebook对话和对话流一键保存成为笔记以及转为知识库。所有转为知识库的内容都可以对话和检索

当然最好的是他接入了deepseekr1这个最强的开源大模型之一。能免费提供给用户,而且极为流畅,自己承担算力成本。

这或许和当年cursor让人免费白嫖gpt4一样的策略,用最强的大模型和最好的推理体验吸引最多的流量,自己承担成本。

实际上,各家头部笔记玩家都在跟进。Notion已经可以实现良好的语义对话体验,用语言对话的方式帮我抓取过往输入的海量信息,但问题仍然是我大部分的信息来源距离notion有点远,转入需要复制粘贴和多几道。但我可以理解对于海外用户来notion通过各种API转发到Notion反而是最方便的。

国内的超级APP,和国外的分散化的用户生态在大模型时代仍然会存在区别。

目前已经基本用ima跑通了研报处理流程:通过主窗口打开,一边读一边提问,同时摘取不确定的内容在右边进行补充分析。由于同时接入混元和deepseekr1,等于同时有两个大模型在为我打工:我宣布已经实现了赛马机制。

2个大模型一左一右一起工作:

用同一个模型会出现排队实质的问题,为了加快速度,我开始强迫两个大模型,同时为我开工。

虽然混元表现不如deepseek,但是胜在快以及特定的bug少(目前deep seek有时候会不知道我指向的是哪个图片,即使我上传了新图片后,还在帮我回答老图片的内容)

默认的模型还是混元,每次需要点一下变成DS。腾讯还是想挣扎挽留一下混元,但很显然技术和产品力是最强的驱动力,在这块强大的模型有极端的马太效应。

有时候宁可多等一会deepseek的结果,多听一会他的推理废话,也不愿用混元。

ima文档中的图片虽然无法一键导出(豆包倒是可以做到,至少可以让我提取图片,只看图片),但是我可以通过截图多张图片一次性输入,让大模型来帮我转成文字分析。这将成为对话的一部分,也最终保存到知识库里面,从而实现了图片的间接结构化,索引化。ima也可以作为悬浮窗直接读取总结各种web链接和web网页。

浏览器是重要入口,但是浏览器悬浮窗足够取代浏览器成为覆盖在上面的超第一入口。

最后几个总结:

1、AI不能替代人的思考和信息处理。能让AI替代的人类思考不是太浅,就是本身价值有限。

2、我一开始沉迷于用AI读研报,但后来发现自己没沉淀,等于没读,没价值。大模型本身已经是一个压缩行为,压缩 压缩,人类等于无用。

3、AI,能够增强人的思考能力以及更重要的记忆和记忆检索能力。

4、一个信息只有能随时检索召回变成结构化的索引时才有价值。否则,对于个人就是黑洞。

5、用好AI的时候,人的价值会被成倍放大,因为人是能够最快分配权重,意识到什么样的信息是有价值的。但人又不用去死记硬背,把所有的每个细节记在脑海里。借助AI,人能够实现大方向上的指挥,能够实现模糊记忆,快速召回。

人脑的这个特性大概是天生的。人能够快速从货架上的5个品牌中辨别自己最熟悉的,但很难凭空说出5个品牌。充分利用人的优势,用AI补强。

(全文完)

聊宏观、资产配置和个人怎么用AI变成超级个体的美好理想。

另外推荐一个我的信息获取渠道,我自己也是深度用户,某Research。他有两个不错的产品,一个精选海外资讯(BB\WSJ\Barron等)同时带翻译,另一个比较猛,头部投行的研报每天10篇原文,足够深度和独家,懂的人知道价值。和国际视野接轨比较紧密。小哥也是业内人士,资料来源不外传哈。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多