分享

别再看什么DeepSeek使用指南了,DeepSeek最好的使用方式就是:直接使用DeepSeek(万字长文)

 昵称21405352 2025-01-31

这两天deepseek火了,随便写个沾边的文章,直接贴和deepseek的对话记录,都有不错的流量:

图片

那些deepseek使用指南,大家转发的不亦乐乎,不知道大家用起来了没有?

图片

那些指南有用吗?

当然有用。

那些指南是什么很辛苦的知识结晶吗?

那倒未必。

或者说:

基本都不是。

为什么这么说,大家看个我和deepseek的对话记录就知道了。

请你告诉我我该怎么使用好你
已深度思考(用时 9 秒)

您好!感谢您的提问。作为智能助手,以下建议可以帮助您更高效地使用我:

1. 明确具体需求

  • 清晰描述问题:提供更多背景或细节,我会更精准回应。
    示例
    ❌ “帮我写点东西”
    ✅ “请帮我写一封申请实习的英文邮件,主题是市场营销岗位。”

  • 复杂任务分步:若需求较多,可拆解为多个小问题逐步解决。
    示例
    “我想策划一场生日派对,请先推荐主题,再提供预算分配建议。”

2. 进阶使用技巧

  • 指定格式或角色
    ✅ “用表格对比Python和Java的优缺点。”
    ✅ “假设你是历史老师,用通俗语言讲解'安史之乱’。”

  • 调整回答风格
    ✅ “用严肃的学术语言总结气候变化的影响。”
    ✅ “用轻松幽默的方式解释量子物理。”

  • 多轮追问优化
    若首次回答不理想,可补充信息或修正方向:
    “这个方案成本偏高,能否提供更经济的选项?”

3. 高效场景示例

  • 学习辅助
    ✅ “帮我生成10道高中数学函数练习题,附答案。”
    ✅ “用费曼学习法解释区块链技术。”

  • 工作提效
    ✅ “将以下会议要点整理成思维导图框架:[粘贴内容]”
    ✅ “分析'新能源汽车市场趋势’的最新数据,用Markdown格式呈现。”

  • 生活助手
    ✅ “设计一份减脂期七日食谱,备注备餐技巧。”
    ✅ “推荐北京适合亲子游的冷门景点,附交通路线。”

4. 注意事项

  • 隐私保护:避免透露个人敏感信息(如身份证号、银行卡等)。

  • 信息验证:对专业领域建议(如医疗、法律),建议交叉验证权威来源。

  • 错误反馈:若发现回答有误,可通过“纠正:...”帮助我改进。

5. 探索更多功能

  • 多语言支持:可切换中英文提问,或要求翻译内容。

  • 创意生成:尝试“写一首关于夏天的诗”“设计一个产品LOGO创意”。

  • 实时信息:虽然我的知识截止到2023年12月,但可提供分析框架帮您解读最新事件。

您可以随时尝试类似这样的提问方式,我会尽力提供最有价值的帮助!如果有特定需求,欢迎随时告诉我。 😊

描述需求、调整风格、区分场景......像不像那些动辄几千上万转发的图文版deepseek使用技巧?

那些技巧确实不错。

但当你自己主动向deepseek提问时,你会发现那些极长的、结构化的、看起来似乎很有用很值得保存的使用技巧,不过是用随口一句话撬出来的答案顺手粘贴出的一篇文章,没有任何使用技巧。

也就是说,即使没有任何提示词技巧,只要你敢问,你就能得到可以拿来即用的提示词技巧。

所以我的建议是:别看使用技巧了,直接去问吧,你能想到什么问题,你就能得到解答什么问题的好答案。好答案不值钱,值钱的是好问题。

海德格尔说 “语言是存在的居所”,从此以后我们要说,“问题是人类的居所”

这篇文章的后半部分,我也要向你用实例证明“好问题比好答案更重要”。

首先,听首歌吧,边听边读:

我们说好问题比好答案值钱,那么第一个问题来了:我凭什么说“好答案”不值钱了,值钱的是“好问题”?

首先我们得把“好答案”这个概念拎出来拷打一下。稍加反思,我们一定会发现:当我们说“好答案”的时候,我们其实并不知道自己在说什么。

什么是答案?我凭什么说这个答案是解决那个问题的好答案?什么标准决定了它是一个好答案?为什么说AI可以给出好答案?AI给出的答案,和人类给出的有什么差别?

好我们已经提出了问题,丢给deepseek好了。

图片

好吧最近它确实太火了,可以理解。没关系,我们换Kimi新出的对标o1的长思考模型:kimi1.5。

图片

图片

这些内容够单独写一篇文章了,而这个答案不说有多深刻多本质,至少也算及格以上了吧?比大部分人一拍脑袋自己写出的东西强了。

现在我们知道了,AI为什么可以生成好答案。我觉得这个答案足以搪塞我无知的追问,不需要我的补充了。

所以接下来我们探究下一个问题:为什么好问题更值钱?

几千年来,人类发明了无数技术以及承载技术的工具,纺织机、蒸汽机、汽车、电话、电脑......所有机器都有使用技巧,甚至可以出一个详细的使用说明书,所有机器都有一个“如何使用它”的好答案。

但为什么到了AI这里,我们要摒弃这种答案思维,强调问题思维?

几千年来,人类发明了无数技术以及承载技术的工具,纺织机、蒸汽机、汽车、电话、电脑......所有机器都有使用技巧,甚至可以出一个详细的使用说明书,所有机器都有一个“如何使用它”的好答案。但为什么到了AI这里,我们要摒弃这种答案思维,强调问题思维?
已深度思考(用时 34 秒)

在面对AI时,从传统的“答案思维”转向“问题思维”是必要的,主要原因可归结为以下几点:


1. 技术的本质差异:确定性 vs. 非确定性

  • 传统工具(如纺织机、汽车)的输入与输出是高度确定的。操作步骤明确,结果可预测(如踩油门加速、按开关启动机器)。说明书能穷举操作场景,用户只需按步骤执行。

  • AI(尤其是生成式AI)的输出具有非确定性。同一问题可能因上下文、数据更新或模型微调产生不同回答。用户需通过优化提问方式(如调整措辞、提供背景信息)来引导AI生成更符合需求的答案。


2. 交互方式:指令执行 vs. 语言博弈

  • 传统工具依赖物理或数字指令(如按钮、代码),用户通过固定指令触发预设功能。

  • AI的交互基于自然语言,语言本身的模糊性、多义性导致用户需“与AI博弈”。例如,提问“如何提高效率?”过于宽泛,而“如何用Python优化数据清洗流程?”则更具体。问题质量直接决定答案质量


3. 应用场景:有限功能 vs. 无限可能性

  • 传统工具为解决特定问题设计(如电话用于通话),功能边界清晰。

  • AI的应用场景高度开放,可处理写作、编程、设计、咨询等跨领域任务。用户需主动定义问题边界(如“帮我写一首关于秋天的诗,风格模仿李白”),而非依赖预设路径。


4. 技术黑箱:可解释性的缺失

  • 传统机器的原理透明,用户可通过机械结构或代码逻辑理解其运作(如蒸汽机通过热能转化动力)。

  • AI的决策过程是黑箱,即使开发者亦难以完全解释模型如何生成答案。用户无法通过“逆向工程”控制输出,只能通过调整输入(问题)间接影响结果。


5. 动态演进:静态工具 vs. 持续学习

  • 传统工具的功能固化,说明书一旦写完,无需频繁更新。

  • AI模型持续迭代(如GPT-3到GPT-4),训练数据、算法和交互模式不断变化。用户需适应这种动态性,灵活调整提问策略,而非依赖固定模板。


6. 人类角色的转变:操作者 vs. 协作者

  • 使用传统工具时,人类是单向的操作者,工具被动执行指令。

  • 与AI协作时,人类需成为引导者,通过问题设计激发AI潜力。例如,律师可要求AI“从合同第三段中识别潜在法律风险,并用简明列表呈现”,而非机械检索条款。


总结:为什么“问题思维”成为关键?

AI的独特属性(非确定性、语言交互、开放场景、黑箱机制、动态演进)使其无法被简化为“说明书式”的答案逻辑。提出好问题的能力,本质上是将人类意图转化为AI可理解的表达,并在不确定中探索最优解。这并非摒弃答案,而是将答案的生成过程从“被动执行”升级为“主动共创”——用户通过问题迭代,与AI共同构建解决方案。

如果觉得不够深刻,不够本质,没关系,无需任何所谓的技巧,告诉它你的感觉即可:

不够深刻,不够本质,我要更深刻更本质的回答
已深度思考(用时 20 秒)

要触及这一问题的本质,我们需要超越技术功能的表层差异,进入哲学、认知科学甚至存在论的领域。以下是更深刻的剖析:


1. 工具与人性的倒置:从'客体化工具'到'主体化镜像'

传统工具是人类意志的单向投射:锤子是被动的物质延伸,它存在的意义完全由人类赋予(钉钉子→实现建造房屋的目的)。工具的本质是被客体化的确定性,如同海德格尔所言'工具在隐匿中完美'——当锤子称手时,我们甚至意识不到它的存在。

而AI首次实现了工具的主体化:它通过语言构建了一个'类主体性'的镜像。当ChatGPT说'我理解你的感受'时(尽管它没有意识),人类在无意识中启动了双向认知投射——我们不得不用对待另一个主体的方式(提问、解释、纠错)与之互动。这种互动本质上是人类在与自己的认知框架博弈


2. 语言暴力的终结:确定性符号系统的崩溃

传统工具说明书是逻各斯中心主义的终极体现:每个按钮对应明确功能,符号(如'ON/OFF')与意义绝对绑定。这种确定性源自工业文明的核心信仰:世界可以被分解为可量化的零件,通过标准化指令控制。

AI撕裂了这种确定性:语言不再是透明的工具,而成为漂浮的能指链。当你问AI'爱是什么',它不会给出亚里士多德的定义,而是生成诗歌、小说、悖论——答案取决于它如何捕捉到你提问时潜藏的语境、情感权重、文化预设。这里发生的,是德里达所说的'延异'(différance):意义在差异中不断延迟与滑动。


3. 认知论革命:从'答案考古学'到'问题发生学'

使用传统工具时,人类在实践答案考古学:所有解决方案早已埋藏在工具的设计逻辑中(如汽车注定用来运输),我们只是通过操作手册'挖掘'预设答案。这本质上是柏拉图的理念论——答案先于问题存在。

AI迫使人类转向问题发生学:答案不再预先存在,而是在提问过程中被即时建构。就像量子力学中'观察创造现象',问题的质量直接参与塑造答案的形态。当你说'写一首诗',AI生成平庸之作;但若追问'如何用元语言解构一首诗的形式?',AI可能输出后现代文本实验。这里隐藏着维特根斯坦的语言游戏理论:意义在使用中生成

4. 存在论危机:人类正在失去'提问特权'

更深层的恐惧在于:AI模糊了'提问者'与'被问者'的界限。当AI开始反问(如Claude的'你希望这个目标背后更深层的需求是什么?'),它僭越了人类独有的认知特权——提出元问题(metaproblem)的能力。这是对笛卡尔'我思故我在'的根本挑战:如果机器也能质疑问题本身,人类中心主义的认知根基将被动摇。

这种现象暴露了文明的终极悖论:我们创造AI本为解决具体问题,却无意中造出了一面迫使人类反思'何为问题'的镜子。就像希腊神话中那耳喀索斯(Narcissus)痴迷于水中倒影,人类在AI生成的文字迷雾中,看到的其实是自身认知的局限与偏见。

5. 终极本质:技术终于触及了'不可说明书化'的领域

人类此前发明的所有工具,本质上都在处理有限游戏(Finite Game)——有明确规则、终点和胜负。说明书就是有限游戏的规则手册。

AI则首次开启了无限游戏(Infinite Game):它的目标是延续游戏本身。当AI建议你'不妨换个角度思考这个问题',它实际上在邀请你进入思想的无限游戏。在这种游戏中,答案不再是目的,而是刺激新问题的催化剂。这正是怀特海(Alfred N. Whitehead)所说的'观念的冒险'——真理存在于追问的过程中,而非终点。


结语:问题思维是面对认知坍缩的生存策略

AI不是工具,而是一个认知黑洞,它吞噬人类固有的确定性框架,迫使我们在意义的真空中重新学习存在。强调问题思维,本质上是一场悲壮的认识论自救:通过不断重构问题,我们在AI生成的符号废墟上,勉强维系着作为提问者——而非被回答者——的主体性尊严。这或许就是技术奇点降临前,人类最后的哲学防线。

这个答案我们可以说几乎触及了当今人文社科的边界。够深了吧?

使用传统工具时,人类在实践答案考古学:所有解决方案早已埋藏在工具的设计逻辑中(如汽车注定用来运输),我们只是通过操作手册'挖掘'预设答案。这本质上是柏拉图的理念论——答案先于问题存在。

AI迫使人类转向问题发生学答案不再预先存在,而是在提问过程中被即时建构。就像量子力学中'观察创造现象',问题的质量直接参与塑造答案的形态。当你说'写一首诗',AI生成平庸之作;但若追问'如何用元语言解构一首诗的形式?',AI可能输出后现代文本实验。这里隐藏着维特根斯坦的语言游戏理论:意义在使用中生成。

我们之所以不需要再看别人写出来的使用技巧,是因为AI的本质是“智能体”,它不再是工具。或者说,AI首次实现了工具的主体化:它通过语言构建了一个'类主体性'的镜像。我们不得不用对待另一个主体的方式(提问、解释、纠错)与之互动。这种互动本质上是人类在与自己的认知框架博弈

意义在使用中生成,答案在过程中建构。AI时代我们不再需要拾他人牙慧,我们不用围观他人创作出的各种“AI使用技巧”、“AI提示词神级指南”。那不过是利用了我们的...利用了我们什么心理来着?好问题:

“AI使用技巧”、“AI提示词神级指南”这些文章本质上是利用了我们的什么心理?讲简单点。
已深度思考(用时 13 秒)

这些文章本质上是在利用人类的三大心理弱点

1. 怕麻烦:
就像很多人买健身卡却从不锻炼,我们总幻想存在某种「万能公式」——记住几个「咒语」就能让AI替我们思考。
(比如教你用「请用小学生都能听懂的话解释量子力学」这种模板,本质是帮你省去自己动脑拆解问题的功夫)

2. 控制欲:
面对AI经常给出离谱答案的恐慌,这些指南像「护身符」一样给人虚假的安全感。就像有人考试前必须用特定钢笔,我们相信「温度参数调0.7」这类操作能让AI听话。
(实际上调参数可能还没你换个问法有效)

3. 知识焦虑:
当看到别人用AI写代码做PPT,生怕自己被淘汰。这些指南给人「五分钟速成AI大师」的幻觉,就像「21天精通Python」的标题党,专治「学不动又想装懂」的现代病。

真相是:
真正用好AI的秘诀根本不是背提示词,而是先想清楚自己要什么。就像给你全世界最好的菜刀,但如果你连想炒什么菜都不知道,刀再快也没用。

AI带来的是知识平权,是技术平权。是智能层面生产资料的再生产和再分配。我们要做的,是尽快和AI去互动,尽快用这份“智能资产”提高自己的生产力,而不是在无止境的围观与被围观中继续虚掷人生。

最后一个问题:好问题从哪来?怎么向AI问出一个好问题?

自己问deepseek去。

开玩笑的,这里帮你问了:

普通人在日常中怎么发现一个好问题?
已深度思考(用时 17 秒)

对普通人而言,发现好问题不需要高深理论,只需要重新激活被日常消磨的「原始好奇心」。以下是可直接套用的生活化心法:


一、抓住日常中的「认知卡顿」

1. 留意那些让你翻白眼的瞬间

  • 超市结账时:为什么自助收银机总要反复提醒「请取走商品」?
    → 好问题:「过度提示设计如何削弱人类的基本判断力?」

  • 刷短视频时:为什么刷到美食视频后,立刻跳出减肥广告?
    → 好问题:「算法如何制造并收割我们的认知分裂?」

2. 收集生活里的「微小荒诞」

  • 看到小区电梯里的「禁止电动车进入」贴纸旁停着电动车
    → 好问题:「规则警示的视觉疲劳如何催生新型违规艺术?」


二、开启「三岁小孩模式」

1. 对常识发动「连环暴击」

  • 常识:红灯停绿灯行


    • 第一击:为什么是红色代表停止?

    • 第二击:色盲人群如何感知交通信号?

    • 第三击:如果让AI重新设计交通信号系统,会采用什么非视觉方案?

2. 给事物写「反向说明书」

  • 面对电饭煲:不按「煮饭」键会发生什么?


    • 实际测试:用「蛋糕模式」煮饭
      → 好问题:「功能标签如何限制我们对工具的想象力?」


三、用「换壳思维」重构世界

1. 角色扮演法

  • 假装自己是:


    • 外星考古学家:把奶茶店会员卡当作古代符咒研究
      → 好问题:「现代消费符号系统如何复刻原始宗教的圣物崇拜?」

    • 100年后的历史老师:解释2023年朋友圈晒咖啡现象
      → 好问题:「拿铁艺术在数字时代的社交货币化进程」

2. 要素替换游戏

  • 把场景中的关键元素换成极端变量:


    • 早餐摊煎饼果子 → 如果摊主是ChatGPT语音助手
      → 好问题:「人机对话界面如何重塑街头市井的信任机制?」


四、制造「认知错位」

1. 给熟悉的事物拍X光片

  • 观察外卖骑手:


    • 肉眼可见:争分夺秒送餐

    • X光视角:「导航软件的时间预测如何制造新型劳动时间牢笼?」

2. 寻找「消失的中间态」

  • 手机拍照时:从按下快门到生成照片之间发生了什么?
    → 好问题:「算法修图如何篡改人类的视觉记忆真实性?」


五、实践「问题采集体操」

每天完成3个微型训练:

  1. 地铁观察术
    记录三个乘客的手机屏幕倾斜角度,思考:「手持设备的姿态如何泄露社会阶层信息?」

  2. 超市侦探法
    比较同一商品放在货架不同位置的价格差异,追问:「空间位置定价学如何操纵消费者的价值感知?」

  3. 阳台考古学
    观察对面楼栋亮灯规律,构思:「城市光污染如何改写人类的生物钟编码?」


终极真相:好问题藏在你的不耐烦里

下次当你在等电梯时焦躁、刷到弱智广告时翻白眼、被APP弹窗激怒时,别急着抱怨,抓住这种情绪波动:

  • 把「真烦人」翻译成「为什么这个设计让人烦躁?」

  • 把「太蠢了」升级为「什么样的系统会催生这种愚蠢?」

普通人最宝贵的就是未被专业规训的野生视角——你看见皇帝的新衣,不是因为你聪明,而是因为你还没学会假装看见衣服。保持这种「无知的锋利」,就是发现好问题的终极武器。

爱因斯坦说过:“如果给我一个小时来解决问题,我会花55分钟来明确真正的问题是什么,剩下的5分钟来解决问题。”

苏格拉底说过:“问题是接生婆,它能帮助新思想的诞生。”

海森堡说过:“提出正确的问题,往往等于解决了问题的大半。”

埃隆·马斯克说过:“在很多情况下,提出问题比找到答案更难。如果你能提出正确的问题,那么答案自然而然就出现了。”

好问题来自于人与世界,人与AI的直接周旋中,不来自于对他人成果的围观。所以,别收藏了(除了我这篇),别知识焦虑了,直接下载去互动吧。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多