分享

零基础也能搞定!DeepSeek大模型本地安装全攻略

 创业情报局 2025-01-29

引言
最近爆火的DeepSeek大模型,能写代码、能聊人生,甚至能帮你写小红书文案!但很多小伙伴卡在了“本地安装”这一步。别慌!今天这篇保姆级教程,
从电脑配置检查到一行代码运行,手把手带你搞定DeepSeek,小白也能无痛上车!

安装前先检查一下自己的电脑的配置,配置不够,千万不要安装


一、安装前必看!你的电脑够“强”吗?

DeepSeek对硬件有一定要求,先对照下表自查(以常用7B聊天版为例):

配置项

最低要求

推荐配置

显卡(关键!)

NVIDIA 10系以上显卡

RTX 3060 12GB/3090 24GB

显存

10GB(量化版)

16GB以上(完整版)

内存

16GB

32GB

硬盘空间

至少30GB剩余空间

SSD固态硬盘更佳

如何查看自己电脑配置?

  • Windows用户:按 Win+R 输入 dxdiag,查看“显示”选项卡中的显存
  • Mac用户:点击左上角苹果图标 → 关于本机 → 系统报告 → 显卡/存储

划重点:如果显存不足,可用量化版模型(后文会教),8G显存也能跑!


二、准备工作:安装“编程环境”

Step 1:安装Python(不会编程也能装!)

  1. 访问Python官网,下载3.10.x版本(千万别选最新版!)
零基础也能搞定!DeepSeek大模型本地安装全攻略
  1. 安装时务必勾选 Add Python to PATH(如图)

Step 2:安装Conda(管理工具超省心)

  1. 下载 Miniconda(Windows选.exe,Mac选.pkg)

https://docs./miniconda/

  1. 全部默认设置安装,完成后打开终端/命令提示符,输入:

conda --version # 显示版本号即成功

零基础也能搞定!DeepSeek大模型本地安装全攻略

Step 3:创建独立环境(避免软件冲突)

零基础也能搞定!DeepSeek大模型本地安装全攻略
conda create -n deepseek python=3.10conda activate deepseek # 进入专属环境

三、模型安装:两种方法任选

▌方法1:HuggingFace一键下载(需科学上网)

零基础也能搞定!DeepSeek大模型本地安装全攻略
# 安装下载工具pip install huggingface_hub# 运行下载代码(替换你的token)from huggingface_hub import snapshot_downloadsnapshot_download(    repo_id='deepseek-ai/deepseek-llm-7b-chat',    local_dir='./deepseek-7b-chat',    token='hf_你的令牌'  # 在huggingface.co/settings/tokens获取)

▌方法2:手动下载(适合网络不稳定)

  1. 访问 DeepSeek官方页面
  2. 找到 deepseek-llm-7b-chat → 点击Files and versions → 下载所有文件
  3. 新建文件夹 deepseek-7b-chat,将下载的文件放入其中
    必选文件:config.json, model.safetensors, tokenizer.model

四、运行模型:3行代码召唤AI!

基础版代码(适合16GB以上显存)

零基础也能搞定!DeepSeek大模型本地安装全攻略
from transformers import AutoModelForCausalLM, AutoTokenizerimport torchmodel = AutoModelForCausalLM.from_pretrained( './deepseek-7b-chat', device_map='auto', # 自动分配GPU/CPU torch_dtype=torch.float16 # 半精度节省显存)tokenizer = AutoTokenizer.from_pretrained('./deepseek-7b-chat')# 输入你的问题question = '用东北话写一首关于秋天的诗'inputs = tokenizer(question, return_tensors='pt').to('cuda')# 生成回答outputs = model.generate(**inputs, max_new_tokens=200)print(tokenizer.decode(outputs[0], skip_special_tokens=True))

低显存救星:8bit量化(8G显存可用)

零基础也能搞定!DeepSeek大模型本地安装全攻略
model = AutoModelForCausalLM.from_pretrained(    './deepseek-7b-chat',    load_in_8bit=True,  # 开启8bit量化    device_map='auto')

五、常见问题急救包

  1. 报错OutOfMemoryError
  2. 尝试 load_in_4bit=True(需安装bitsandbytes库)
  3. 添加 max_memory='{0:'20GiB', 1:'20GiB'}' 分配多显卡显存
  4. 提示缺少依赖库
  5. pip install bitsandbytes flash-attn # 补充安装常用库
  6. 生成速度太慢
  7. 升级显卡驱动至最新版
  8. 使用 vLLM 加速(安装:pip install vllm)

六、重要提示:

安装过程中遇到问题问Deepseek

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多