您的位置:首页 > 财经 > 金融 > 字节跳动小程序官网_丹东东港_免费代理上网网站_开源crm系统

字节跳动小程序官网_丹东东港_免费代理上网网站_开源crm系统

2025/5/26 1:20:38 来源:https://blog.csdn.net/qq_45821285/article/details/146092532  浏览:    关键词:字节跳动小程序官网_丹东东港_免费代理上网网站_开源crm系统
字节跳动小程序官网_丹东东港_免费代理上网网站_开源crm系统

1-DeepSeek

参考:【Deepseek】Linux 本地部署 Deepseek_linux部署deepseek-CSDN博客

问题:

(base) root@QiuKu_303:~/Documents/Ollama# sh ollama_install.sh >>> Cleaning up old version at /usr/local/lib/ollama >>> Installing ollama to /usr/local >>> Downloading Linux amd64 bundle ######################################################################### 100.0%

解决:【跳过问题】

export LD_LIBRARY_PATH=/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH


2-QWQ-32B

参考:消费级显卡也能跑!QwQ-32B本地部署教程来了!【视频号】

参考:Linux环境下使用vLLM部署本地大模型_vllm加载本地模型-CSDN博客

conda create -n QWQ-32B python=3.12
pip install vllm
pip install git+https://github.com/huggingface/transformers
pip install modelscope
modelscope download --model 'Qwen/QwQ-32B' --local_dir '目标目录'
vllm serve /home74/liguangzhen/folder/QwQ-32B

方案 1:使用 vLLM 部署 DeepSeek

vLLM 具有高吞吐量,支持 PagedAttention,高效利用多张 GPU。

1. 安装 vLLM

pip install vllm

2. 下载 DeepSeek 模型

可以从 Hugging Face 拉取 DeepSeek 相关模型,例如:

# 以 deepseek-ai/deepseek-llm-7b-chat 为例huggingface-cli download deepseek-ai/deepseek-llm-7b-chat --local-dir deepseek-7b-chat

3. 启动 vLLM 服务器

python -m vllm.entrypoints.openai.api_server \--model deepseek-7b-chat \--tensor-parallel-size 4  # 4 张 GPU 进行张量并行
  • tensor-parallel-size 设为 4,可以让 4 张 3090 共同运行一个模型。

启动后,API 服务会运行在 http://localhost:8000/v1/completions,可以用 OpenAI API 兼容方式调用。

4. 测试 API

import requestsurl = "http://localhost:8000/v1/completions"
headers = {"Content-Type": "application/json"}
data = {"model": "deepseek-7b-chat","prompt": "请介绍一下深度学习。","max_tokens": 200
}response = requests.post(url, headers=headers, json=data)
print(response.json())

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com