定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638
《山东大学:2025年DeepSeek应用与部署(80页).pdf》由会员分享,可在线阅读,更多相关《山东大学:2025年DeepSeek应用与部署(80页).pdf(80页珍藏版)》请在薪酬报告网上搜索。
1、DeepSeek应用与部署山东大学经济学院 教授山东大学国家治理研究院 研究员李铁岗听听真我数字人讲DeepSeekAIGC发展历程AIGC 2014-2024自然语言处理与语言模型大语言模型LLM:2018 2024DeepSeek介绍DeepSeek:2023 DeepSeek:技术创新模型架构|V2(Multi-HeadLatentAttention)DeepSeek:技术创新模型架构|V3DeepSeek:技术创新推理模型|RL强化学习让智能体(Agent)在环境(Environment)中不断尝试、学习,并优化自己的策略(Policy),最终获得最大化的奖励(Reward)。PPO:
2、Proximal Policy OptimizationGRPO:Group Relative Policy OptimizationDeepSeek应用场景DeepSeek的能力层级 1.基础能力层 多模态数据融合与结构化理解,包括跨模态语义对齐(文本、图像、音频、视频、代码、传感器数据统一语义)和动态数据治理(解决数据缺失、噪音干扰、概念飘逸等),支持200多种数据格式自动解析。2.中级能力层 领域问题建模与复杂推理,包括领域自适应学习(建立医、教育、金融垂直应用于模型)、因果推理引擎(建立因果图模型)和多目标优化决策(求解帕 累托最有解)。3.高级能力层 复杂系统建模与自主决策,包括数字
3、孪生仿真系统(构建物理于数字融合虚拟环境模拟天气等)、多智能体协同优化(将每个个体作为智能体通过联邦学习模拟群体行为)和元认知调控机制(实施监控自身决策、动态分配资源、自动触发行为)。4.终极能力层 自主进化与创造性突破,包括概念空间探索(通过对抗网络探索新合金成分等)、范式转移预警(监控跨领域知识流、识别技术革命前兆)和自编程能力(自动模块设计、代码编写、测试用例)。Deepseek V3Deepseek R1Deepseek r1鞅的证明Deepseek r1 Roy安全准则组合模型推理Deepseek r1推理玻尿酸配方DeepSeek提示词工程提示词工程Deepseek十类提示词 1.
4、内容生成类:文本生成、代码生成、创意生成和数据模拟。2.信息处理类:文本摘要、信息抽取、情感分析和多语言翻译。3.对话交互类:角色扮演、多轮对话、反问引导。4.技能应用类:数学计算、代码解释、逻辑推理。5.个性化定制类:风格迁移、知识库绑定、偏好记忆。6.系统操作类:模式切换、资源优化、记忆管理。7.知识查询类:事实核查、概念解释、溯源检索。8.教育与研究类:题目生成、论文润色、实验设计。9.多模态处理类:图文互译、表格解析、视频脚本。10.伦理与安全类:内容审核、价值观对齐、风险预警。DeepSeek部署方案Deepseek部署全线图本地部署蒸馏小模型第三方UI客户管接入服务云端网站接入服务
5、移动手机应用DeepseekDeepseek模型及蒸馏模型API接入API及蒸馏模型API及蒸馏模型Chatbox API及网络调用本地网络调用Chatbox API及网络调用DeepseeK替代部署方案 本地部署蒸馏小模型:可通过ollama平台、LM Studio平台快速本地部署基于Llama和Qwen蒸馏的DeepSeek-R1推理模型,涵盖多种不同参数规模,适合想在本地运行模型的用户。第三方UI客户管接入服务:可通过Anything LLM、Cherry Studio、Chatbox等选择API接入。秘塔AI搜索:接入满血版DeepSeek-R1推理模型,无广告且搜索结果直达。以学习J
6、DK21新特性为例,能详细给出学习计划,包括快速预览、深入学习核心特性、实战与总结等阶段。硅基流动:注册即送2000万Tokens,提供多个基于DeepSeek-R1蒸馏训练的模型,如DeepSeek-R1-Distill-Llama-70B等,在推理能力上表现出色。阿里云百炼:提供多个DeepSeek系列模型,如DeepSeek-V3、DeepSeek-R1-Distill-Qwen-1.5B等,部分限时免费,涵盖文本生成等功能。百度智能云:千帆ModelBuilder全面支持DeepSeek-R1/V3调用,且限时免费,其模型在百科知识、数学推理等任务表现突出。英伟达:可通过特定接口调用D
7、eepSeek-R1 671B全量模型,获取API Key后能进行相关操作。DeepSeek API调用API 调用方法 DeepSeek API model=deepseek-chat 即可调用 DeepSeek-V3model=deepseek-reasoner,即可调用 DeepSeek-R1。Token 用量计算 token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。一般情况下模型中 token 和字数的换算比例大致如下:1 个英文字符 0.3 个 t
8、oken。1 个中文字符 0.6 个 token。但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage 中查看。阿里云部署Deepseek以 DeepSeek-R1 满血版为例进行演示,通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可
9、轻松配置和使用 DeepSeek 模型。https:/chatboxai.app/zh#downloadDeepSeekDeepSeekDeepSeek-R1-Ditill-Qwen-1.5BDeepSeek-R1-Ditill-Qwen-7BDeepSeek-R1-Ditill-Qwen-14BDeepSeek-R1-Ditill-Qwen-32BDeepSeek-R1-Ditill-Ollama-7BDeepSeek-R1-Distill-Ollama-7BDeepSeek-R1DeepSeek-V3腾讯云部署流程 Cloud Studio:登录腾讯云官网,进入Cloud Studio,可
10、一键部署,即开即用,能快速体验7B以下DeepSeek-R1蒸馏模型。云原生构建:登录腾讯云,云原生构建相关服务,一键体验DeepSeek,无需等待下载,支持1.5b/7b/8b/14b/32b多款模型。TI平台:登录腾讯云TI平台,提供专属算力、多种尺寸模型、0代码模型部署等功能。HAI:登录腾讯云HAI控制台,新建DeepSeek-R1应用,创建完成后可通过站内信获取密码,选择可视化界面(ChatbotUI)或命令行(JupyterLab)直接调用DeepSeek-R1模型。云应用:登录腾讯云找到云应用服务,直接购买成品DeepSeek应用,或利用云应用定制化软件功能,快速部署AI应用或定
11、制传统软件。搜索方案:大模型知识引擎:注册并登录腾讯云,在控制台搜索“大模型知识引擎”体验”开通服务。新建应用并配置基础信息,选择DeepSeek-R1/V3模型,即可在右侧调试窗口提问搜索。API接口:申请腾讯云DeepSeek API接口,获取API Key后,可在自己的应用或程序中通过调用API来实现DeepSeek模型的搜索功能。腾讯云API调用开发者首选,DeepSeek部署简单、直观、高效!HAI 提供 GPU 算力和 ollama 环境,支持 1.5B,7B,8B,32B 等多个 DeepSeek-R1 蒸馏模型。企业级首选,DeepSeek部署稳定、安全、易用!腾讯云智能全栈A
12、I服务上架DeepSeek系列模型创建应用华为云+silconflow通过创建API key 调用 邀请码:z0sI0urY邀请链接:https:/ 蒸馏模型老师模型和学生模型小模型:相当于一枚小学生,知识面非常有限,但是胜在没教授那么大谱,给个板凳坐着就够了(部署成本低,推理成本低)。大模型:像一位见多识广、知识储备庞大的“大教授”,无所不知,但是“供养”他很贵。什么是模型蒸馏?“模型蒸馏”就是把大模型学到的本领,用“浓缩”的方式教给小模型的过程,在保证一定精度的同时,大幅降低运算成本和硬件要求。模型蒸馏 蒸馏是一种机器学习技术,其中较小的模型(“学生模型”)被训练来模仿较大、预训练模型(“
13、教师模型”)的行为。1.数据蒸馏 在数据蒸馏中,教师模型生成合成数据或伪标签,然后这些数据用于训练学生模型。2.Logits蒸馏 在logits蒸馏中,学生模型被训练来匹配教师模型的logits,而不仅仅是最终的预测。这种方法保留了更多关于教师模型置信水平和决策过程的信息。3.特征蒸馏 特征蒸馏涉及将教师模型中间层的知识转移到学生模型中。通过对齐两个模型的隐藏表示,学生模型可以学习到更丰富和更抽象的特征。蒸馏、微调、RAG蒸馏:是学生通过模仿老师的解题思路,达到和老师相似的知识水平。微调:又叫精调,相当于学生意识到自己某门课有短板,然后自己找参考书恶补了一下,从而补上短板。蒸馏、微调、RAGR
14、AG:直译过来叫做“检索增强生成”。相当于这题我不会,但是我有“小抄”,我回答的时候,就看一眼小抄,然后再综合我脑子里的已有知识,进行回答。DeepSeek本地部署1.GPU要求 推荐NVIDIA显卡(RTX 3090/4090/A100等)显存要求:7B模型:至少16GB显存 13B/20B模型:至少24GB显存 70B模型:需多卡并行(如2xA100)支持CUDA 11.7+和 cuDNN 8.5+DeepSeek本地部署-硬件环境准备2.系统要求Linux(Ubuntu 20.04+)或 Windows WSL2Python 3.8+,推荐使用Anaconda/Miniconda管理环境
15、方法1:使用Hugging Face Transformers方法2:使用vLLM加速推理方法3:Docker部署DeepSeek本地部署-部署办法Anything LLM接入下载安装 打开官网,根据自己的系统选择下载对应的版本。安装文件,按照安装向导的提示进行操作,默认路径安装或修改默认安装路径都可以。安装完成后,点击完成自动跳转到AnythingLLM界面。模型配置 LLM Selection(大语言模型选择):选择Ollama,如果本地已通过Ollama部署了DeepSeek等模型,AnythingLLM会自动检测。这意味着模型和聊天记录仅在运行Ollama模型的机器上可访问,保证了数据
16、的安全性和隐私性。Embedding Preference(嵌入偏好):使用AnythingLLM Embedder嵌入工具,文档文本会在AnythingLLM的实例上私密嵌入,文本数据的处理和转换在本地进行,不会泄露给第三方。Vector Database(向量数据库):使用LanceDB作为向量数据库,向量和文档文本都存储在AnythingLLM实例上,进一步确保数据的私密性和安全性。接入DeepSeek模型 通过Ollama接入:先在本地通过Ollama部署DeepSeek模型,然后在AnythingLLM中选择Ollama作为语言模型推理后端,AnythingLLM会自动连接到本地Ol
17、lama服务中的DeepSeek模型。通过DeepSeek R1 API接入:在AnythingLLM工作区右侧点击设置,选择聊天设置,更改LLM模型为DeepSeek,输入API Key并选择DeepSeek R1模型,点击更新工作区即可。搭建本地知识库 在AnythingLLM左侧工作区找到上传按钮,选中要上传的文档,点击移动到工作区,再点击“Save and Embed”,对文档进行切分和词向量化。完成后,点击图钉按钮,将文档设置为当前对话的背景文档,即可在聊天窗口基于上传的文档内容与模型进行对话。本地部署方法Ollama+DeepseekLM Studio+DeepSeekAnythi
18、ng LM+Ollama+Deepseek+向量模型(Embessing Model)Dify+Ollama+Deepseek+向量模型(Embessing Model)OllamaLM StudioDeepSeek模型下载模型OllamaLM StudioDeepSeek模型下载模型Anything LMDify调用模型Ollamau下载Ollamau运行Ollamau运行Ollama run deepseek-r1LM Studio本地部署 前期准备:确保设备满足一定硬件要求,显卡需GTX 1060(6GB)及以上,推荐RTX3060及以上;内存8GB及以上,推荐16GB及更高;C盘剩余2
19、0GB空间,建议使用NVMe固态硬盘。安装LM Studio客户端:在官网lmstudio.ai下载对应操作系统的安装包,双击运行并按提示完成安装。启动后,点击右下角设置图标将语言改为简体中文。加载模型:自行下载获取模型,下载到本地后,点击左上方文件夹图标选择模型目录导入;若不会找模型,可在LM Studio的设置里,勾选“Use LM Studios Hugging Face”,再点击左上方搜索图标搜索deepseek选择模型。注意参数规模不同,性能和硬件需求有差异。例如,1.5B适合体验尝鲜,7B适合普通创作及开发测试,8B适合对内容要求更高的场景,14B适合专业及深度内容创作。LM St
20、udio+DeepSeekLM Studio可以通过huggaface下载Deepseek各种蒸馏模型(GGUF)DeepSeek UI客户端使用Anything LM+Ollama+Deepseek RAG数据库工程LLM首选项向量数据库Embedder首选项文本分割RAG中的Embedding模型Embedding模型贯穿RAG流程多环节Cherry LM+DeepSeek API大模型智能体工程五大 AI Agent 多智能体开发框架微软AutoGen:Github 地址:https:/ 地址:https:/ 地址:https:/ Swarm:Github 地址:https:/ 地址:h
21、ttps:/ Coze+Deepseek API(Deepseep R1)业务流 Dify+Deepseek API搭建本地知识库 Langchain+Deepseek API 业务流工程2025七款RAG1.R2R:官网:https:/r2r-docs.sciphi.ai/功能:用于开发本地RAG应用程序,支持多模态内容摄取、混合搜索、知识图谱构建、GraphRAG,具备用户管理、可观测性、配置及可视化交互等功能,适用于处理动态数据和复杂实体关系的应用程序。2.Cognita:官网:https:/ Pipeline和50+小型专用模型,适用于定制特定领域解决方案。4.LangChain:官网
22、:https:/ 赋能各行业的应用场景 1.DeepSeek赋能酒企场景-市场分析与消费者洞察-智能营销与个性化推荐-生产优化与质量控制 -供应链管理与库存优化 -品牌故事与文化传播 -智能客服与消费者互动 -新品研发与口味预测 2.DeepSeek赋能房产装修-智能设计与方案生成 -虚拟现实(VR)与增强现实(AR)体验 -施工进度管理与优化 -材料采购与供应链优化 -客户需求分析与个性化服务 -智能客服与售后支持 -装修质量检测与问题预测 -市场趋势分析与营销策略优化 xu 3.DeepSeek赋能知识产权服务-专利检索与分析 -侵权检测与风险评估 -知识产权法律咨询 -专利撰写与优化 -
23、知识产权交易与估值 -知识产权管理与监控 -知识产权培训与教育 -知识产权战略规划 4.DeepSeek赋能金融行业-智能投顾与投资分析 -风险管理与欺诈检测 -客户服务与智能客服 -信用评分与贷款审批 -市场趋势分析与预测 -自动化交易与算法交易 -金融产品设计与定价 -合规管理与报告生成 5.DeepSeek赋能跨境贸易-市场分析与需求预测 -供应链优化与物流管理 -跨境支付与汇率风险管理 -合规管理与海关申报 -多语言客户服务与沟通 -贸易伙伴匹配与谈判支持 -风险管理与信用评估 -跨境电商营销与推广 6.DeepSeek赋能健康医美-个性化治疗方案设计 -客户管理与智能咨询 -市场分析与需求预测 -治疗效果预测与优化 -智能营销与个性化推荐 -健康数据管理与分析 -医美产品设计与优化 -合规管理与报告生成 7.DeepSeek赋能智库咨询机构-智能研究与数据分析 -政策分析与预测 -行业趋势分析与市场预测 -智能报告生成与优化 -客户服务与智能咨询 -知识管理与信息检索 -多语言支持与跨文化分析 -风险管理与决策支持 谢 谢!2025.2.15