标签: DeepSeek

DeepSeek-Math-V2:开源模型首达IMO金牌水平

 2025年11月29日

在OpenAI发布GPT-5.1、谷歌推出Gemini 3系列的背景下,国内AI独角兽DeepSeek虽然迟迟未能带来基座模型的大更新,但也于本周三晚间低调发布了其最新的技术成果DeepSeek-Math-V2。 据官方披露的技术报告显示,DeepSeek-Math-V2拥有685B参数量,专注于提升大语言模型的数学推理与定理证明能力。在多项高难度数学竞赛基准中,该模型交出了一份极具冲击力的成绩单...

以色列新增禁止向65个国家销售黑客和监视工具

曾对 DeepSeek 等发起攻击:22 岁黑客被捕,运营僵尸网络

 2025年8月24日

IT之家消息,美国联邦当局于当地时间周二宣布,俄勒冈州一名男子因被指控在数年间策划多起大规模网络攻击而面临联邦指控。 22 岁的 Ethan Foltz 被指控自 2021 年以来开发了“Rapper Bot”僵尸网络,该网络由被恶意软件感染并被用于执行分布式拒绝服务(DDoS)攻击的设备组成,例如数字录像机和 WiFi 路由器 —— 这是一种通过发送大量请求使系统过载,从而减缓或关闭网站、服务器...

腾讯CodeBuddy IDE国内版开放公测,DeepSeek-V3.1最新模型免费用

 2025年8月23日

腾讯云代码助手 CodeBuddy 昨晚宣布,CodeBuddy IDE 国内版正式开放公测,无需邀请码即可免费使用最新的 DeepSeek-V3.1 模型。 官方表示,CodeBuddy 可以真正实现一个人变成一整个开发团队的体验,支持产品设计、研发编码、部署验证等功能。 产品设计:一句话生成可落地交互原型,支持上传图片及局部调优。 研发编码:内置 Figma,设计稿秒变可维护源码。同时,内置腾...

DeepSeek-R1的1.5b、7b、32b、671b等模型的区别与应用!

DeepSeek的蒸馏版、量化版区别 及int4、FP16等的意思

 2025年3月5日

DeepSeek的蒸馏版、量化版,以及int4、FP16等术语,主要涉及模型压缩和优化的技术,目的是让模型在保持性能的同时,更高效地运行。以下是这些概念的详细解释: 1. ​蒸馏版(Distilled Version)​ ​蒸馏是一种模型压缩技术,通过训练一个更小的模型(学生模型)来模仿一个更大的预训练模型(教师模型)的行为。 蒸馏版的模型通常更轻量、运行速度更快,同时尽可能保留原始模型的性能。 ...

DeepSeek云端部署频现安全漏洞,本地部署+内网穿透成必然选择

DeepSeek云端部署频现安全漏洞,本地部署+内网穿透成必然选择

 2025年3月5日

近期,DeepSeek热度持续攀升,除了通过API接入的方式外,很多人也选择本地私有化部署。然而,运行该模型所依赖的Ollama开源工具存在缺陷,一方面缺乏完善的鉴权机制,另一方面还存在一些安全漏洞。 如果直接将Ollama部署在云服务器或拥有公网IP的环境中,黑客便能轻而易举地发现并未经授权直接调用私有化部署的DeepSeek。这不仅会导致服务器算力被随意使用,极大地浪费资源且影响正常业务开展,...

快速部署!DeepSeek本机搭建,Ollama与Docker完美结合!

快速部署!DeepSeek本机搭建,Ollama与Docker完美结合!

 2025年3月1日

一、ollama 与 docker 简介 (一)ollama(Ollama) ollama 是一个强大的工具,它为模型的管理和运行提供了便利。它可以简化模型的下载、配置和启动过程,让用户能够快速地将不同的模型集成到自己的工作流程中。例如,在处理多个不同类型的大语言模型时,ollama 可以轻松管理这些模型之间的切换和调用,提高开发效率。 (二)docker docker 则是容器化技术的代表,它能...

本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek,并借助 贝锐花生壳内网穿透,轻松实现安全远程访问,让你随时随地畅享个人专属AI!相比直接将服务部署在云端或使用端口映射进行远程访问,贝锐花生壳内网穿透不仅让远程连接更便捷,还能有效防止未经授权的用户擅自访问本地部署的Ollama,全面保障AI资源的私密性与安全性!一键开启:Ollama + DeepSeek 模型部署首先,进入 Ollama 官网,按照提示几步就能轻松完成安装。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患安装好 Ollama 后,打开命令提示符,参考命令“ollama run deepseek-r1:1.5b”一键下载,DeepSeek-R1 模型就会开始下载安装。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患这里给大家个小建议,DeepSeek-R1 提供了从 1.5B 到 671B 的多种参数选择,大家可以根据自己电脑的显存大小来挑选合适的参数,4G 显存选 1.5B、8G 选 7B、16G 选 14B,这样能保证模型运行更顺畅。Ollama默认仅开启本机访问(无法外部或远程访问)完成上述步骤后,即可在本机通过命令行,或通过http请求实现访问,返回以下结果说明已经正常运行。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患图形化交互:Docker 部署 Open WebUI除了通过命令行与 DeepSeek 交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了 Docker,要是还没安装,需要去 Docker 官网一键下载安装。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患接下来,通过 Docker 部署 Open WebUI :输入“docker run -d -p 3000:8080 --add - host=host.docker.internal:host - gateway - v open - webui:/app/backend/data --name open - webui --restart always”这条命令。如果希望通过其他方式部署,大家也可以自行查看OpenWebUl github主页的教程。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患完成Open WebUl部署后,打开浏览器,浏览器通过本机IP:127.0.0.1+预设的访问端口3000即可打开OpenWebUl。这时候,完善一下本地管理员账号信息,它就已经自动连接到本地的 Ollama 了,选择好模型,就能直接在本地享受图形化交互的便捷。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患利用贝锐花生壳内网穿透,实现安全远程访问无需公网IP,简单3步完成部署如果想随时随地远程访问本地部署的 DeepSeek,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。第一步,先注册一个贝锐账号,然后下载并登录花生壳客户端。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患第二步,进入花生壳云管理平台,填写 Open WebUI 局域网 IP 和默认端口 “3000”,并设置安全访问规则。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患值得一提的是,贝锐花生壳生成的访问地址支持无需本地部署证书,一键采用HTTPS协议,可实现全程加密传输,充分保障数据的私密性和安全性。特别是对于Open WebUI的网页界面,花生壳额外支持加密验证,筑起双重防护屏障。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患第三步,完成设置后,点击保存,就会自动生成一个外网访问地址,随时随地安全访问!本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患整个过程简单高效,无需复杂操作,也无需依赖云服务器,即可打造专属的AI助手!贝锐花生壳强大防护能力,保障安全远程访问不仅如此,贝锐花生壳还提供精细化访问权限控制、爆破防护等高级功能增值服务。它可以基于时间周期、IP 地址 / 区域、浏览器 / 系统版本等条件来判断是否允许访问,自动阻止未经授权的访问请求,再也不用担心私有服务暴露在公网。本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患通过以上这些步骤,我们不仅成功实现了 DeepSeek 的本地私有化部署,还借助贝锐花生壳轻松解锁了远程访问,整个过程简单高效,无需复杂操作,也无需依赖云服务器,就能打造专属的 AI 助手。

本地部署DeepSeek教程:一键远程访问,还能解决Ollama安全隐患

 2025年3月1日

本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek,并借助 贝锐花生壳内网穿透,轻松实现安全远程访问,让你随时随地畅享个人专属AI! 相比直接将服务部署在云端或使用端口映射进行远程访问,贝锐花生壳内网穿透不仅让远程连接更便捷,还能有效防止未经授权的用户擅自访问本地部署的Ollama,全面保障AI资源的私密性与安全性! 一键开启:Ollama + DeepSeek 模...

ollama本地部署DeepSeek不安全?那是你还不懂这些配置

ollama本地部署DeepSeek不安全?那是你还不懂这些配置

 2025年2月28日

今天多家安全机构都发表声明,提醒大家 Ollama 本地部署 DeepSeek 有安全隐患,然后不少朋友都跑来问荣姐到底是什么问题,是不是真的,还能不能本地部署了? 荣姐作为安全从业人员,首先在第一时间就进行了漏洞复现。 最大的问题在于 Ollama 没有进行鉴权方案,也就是如果运行ollama serve时确认环境变量 OLLAMA_HOST 为0.0.0.0,且是在公网运行的,那么代表任何一个...

第30期无名论坛报道丨DeepSeek技术应用的网络安全风险与法律应对解析

第30期无名论坛报道丨DeepSeek技术应用的网络安全风险与法律应对解析

 2025年2月25日

2025年2月18日下午,第30期无名论坛——“DeepSeek技术应用与法律风险洞察”主题讲座在线举办。讲座深度剖析DeepSeek受攻击事件及其背后的安全、法律风险问题,涵盖网络安全技术分析、AI网络安全风险的法律应对等内容,吸引了地方政府、学术界、产业界、教育界人士和学生在内的多群体在线参与学习。 本期论坛由数字丝路安全智库、上合组织数字丝路法治人才创新基地主办,西交苏州信息安全法学所、西交...

仿冒DeepSeek的手机木马病毒被捕获!

仿冒DeepSeek的手机木马病毒被捕获!

 2025年2月24日

近日,国家计算机病毒应急处理中心和计算机病毒防治技术国家工程实验室依托国家计算机病毒协同分析平台在我国境内捕获发现仿冒DeepSeek官方App的安卓平台手机木马病毒。 相关病毒样本信息 用户一旦点击运行仿冒App,该App会提示用户“需要应用程序更新”,并诱导用户点击“更新”按钮。用户点击后,会提示安装所谓的“新版”DeepSeek应用程序,实际上是包含恶意代码的子安装包,并会诱导用户授予其后台...

深度整合丨绿盟科技集成DeepSeek,实现双模型底座共生

 2025年2月20日

近日,DeepSeek凭借其创新的模型架构、出色的训练成本和全面的开源生态,迅速引发了国内外的广泛关注,被视为中国科技界在人工智能领域的一次重大突破。 绿盟科技一直致力于紧跟人工智能技术的发展趋势。在春节前,绿盟科技就已经成功完成了对DeepSeek-R1的接入,并实现绿盟风云卫AI安全能力平台与DeepSeek-R1双模型共同研判分析。 图1:风云卫与DeepSeek-R1双AI底座研判分析 针...

基于Ollama与DeepSeek大模型的本地AI平台搭建指南:Cherry Studio、ChatBox、AnythingLLM深度解析

 2025年2月20日

引言 在AI技术快速发展的2025年,本地化部署大模型成为保护隐私、提升效率的关键方案。Ollama作为轻量级LLM推理工具,结合DeepSeek等国产大模型,为开发者及企业提供了灵活、安全的AI应用基础。本文将以Ollama为核心,解析如何通过Cherry Studio、ChatBox、AnythingLLM三款工具搭建本地AI平台,并融入DeepSeek大模型的实战案例,助您构建高效、私密的智...

北卡成功私有部署DeepSeek:开启加密通信AI新纪元!

 2025年2月20日

近期,北卡科技成功接入顶尖AI大模型DeepSeek! 在数字化浪潮席卷全球的今天,加密通信与AI技术的融合已成为行业发展的必然趋势。 作为一家专注于加密通信领域的国家级专精特新“小巨人”企业,北卡积极探索如何利用AI技术为产品赋能,此次接入DeepSeek,将为北卡产品注入更强大的发展动能。 凭借强大的技术研发能力和丰富的AI大模型接入经验,北卡部分产品现已上线DeepSeek大模型,通过工作台...

实测告诉你:DeepSeek-R1 7B、32B、671B差距有多大?

 2025年2月17日

近日,AI领域迎来了一波新的热潮——DeepSeek-R1模型的发布。从7B到32B再到671B,不同尺寸的模型究竟有何差异?它们的性能表现是否如宣传中所说般强大?今天,我们就通过一系列实测,为你揭开DeepSeek-R1不同版本的差距。 DeepSeek模型尺寸与性能的较量 首先,我们需要明确的是,DeepSeek-R1的7B、32B和671B版本在模型容量上有着显著的差距。7B版本的模型参数量...

腾讯元宝再次发布重大更新,混元与DeepSeek两大模型均支持深度思考

腾讯元宝再次发布重大更新,混元与DeepSeek两大模型均支持深度思考

 2025年2月17日

央广网北京2月17日消息 2月17日,腾讯AI助手“腾讯元宝”再次迎来重大更新,混元+DeepSeek两大模型均支持深度思考功能,用户下载并打开腾讯元宝即可免费使用。 此次更新后,除DeepSeek-R1满血版外,腾讯自研的混元T1深度思考模型也在腾讯元宝开启小范围灰测,用户可以自行选用不同模型解决复杂问题。 深度思考模型,专为复杂任务设计,能够理解问题的多重维度和潜在逻辑关系,不仅提供直接答案,...