AIGC宇宙 AIGC宇宙

哪些国家封杀了DeepSeek?

作者:佚名
2025-02-13 10:19
在人工智能领域的又一轮"狼来了"预警中,各国政府再次上演了一出集体焦虑的好戏。 这次的主角是人工智能公司 DeepSeek,而各国的反应仿佛看到了什么洪水猛兽。 在这场看似声势浩大的"防范"行动中,各国似乎都在用同一个模板复制粘贴着相似的说辞——"安全风险"、"数据担忧",仿佛这些词汇成了一个万能的理由。

在人工智能领域的又一轮"狼来了"预警中,各国政府再次上演了一出集体焦虑的好戏。这次的主角是人工智能公司 DeepSeek,而各国的反应仿佛看到了什么洪水猛兽。在这场看似声势浩大的"防范"行动中,各国似乎都在用同一个模板复制粘贴着相似的说辞——"安全风险"、"数据担忧",仿佛这些词汇成了一个万能的理由。让我们看看这些国家是如何争先恐后地加入这场"禁令大赛"的。

哪些国家封杀了DeepSeek?

美国

《华尔街日报》报道称,美国议员们计划提出一项政府法案,禁止在政府所属设备上使用 DeepSeek。

1 月 31 日,美国国家航空航天局(NASA)禁止 DeepSeek 接入其系统及员工设备。据美国消费者新闻与商业频道(CNBC)报道,一周前,美国海军在一封电子邮件中警告其成员,由于 “与该模型的来源和使用相关的潜在安全及伦理问题”,不要使用 DeepSeek。

韩国

韩国产业通商资源部的一位发言人宣布,该部门已暂时禁止员工设备使用 DeepSeek,同样援引了安全方面的担忧。

官员们表示,韩国政府已敦促各部委和机构在使用人工智能程序时要谨慎,包括 ChatGPT 和 DeepSeek。

此前,首尔的信息隐私监管机构 —— 个人信息保护委员会于 1 月 31 日宣布,将向 DeepSeek 发送书面请求,要求其提供有关如何管理用户个人信息的详细情况。

由韩国政府运营的韩国水电与核电公司表示,上个月,它已禁止员工设备使用包括 DeepSeek 在内的人工智能服务。

澳大利亚

澳大利亚政府宣布,已禁止所有政府设备访问 DeepSeek,称存在 “安全风险”。

内政部部长在发布的一份声明中,对所有政府机构强制实施了这一禁令。声明指示所有政府实体 “防止使用或安装 DeepSeek 产品、应用程序和网络服务,若发现,要从澳大利亚政府的所有系统和设备中移除所有现有的 DeepSeek 产品、应用程序和网络服务”。

据澳大利亚媒体报道,内政部长托尼・伯克表示,这项禁令是 “为了保护澳大利亚的国家安全和国家利益”。

意大利

意大利数据保护局(Garante)宣布,由于缺乏有关 DeepSeek 可能如何使用用户提供的个人数据的信息,已下令 “限制 DeepSeek 对意大利用户数据的处理”。

两天前,该机构宣布正在寻求关于这家中国初创公司如何存储和处理用户数据的答案。

相关标签:

相关资讯

DeepSeek太给力了!自家的大模型秘方开源到底!国产大模型雄起

出品 | 51CTO技术栈(微信号:blog51cto)DeepSeek “开源周”第五天,依旧保持了一如既往地“务实”风,满满的诚意。 先来回忆下前四天,源神的慷慨发布——第一天,2月24日,最为外界称道的MLA技术率先开源,这项解码加速器FlashMLA技术能够让英伟达Hopper架构GPU跑得更快,效果更好! 紧接着,25日,直接亮出首个面向MoE模型的开源专家并行通信库DeepEP,实现了MoE训练推理的全栈优化;第三天,则进一步祭出一项跨时代的发布:FP8通用矩阵乘法加速库,从底层让模型训练、微调变得更加流畅丝滑;第四天,也就是昨天的并行优化“三剑客”:DeepSeek-V3和R1 模型背后的并行计算优化技术——DualPipe(双向流水线并行算法,让计算和通信高效协同)、EPLB ( 专家并行负载均衡器,让每个 GPU 都“雨露均沾”)、profile-data (性能分析数据,可以理解成V3/R1 的并行优化的分析经验)可以说前四天的发布聚焦在算力通信、模型架构优化,也就是算力和算法的层面,而接下来第五天的开源则补上了AI三驾马车的最后一块,也是用户体验感知更为明显的一块优化动作:高性能分布式文件系统(数据存储层面的改进)。
2/28/2025 12:32:42 PM

服务器总是繁忙?DeepSeek-R1本地部署图文版教程来啦

最近一段时间,国产大模型DeepSeek-R1在市场上迅速崛起,成为了众多用户的新宠。 然而,伴随其热度与用户量的急剧攀升,由此导致服务器繁忙的状况频繁出现。 为了摆脱服务器繁忙的困扰,本地部署DeepSeek-R1成为了一个绝佳的解决方案,这不仅减少了对网络连接的依赖,还能增强数据安全性。
2/17/2025 10:33:19 AM
Yu

DeepSeek-R1详细解读!

DeepSeek-R1爆火,今天来详细看下。 论文地址::::现有LLMs在推理任务上的改进主要依赖监督微调(SFT)和后训练(Post-Training)方法,但这些方法需要大量人工标注数据且成本高昂。 OpenAI的o1系列模型虽通过扩展推理链(Chain-of-Thought, CoT)提升了性能,但其测试时扩展仍存在挑战。
2/19/2025 8:00:00 AM
GoldMa
  • 1