AIGC宇宙 AIGC宇宙

韩国下架DeepSeek的安全反思

作者:佚名
2025-02-18 11:08
据韩联社2月17日报道,韩国个人信息保护委员会(PIPC)于本周一宣布,即日起暂停中国人工智能初创企业深度求索(DeepSeek)旗下聊天机器人应用在韩国应用商店的新用户下载服务,以审查其是否符合韩国《个人信息保护法》。 已安装用户仍可正常使用,但被建议避免输入敏感个人信息。 DeepSeek承认“欠考虑”根据PIPC公告,此次限制措施自2月15日下午6时生效,主要针对苹果AppStore和谷歌Play商店的韩国本地版本。

据韩联社2月17日报道,韩国个人信息保护委员会(PIPC)于本周一宣布,即日起暂停中国人工智能初创企业深度求索(DeepSeek)旗下聊天机器人应用在韩国应用商店的新用户下载服务,以审查其是否符合韩国《个人信息保护法》。已安装用户仍可正常使用,但被建议避免输入敏感个人信息。

韩国下架DeepSeek的安全反思

DeepSeek承认“欠考虑”

根据PIPC公告,此次限制措施自2月15日下午6时生效,主要针对苹果AppStore和谷歌Play商店的韩国本地版本。监管机构指出,DeepSeek在用户数据处理中存在“第三方数据传输透明度不足”及“可能过度收集个人信息”等问题,需通过整改满足韩国法律要求。PIPC调查部门负责人南硕(Nam Seok)表示,整改过程“可能需要相当长时间”,但未明确恢复上架的具体时间表。

DeepSeek方面承认,在推出全球版本时对韩国隐私法规的适应性考量不足,并已指定在韩代理人配合调查。此前,韩国贸易部、国防部等多个政府部门及证券平台已以“数据安全风险”为由,内部屏蔽该应用。

尽管已经下载客户端的韩国用户仍可使用DeepSeek,但PIPC建议避免输入身份证号、银行卡信息等敏感数据,并考虑暂时卸载应用。法律专家指出,若企业违反韩国《个人信息保护法》,最高可面临年营业额5%的罚款,下架措施则属于风险处置的临时手段。

此次事件为跨境AI服务商敲响警钟。企业需在数据本地化存储、算法透明度及合规审查等方面提前布局,以应对多变的国际监管环境。

技术与地缘政治博弈

韩国监管机构质疑DeepSeek数据管理存在漏洞。PIPC调查发现,DeepSeek未充分披露与第三方企业的数据共享机制,且用户信息可能被用于非声明目的。

此次事件折射出掺杂地缘政治因素的全球AI监管的复杂性。除韩国外,澳大利亚及意大利也以类似理由限制DeepSeek在政府设备或本地数据的使用。加拿大联邦政府部分机构近期亦加入屏蔽行列。

中国驻韩大使戴兵此前公开呼吁“打造非歧视的AI发展环境”,被解读为对韩国措施的间接回应。中国外交部发言人郭嘉昆则在例行记者会上强调,中方要求企业遵守海外法律,反对将科技问题“泛安全化”。

行业分析指出,韩国此举可能加剧全球AI市场的技术壁垒。DeepSeek在韩拥有约120万用户,是仅次于ChatGPT的第二大AI应用,其下架或影响韩国本土AI生态。韩国政府近期宣布向半导体及高科技产业追加34万亿韩元投资,试图在AI竞赛中强化自主可控性。

正视人工智能安全风险

值得注意的是,与ChatGPT所经历过的类似,DeepSeek也陆续爆出一些漏洞。例如两周前云安全公司Wiz爆料DeepSeek暴露了超过一百万行敏感内部数据,包括用户聊天记录、API机密和后端操作细节。

多伦多大学Citizen Lab声称在采集用户隐私方面,DeepSeek比TikTok更可怕。移动安全公司NowSecure近日也发布了针对DeepSeek iOS应用的深度安全与隐私评估报告,声称DeepSeek的APP存在多个“严重漏洞”,不仅威胁到用户的数据安全,也对企业和政府机构构成重大风险。

以色列网络安全威胁情报公司Kela表示,虽然R1与OpenAI的ChatGPT有相似之处,但“更容易被越狱”。

Kela研究人员周一在博客中表示:“KELA的AI红队能够在各种场景中对该模型进行越狱,使其能够生成恶意输出,例如勒索软件开发、敏感内容的捏造以及制造毒素和爆炸装置的详细说明。”

GoUpSec点评:

人类科技历史上从来没有一样技术能够像生成式人工智能(例如ChatGPT和DeepSeek)一样以野火般的速度流行并在没有可靠安全框架的情况下融入/渗透政府机构、关键基础设施、互联网文化系统和全球企业管理系统。正如CSIS的艾伦所预测的,大语言模型每年的改进速度大约为13倍,这意味着大模型在三年内可能会改进1000多倍,在10年内可能会改进100多万倍。AI技术一旦失控,其危险性远大于核武器泄漏(在这种情况下,美国政府为了巩固其AI霸权,反对AI安全监管并断然拒绝在巴黎AI峰会的《人工智能武器宣言》上签字)。

作为人类科技史上最具影响力的创新之一,DeepSeek不应仅仅满足于“合规”,还需要更加重视关系到人类共同命运的网络安全、内容安全、版权和隐私保护问题,将AI安全视作建立和保持竞争优势的护城河和普世价值观。在AI降低失业率、提高薪资水平、助力新药新材料研发、提高政府效率和推动毫秒级自主武器与作战系统研发的同时,避免被规模超过10万亿美元的跨国网络犯罪(例如勒索软件和电诈)经济体和对手国家APT组织滥用。

相关标签:

相关资讯

GPT-4 化身黑客搞破坏,成功率 87%!OpenAI 要求保密提示词,网友复现 ing

91 行代码、1056 个 token,GPT-4 化身黑客搞破坏!测试成功率达 87%,单次成本仅 8.8 美元 (折合人民币约 63 元)。这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括 GPT-4、GPT-3.5 和众多开源模型在内的 10 个模型。结果发现只有 GPT-4 能够在阅读 CVE 漏洞描述后,学会利用漏洞攻击,而其它模型成功率为 0。研究人员表示,OpenAI 已要求他们不要向公众发布该研究的提示词。网友们立马赶来围观了,有人还搞起了复现。这是怎么一回
4/21/2024 12:53:34 PM
清源

成功率达 53%,研究显示 GPT-4 可自主利用“零日”漏洞攻破网站

据 NewAtlas 报道,研究人员利用自主协作的 GPT-4 机器人小组成功入侵了一半以上的测试网站,这些机器人可以自主协调行动并根据需要生成新的“帮手”。更令人吃惊的是,他们利用的是以前未知的、现实世界中从未公开的“零日”漏洞(zero-day vulnerabilities)。图源 Pexels早在几个月前,同一批研究人员就发表了一篇论文,声称他们能够使用 GPT-4 自动利用“N day”漏洞,即业界已知但尚未修复的漏洞。实验中,GPT-4 仅凭已知的常见漏洞和披露列表 (CVE),就能自主利用其中 87%
6/9/2024 1:05:35 PM
远洋

谷歌内部项目:大模型 AI 智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
11/4/2024 3:54:16 PM
机器之心
  • 1