简体 - 正體 - 手机版 - 电子报

人民报 
首页 要闻 内幕 时事 幽默 国际 奇闻 灾祸 万象 生活 文化 专题 寰宇 维权 视频 杂谈
 
 
 
 
 
 
 

微软:中俄伊朝国家支持的骇客滥用AI工具改进网路攻击能力
 
【人民报消息】美国微软公司在周三公布的一份报告中说,来自俄罗斯、中共、伊朗和北韩的由国家支持的骇客一直在使用微软支持的OpenAI等工具来改进他们的技能并欺骗他们的目标。 据美国之音报导,路透社2月14日报道说,微软在报告中说,微软已查出与俄罗斯军方情报机构、伊朗革命卫队以及与政府有关联的中共和朝鲜黑客组织试图利用ChatGPT等大型语言模型(LLM, Large Language Model)来完善他们的网路攻击。 这些大型语言模式人工智慧工具吸取海量文字来产生人声回应。 微软公司在宣布推出对国家支持的骇客组织使用其AI产品的全面禁令的同时,披露了这些骇客组织利用AI改进网路攻击能力的最新发现。 微软客户安全副总裁汤姆·伯特(Tom Burt)在该报告发布前对路透社说,「不论是否有违反法律或任何服务条款,我们就是不想让我们辨识出的威胁操手-我们跟踪和了解的各类威胁操手--取得这个技术。」 报道说,俄罗斯、北韩和伊朗的外交官没有立即回应对微软指控置评的请求。中共驻美大使馆发言人刘鹏宇(Liu Pengyu) 称,反对针对中共的毫无根据的抹黑和指控,中共推动安全、可靠及可控地使用AI技术来提升整个人类的福祉。 有关这些国家支持的骇客被捕捉到使用AI帮助提升这些国家间谍能力的指控突显出有关AI技术快速扩散及可能被滥用的忧虑。 西方资深网路安全官员从去年就一直在警告,流氓操手在滥用这些工具,不过,在微软做出该披露之前,具体的证据不多。 OpenAI负责网路安全威胁情报的鲍勃·罗特斯泰德(Bob Rotsted)说,「这是首次有AI公司出面公开讨论网路威胁操手使用AI技术。」 OpenAI和微软将这些骇客使用它们的AI工具描述成是处于「早期」且「渐进的」。 微软客户安全副总裁汤姆伯特说,两家公司都没有看到这些网路间谍获得任何突破。 该报告说,这些骇客组织使用这些大型语言模式的方式不同。 微软说,据称为俄罗斯军方间谍机构「GRU」效力的骇客使用这些工具研究不同的可能与在乌克兰常规作战中有关的卫星和雷达技术。 北韩的骇客使用这些工具来产生可能用于针对地区专家的鱼叉式网路钓鱼(Spear phishing)内容。 伊朗骇客也依赖这些工具来产生更令人信服的网路钓鱼电子邮件,其中一个实例是产生一个试图引诱「知名女权活动人士」进入一个陷阱网站。 微软这个软体巨头也说,中共国家支持的骇客也用这些大型语言模式做测试,试图就敌对情报机构、网路安全问题以及「知名个人」进行询问。 美联社说,微软向OpenAI投资了几十亿美元。微软表示,一个叫「水熊猫」的中共高级持续性威胁(APT) 网路间谍组织与这些大型语言模式进行过互动,显示该组织进行大型语言模型如何能加强它们技术操作的有限探索。该组织针对的目标是从法国到马来西亚的广泛的产业、高等教育及政府机构。 美国网路安全和基础设施安全局局长珍·伊斯特利(Jen Easterly)去年4月在美国国会作证时表示,「有两个划时代的威胁和挑战。一个是中共,另一个是人工智慧。」 她强调,美国需要确保AI技术是基于安全而建。 对ChatGPT在2022年11月的公开发行,以及随后的竞争者谷歌和Meta推出的AI产品的批评人士说,考虑到安全基本上是在AI开发过程中的滞后考虑,AI开发是非常不负责任的操之过急。△
文章网址: http://www.renminbao.com/rmb/articles/2024/2/15/80649.html
打印机版

如果您喜欢本文章,欢迎捐款和支持!

 
     


分享至: Facebook Twitter Google+ LinkedIn StumbleUpon Pinterest Email 打印机版
 
 
 
 
 
 

 
 
 
 
 
 
 
 
 
 
 
  
  
  九评共产党
  历史惊变要闻
  神韵晚会
  共产主义的终极目的
  魔鬼在统治著我们世界
  秘卷玄学系列
  高层秘闻内幕
  时事评论
  奇闻怪事
  天灾与人祸
  政治小笑话
  环宇遨游
  三退保平安
  还原历史真相
  江泽民其人
  焦点专题
  神传文化
  民间维权
  社会万象
  史前文明
  官场动态
  国际新闻
  控告江泽民
  活摘器官与贩卖尸体
  精彩视频
  谈东谈西
  聚焦法轮功
  精彩网语
 
 
本报记者
 
 
专栏作者
 
首页 要闻 内幕 时事 幽默 国际 奇闻 灾祸 万象 生活 文化 专题 寰宇 维权 视频 杂谈
 
 
Copyright© RMB Public Foundation Inc. All Rights Reserved