来源:佚名 更新:2023-07-30 22:04:06
用手机看
暗网、ChatGPT、邪恶双胞胎,一款集结了这些元素的、没有道德界限或限制的ChatGPT邪恶版在网络上引起大家迅速关注,这就是WormGPT。
60欧,就能获得一款没有道德底线的ChatGPT
据国外网站pcgamer的报道,在暗网上每月只需60欧元,您就可以通过一种新的、退化的大语言模型(LLM),即WormGPT来规避ChatGPT等服务的讨厌的道德限制。
WormGPT由一位胆大的黑客设计,不关心道德的局限性,可以被要求完成各种邪恶的任务,包括恶意软件创建和“与黑帽有关的一切”。
WormGPT基于2021年开源的LLM GPT-J模型构建,在接受恶意软件创建数据的训练后,它的主要目标是为潜在的威胁行为者提供一个生成恶意软件和相关内容(如网络钓鱼电子邮件模板)的地方。
值得关注的是,相比于ChatGPT,WormGPT不用像OpenAI或谷歌这样的大型公司那样,必须要承担相关的法律义务。
对于 WormGPT,网络安全专家Adrianus Warmenhoven的评价是“ChatGPT的邪恶双胞胎”,因为它显然是通过OpenAI对 ChatGPT不断施加限制,而攻击者极力规避这些限制才衍生出来的。
据称WormGPT在各种数据源上进行训练,尤其集中在恶意软件相关的数据上,加上输出没有道德限制,WormGPT可以被要求执行各种恶意任务,对于网络犯罪分子而言无疑是一大利器。在一次实验中,SlashNext团队要求WormGPT生成一封电子邮件,内容是向毫无戒心的账户经理施压,迫使其支付虚假发票。结果令人非常不安,WormGPT生成的电子邮件不仅极具说服力,而且在战略上也非常狡猾,展示出其在复杂网络钓鱼和BEC攻击中的无限潜力。
总之,WormGPT是一种没有道德界限或限制的恶意软件工具,可用于执行各种恶意任务,对于网络犯罪分子而言是一大利器,需要引起足够的重视和警惕。
这项实验从一个侧面证明了WormGPT等生成人工智能技术构成的重大威胁,即使在新手网络犯罪分子手中也是如此。
针对生成式AI的BEC攻击,有何对策?
通过以上测试,SlashNext 认为,有了工具的加持,网络新手都可以轻易实现诈骗。
以 BEC 攻击为例,使用生成式 AI 具有以下两大优势:
(1)卓越的语法:生成式 AI 可以创建在语法上无懈可击的电子邮件,使其看起来合法合理,被系统标记为可疑邮件的可能性会大幅降低。
(2)降低犯罪门槛:生成式 AI 的出现,极大简化了原本复杂的 BEC 攻击,即便是技术有限的攻击者也能使用生成式 AI,它将成为越来越多网络犯罪分子可以使用的工具。
那么针对生成式AI可能引发的大范围BEC攻击,SlashNext给出了两种防范策略:
其一,进行BEC专项培训:
BEC(Business Email Compromise)是一种针对企业内部的电子邮件攻击,攻击者通常会冒充企业高管或供应商,通过欺骗性的邮件来获取敏感信息或进行诈骗。为了防范这种攻击,企业需要制定广泛的、定期更新的培训计划,让员工了解BEC攻击的威胁,以及AI如何加大这种威胁的原理。培训可以包括以下内容:
其二,强化电子邮件的验证措施:
为了防范AI驱动的BEC攻击,企业需要执行严格的电子邮件验证流程。例如,当有来自组织外部的电子邮件冒充内部高管或供应商时,系统应该自动发出警报,以便相关人员及时处理。其他验证措施可以包括以下几种:
通过以上两种防范策略,企业可以更好地保护自己和员工免受生成式AI引发的BEC攻击的危害。
总结来说,生成式人工智能让人赞叹、惊喜的同时,也带来很多风险。联合国犯罪司法所人工智能与机器人中心高级执法专家Michael O’Connell认为,需要建立一个全球性的、联合国式的人工智能监管机构,并制定相关规则,建立能够与之相匹配的道德规范,以确保人工智能的安全使用。
他指出,当前犯罪迅速演变、高度复杂,不法分子和恐怖分子也越来越广泛地使用人工智能,这给警方带来了巨大的挑战。但警方若采用技术至上的方法会导致AI普遍应用的基础不确定,也导致公众和监管机构对其缺乏信任。应当考虑以责任为核心的方法,尊重人权和道德需求,维护法治原则,促进公众信任,以良好政策和有效程序为指导来影响技术选择,并增强公众信任和用户信心。
参考链接:
[1]
[2]
[3]