报告:2023年全球暗网售出20多万个ChatGPT凭证

极客AI
报告显示,4%以上的员工向人工智能聊天机器人输入敏感数据,包括商业信息、个人身份信息和源代码。

本文来自极客网,作者:极客AI。

根据网络安全公司Group-IB研究人员日前发布的一份威胁情报报告,2023年有20多万个OpenAI的ChaGPT凭证在全球暗网市场上出售。

报告称,这些ChatGPT账户是网络犯罪分子利用目标设备上的RedLine和LummaC2等信息窃取恶意软件而被窃取。

640 (1).png

根据报告,与2023年1月至5月相比,在2023年6月至10月,泄露的ChatGPT凭证数量增加了36%。LummaC2被发现是最常用的一种数据泄露工具。

此外,网络犯罪分子在此期间还开发了类似Chatgpt的工具,其中包括WormGPT、WolfGPT、DarkBARD和FraudGPT,这些工具通过社交工程(social engineering)和网络钓鱼策略来实现信息伪造恶意软件活动。

这一趋势凸显了与敏感组织数据相关的人工智能的威胁。出于工作目的,员工经常在聊天机器人中输入机密信息或专有代码,这可能会让网络犯罪分子获得敏感信息。

报告显示,4%以上的员工向人工智能聊天机器人输入敏感数据,包括商业信息、个人身份信息和源代码。

报告强调,组织应实施最佳实践,包括对复制粘贴操作的控制和对人工智能交互的组级(group-level)安全控制。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论