ChatGPT登录在黑暗网络论坛和市场上泄露

AI伦理与社会11个月前发布 yundic
87 0 0

新加坡网络安全咨询公司Group-IB检测到令人震惊的ChatGPT登录信息泄露。

根据 根据Group—IB,超过101,134台保存了ChatGPT登录详细信息的设备被信息窃取者(一种旨在提取敏感数据的恶意软件)攻破。 从登录凭据、银行数据、浏览历史记录等,信息窃取者挖掘并转发数据给运营商。

Group-IB的威胁情报平台识别在黑暗网络市场上交易的受攻击的ChatGPT登录。

今年5月,26,802个被破坏的ChatGPT账户出现在黑暗网络日志中,违规行为达到顶峰。亚太地区占泄露数据的大部分。

为什么人们需要ChatGPT登录?

ChatGPT每天都会收到大量数据,包括个人和商业信息。

OpenAI警告用户不要与AI共享敏感和个人信息,但如果你使用该工具生成简历或分析公司内部信息,这就很困难了。此外,人工智能默认保存用户交互和记录,包括任何潜在的敏感数据。

Group—IB表示,网络犯罪集团对ChatGPT登录的潜力越来越感兴趣,特别是当用户可以从其他个人信息中识别出来时。例如,公司CEO完全有可能将敏感信息共享给ChatGPT,这些信息可用于黑客攻击、勒索和其他犯罪活动。

Group—IB威胁情报主管Dmitry Shestakov评论道:”许多企业正在将ChatGPT整合到其运营流程中。员工输入机密信件或使用机器人优化专有代码。鉴于ChatGPT的标准配置保留了所有对话,如果威胁参与者获得了帐户凭据,这可能会无意中为他们提供大量敏感情报。在Group—IB,我们正在持续监测地下社区,以及时识别此类账户。

鉴于这些安全威胁,Group—IB建议用户持续更新密码并激活双因素身份验证,以保护其ChatGPT帐户。

要将2FA添加到您的ChatGPT帐户,请导航到“设置”,该选项应该会出现。然而,在撰写本文时,ChatGPT已经暂停了设置,没有解释—也许他们正在为应用程序添加更多的安全功能。

许多公司警告员工不要与ChatGPT和其他大型语言模型(LLM)共享敏感信息。 包括谷歌,他告诉员工要小心他们使用聊天机器人的方式,包括他们自己的LLM,Bard。

诈骗者一定会找到创造性的方法来使用被黑客攻击的ChatGPT账户-用2FA保护你的账户,以确保你的数据安全,并定期清除聊天日志。

© 版权声明

相关文章

暂无评论

暂无评论...