新加坡网络安全咨询公司Group-IB检测到令人震惊的ChatGPT登录信息泄露。
根据 根据Group—IB,超过101,134台保存了ChatGPT登录详细信息的设备被信息窃取者(一种旨在提取敏感数据的恶意软件)攻破。 从登录凭据、银行数据、浏览历史记录等,信息窃取者挖掘并转发数据给运营商。
Group-IB的威胁情报平台识别在黑暗网络市场上交易的受攻击的ChatGPT登录。
今年5月,26,802个被破坏的ChatGPT账户出现在黑暗网络日志中,违规行为达到顶峰。亚太地区占泄露数据的大部分。
Group-IB已使用保存的#ChatGPT凭据识别出101,134#受窃取程序感染的设备。Group-IB的威胁情报平台在过去一年非法黑暗网络市场上交易的窃取信息的恶意软件的日志中发现了这些被泄露的凭据。Pic.twitter.com/fNy6AngoXM
-Group-IB Threat Intelligence(@GroupIB_TI)2023年6月20日
为什么人们需要ChatGPT登录?
ChatGPT每天都会收到大量数据,包括个人和商业信息。
OpenAI警告用户不要与AI共享敏感和个人信息,但如果你使用该工具生成简历或分析公司内部信息,这就很困难了。此外,人工智能默认保存用户交互和记录,包括任何潜在的敏感数据。
Group—IB表示,网络犯罪集团对ChatGPT登录的潜力越来越感兴趣,特别是当用户可以从其他个人信息中识别出来时。例如,公司CEO完全有可能将敏感信息共享给ChatGPT,这些信息可用于黑客攻击、勒索和其他犯罪活动。
Group—IB威胁情报主管Dmitry Shestakov评论道:”许多企业正在将ChatGPT整合到其运营流程中。员工输入机密信件或使用机器人优化专有代码。鉴于ChatGPT的标准配置保留了所有对话,如果威胁参与者获得了帐户凭据,这可能会无意中为他们提供大量敏感情报。在Group—IB,我们正在持续监测地下社区,以及时识别此类账户。
鉴于这些安全威胁,Group—IB建议用户持续更新密码并激活双因素身份验证,以保护其ChatGPT帐户。
要将2FA添加到您的ChatGPT帐户,请导航到“设置”,该选项应该会出现。然而,在撰写本文时,ChatGPT已经暂停了设置,没有解释—也许他们正在为应用程序添加更多的安全功能。
许多公司警告员工不要与ChatGPT和其他大型语言模型(LLM)共享敏感信息。 包括谷歌,他告诉员工要小心他们使用聊天机器人的方式,包括他们自己的LLM,Bard。
诈骗者一定会找到创造性的方法来使用被黑客攻击的ChatGPT账户-用2FA保护你的账户,以确保你的数据安全,并定期清除聊天日志。