最近在知名黑客论坛 BreachForums 上,一名自称“emirking”的俄罗斯黑客高调宣布:手握超过 2000 万个 OpenAI ChatGPT 账户的登录信息,谁想要就可以联系他购买。这则消息由 AI 创业公司 OpenAI 和网络安全公司 Malwarebytes Labs 联合披露,引发行业内外的广泛关注。毕竟,若此事属实,海量用户信息泄露所带来的潜在风险不可小觑。
根据 Malwarebytes 的博客披露,“emirking”于 2025 年 1 月在 BreachForums 注册,发帖数量仅有两篇。该黑客在论坛上以俄语口吻透露自己绕过了 OpenAI 的身份验证系统,并且拥有可供访问数千万个 ChatGPT 账户的“访问代码”。他对此毫不掩饰,甚至称这是“一大笔财富”。
安全专家指出,从时间线和行为模式分析,“emirking”很可能是利用了新账号来隐藏身份,以逃避执法机关追踪。同时,如此大规模的登录信息泄露,极有可能来源于对平台自身安全漏洞或管理员权限的攻破,而非单纯的钓鱼邮件或散点式社工攻击。
一旦黑客掌握了有效的账户登录信息,用户的 ChatGPT 对话内容、账号绑定信息都有可能面临二次威胁。除了直接窥探用户的隐私数据,这些信息还可能被不法分子运用到精心策划的社交工程或金融欺诈当中。尤其对有些用户来说,ChatGPT 对话中往往含有业务机密、个人敏感信息,一旦被不法分子截获,其后果难以估量。
此外,网暴、定向诈骗、钓鱼等行为也随之“水涨船高”。网络犯罪分子可以借助泄露的聊天内容打造更具迷惑性的钓鱼场景,让受害者防不胜防。
面对这起潜在的大规模数据泄露,Malwarebytes 提出了以下四个应急步骤,供 OpenAI 账户持有者参考:
尽管部分用户质疑这份“2000 万条凭证”是否真能直达他们的 ChatGPT 对话记录,但网络安全的威胁往往源于“宁可信其有”的预判。OpenAI 与 Malwarebytes Labs 均在努力核实这次泄露的真实性,但无论结果如何,用户都应保持足够的警惕心,以免为黑客“陪跑”。
一位业内安全专家提醒,在信息化高度普及的当代,任何平台都不是绝对安全的“孤岛”。个人与企业在使用 AI 工具进行交流、储存关键数据时,务必做好加密与备份,定期检查账户安全状况。只有将安全思维前置,才能尽可能降低损失和风险。
这起“2000 万 ChatGPT 账户泄露”风波,再次向人们敲响警钟——科技的飞速进步虽带来巨大红利,也推高了安全隐患的复杂度。一旦核心账号信息被窃取,不仅个人隐私岌岌可危,企业机密、社会秩序都会受到威胁。如何平衡 AI 应用的便利性与网络安全的稳固性,仍然是所有技术平台与用户都必须面对的长期课题。
当每个人都将更多敏感信息托付给 AI 工具,“我们需要怎样的防火墙”也将变得格外重要。在安全与便捷的这场永恒博弈中,唯有多方携手合力,才能守护来之不易的数字时代成果。