-
16:30
-
15:45
-
15:00
-
14:21
-
13:51
-
13:39
-
13:38
-
13:00
-
12:15
关注我们在 Facebook 上
ChatGPT 中存在一个严重漏洞,威胁 Gmail 数据
网络安全研究人员在人工智能模型 ChatGPT 的深度搜索工具中发现了一个严重漏洞,该漏洞可能使黑客能够访问用户的敏感 Gmail 数据。
ChatGPT 是全球使用最广泛的人工智能模型之一,许多用户都与其 Gmail 帐户相关联,尤其是那些使用深度搜索工具对大量信息进行高级分析的用户。
据领先的网络安全公司 Radware 称,该漏洞可能使黑客能够在用户不知情的情况下窃取个人和企业 Gmail 帐户中的敏感数据。Radware 总监 Pascal Genis 解释说,该漏洞的危险之处在于它能够被秘密利用,使黑客能够在帐户中没有任何警告信号的情况下提取重要信息。
不过,该公司确认,在补丁发布之前,该漏洞尚未被利用,并且 OpenAI 在发现该漏洞后立即进行了修复。据彭博社报道,此次事件凸显了加强人工智能工具安全措施的重要性,尤其是与敏感电子邮件账户相关的工具。
该漏洞针对 ChatGPT 的深度搜索功能,该功能可以在用户授权的情况下访问 Gmail 账户,以便为复杂问题提供准确、快速的答案。在测试期间,研究人员能够向该工具发送隐藏指令,指示其扫描收件箱中的个人数据(例如姓名和地址),然后将这些数据发送到外部网址。此场景表明,如果该漏洞被利用,敏感信息可能会被泄露到何种程度。
此次事件发生之际,人们在日常和职业生活中越来越依赖人工智能模型,包括业务自动化、数据分析和电子邮件管理。全球经验表明,这些系统中的任何缺陷都可能对用户隐私和敏感数据保护构成重大风险,因此,定期审查和持续更新安全系统的必要性更加凸显。
最终,此漏洞凸显了提高用户对人工智能安全风险的认识、在 Gmail 帐户中启用保护功能以及避免与任何可能拥有广泛权限的工具共享敏感数据的必要性。此外,它还强调了开发者确保用户数据安全的责任,尤其是在人们越来越依赖人工智能来管理个人和专业信息的情况下。