- 10:42柬泰达成停火协议,结束致命边境冲突
- 10:15特朗普任命新驻摩洛哥大使:为战略伙伴关系注入新动力
- 10:00特朗普承认加沙存在饥荒,以色列考虑全面占领
- 09:15特朗普威胁对未与美国签订贸易协定的国家征收20%的关税
- 08:57丹吉尔魅力中国:《中餐厅9》收视率爆棚,观众人数达9亿!
- 08:39中国北方洪涝灾害:30余人遇难,数万人紧急疏散
- 08:28摩洛哥成为首个向国际移民组织(IOM)韧性基金捐款的国家:彰显其在移民治理领域的领导地位
- 08:05曼哈顿摩天大楼枪击案:包括一名纽约警察局警官在内的四人丧生,枪手随后自杀
- 07:45“法蒂玛·阿尔·菲赫里教席”在科尔多瓦揭幕,旨在加强摩洛哥与西班牙之间的文化对话
关注我们在 Facebook 上
技术
伊隆·马斯克警告人工智能危险:人工数据可能带来“幻觉”风险
埃隆·马斯克对 GPT-4 和 ChatGPT 等人工智能模型的潜在危险表示强烈担忧,这些模型依赖来自互联网的大量数据来学习和生成答案。马斯克表示,这些模型会消耗大量数据,有可能我们会达到在线数据耗尽的地步,迫使开发人员求助于模型自己创建的“人工”数据。
这种现象可能导致马斯克所说的神经网络的“幻觉”。具体来说,这意味着当人工智能依赖自己的数据生成器进行学习时,它们可能会产生错误或不一致的结果,换句话说就是“幻觉”。事实上,人工智能模型可能会提供乍一看正确但实际上却是错误或毫无意义的答案。
马斯克警告这种“幻觉”的潜在后果,即人工智能可能会产生虚假的、令人信服的答案,但根本没有现实依据。这就引出了一个基本问题:我们如何知道人工智能的反应是有效的还是只是毫无价值的幻觉?
人工智能对人工生成的数据的依赖越来越大,这可能会随着时间的推移降低信息的质量,因为这些系统可能会重现或放大原始数据中存在的错误和偏差。马斯克强调需要限制对人工智能数据的依赖,并强调确保人工智能模型所用信息的多样性和质量的重要性。
为了避免这种现象,可以开发自动验证系统来评估人工智能响应的真实性。例如,可以使用可靠的来源来验证事实或将结果与其他数据库进行比较。此外,在敏感区域,人类干预可以在审查和验证人工智能产生的反应方面发挥关键作用,以最大限度地减少错误和幻觉。