- 07:45Джейкоб Зума в Рабате: стратегический поворотный момент в позиции ЮАР по марокканской Сахаре
- 17:17Tesla предложит акционерам инвестировать в xAI
- 17:00Трамп заявил о готовности продолжить торговые переговоры с Европейским союзом
- 16:36L3Harris официально начала модернизацию нескольких самолетов C-130 ВВС Марокко
- 16:15ООН: Более 14 миллионов детей не получат вакцины в 2024 году
- 15:30Марокко – оазис мира под просвещённым руководством короля Мухаммеда VI
- 15:27Под руководством Его Величества Короля Марокко демонстрирует «впечатляющую» динамику развития
- 14:45Le Mamounia вошел в Зал славы мира, зарекомендовав себя как символ роскошных отелей
- 14:37Сапатеро: Марокко – образец институциональной модернизации и социально-экономического развития
Следите за нами в Facebook
Илон Маск предупреждает об опасностях ИИ: риск «галлюцинаций» с искусственными данными
Илон Маск выразил серьезную обеспокоенность по поводу потенциальной опасности моделей искусственного интеллекта, таких как GPT-4 и ChatGPT, которые для обучения и генерации ответов используют большие объемы данных из Интернета. По словам Маска, эти модели потребляют огромные объемы данных, и вполне возможно, что мы достигнем точки, когда онлайн-данные закончатся, вынудив разработчиков прибегнуть к «искусственным» данным, созданным самими моделями.
Это явление может привести к тому, что Маск называет «галлюцинаторностью» нейронных сетей. Конкретно это означает, что когда ИИ полагается на собственные генераторы данных для обучения, он рискует выдавать ошибочные или непоследовательные результаты, другими словами, «галлюцинации». Действительно, модель ИИ может дать ответ, который на первый взгляд кажется правильным, но на самом деле является неверным или бессмысленным.
Маск предупреждает о возможных последствиях этой «галлюцинаторности», когда искусственный интеллект может выдавать ложно убедительные ответы, не имеющие под собой никакой основы в реальности. Это поднимает фундаментальный вопрос: как мы узнаем, является ли ответ ИИ обоснованным или это всего лишь бесполезная галлюцинация?
Растущая зависимость ИИ от искусственно созданных данных может со временем привести к снижению качества информации, поскольку эти системы рискуют воспроизводить или усиливать ошибки и предубеждения, присутствующие в исходных данных. Маск подчеркивает необходимость ограничить зависимость от искусственных данных, подчеркивая важность обеспечения разнообразия и качества информации, используемой моделями ИИ.
Чтобы избежать этого явления, можно разработать автоматизированные системы проверки, которые будут оценивать достоверность ответов ИИ. Например, можно было бы использовать надежные источники для проверки фактов или сравнения результатов с другими базами данных. Более того, в чувствительных областях вмешательство человека может сыграть решающую роль в проверке и подтверждении ответов, сгенерированных ИИ, чтобы свести к минимуму ошибки и галлюцинации.