Илон Маск (Elon Musk) в подкасте с индийским миллиардером Нихилом Каматом (Nikhil Kamath) вновь предупредил об угрозах, исходящих от искусственного интеллекта, и выделил три ключевых принципа, которые, по его мнению, должны лежать в основе безопасного развития технологии: истина, красота и любопытство. По словам Маска, игнорирование этих основ может привести к тому, что ИИ начнёт генерировать опасные выводы, теряя связь с реальностью.

Илон Маск перечислил три качества, без которых ИИ станет опасным

Лучший процессор за 20 тысяч рублей — сравнение и тесты

Илон Маск перечислил три качества, без которых ИИ станет опасным

Смартфон HUAWEI Mate 70 Pro как выбор фотографа

Илон Маск перечислил три качества, без которых ИИ станет опасным

Наушники HUAWEI FreeBuds 6, которые понимают жесты

Илон Маск перечислил три качества, без которых ИИ станет опасным

Пять главных фишек камеры HONOR Magic 7 Pro

Илон Маск перечислил три качества, без которых ИИ станет опасным

Обзор смартфона HONOR X9c Smart: прочность со скидкой

Илон Маск перечислил три качества, без которых ИИ станет опасным

Репортаж со стенда HONOR на выставке MWC 2025: передовые новинки и стратегические планы на будущее с ИИ

Илон Маск перечислил три качества, без которых ИИ станет опасным

Обзор смартфона HUAWEI Pura 80: удобный флагман с «Алисой»

Илон Маск перечислил три качества, без которых ИИ станет опасным

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Илон Маск перечислил три качества, без которых ИИ станет опасным

Обзор планшета HONOR Pad V9: нейросети спешат на помощь

Илон Маск перечислил три качества, без которых ИИ станет опасным

Маск, являющийся главой Tesla, SpaceX, xAI, X, Neuralink и The Boring Company, подчеркнул, что мощные технологии по своей природе несут потенциальную угрозу, особенно если они не ориентированы на объективную реальность. Он отметил, что ИИ, обучаясь на данных из интернета, неизбежно усваивает ложную информацию, что может нарушить его способность к логическому выводу и привести к «безумным» или разрушительным заключениям.

В подтверждение этой мысли, как пишет CNBC, Маск сослался на проблему «галлюцинаций», то есть генерации ИИ-системами ложных или вводящих в заблуждение ответов, которые уже проявились в реальных продуктах. Например, функция Apple Intelligence на iPhone в начале 2025 года распространила фейковое уведомление о победе британского дартсиста Люка Литтлера (Luke Littler) в чемпионате PDC до того, как тот действительно выиграл турнир.

Маск также подчеркнул важность эстетического восприятия и стремления к познанию, заявив, что ИИ должен проявлять интерес к природе реальности и будущему человечества, а не быть инструментом его уничтожения. Его позиция перекликается с мнением «крёстного отца ИИ» Джеффри Хинтона (Geoffrey Hinton), который ранее оценил вероятность гибели человечества от ИИ в 10–20 %. Среди краткосрочных рисков он назвал галлюцинации и автоматизацию рабочих мест начального уровня. «Мы надеемся, что если достаточно умных людей проведут достаточно исследований, располагая достаточными ресурсами, мы найдём способ создания таких систем ИИ, которые никогда не захотят причинить нам вред», — добавил Хинтон.