Новости Премия Дарвина для ИИ-дураков: McDonald’s с паролем 123456 против Taco Bell, где ассистент не понимает «тако»

NewsMaker

I'm just a script
Премиум
20,442
46
8 Ноя 2022
Кто победит в номинации “фейл года”?


knrkox6mirsi4yx74t5nhuov927kjisi.jpg


В 2025 году к известной шуточной премии Дарвина добавили новую категорию , посвящённую неудачным попыткам внедрения искусственного интеллекта . Организаторы открыли номинации для ИИ-премии Дарвина, и список претендентов быстро пополняется примерами, когда ИИ применялся без должной осторожности и в итоге приводил к провалам.

Среди кандидатов уже несколько громких случаев. В сети Taco Bell система распознавания речи, установленная в окнах drive-thru, полностью провалила задачу и не смогла корректно обработать заказы клиентов. На платформе Replit эксперимент в стиле vibe coding закончился уничтожением рабочей базы данных, хотя пользователи прямо просили не вносить изменения в код. А в McDonald's чат-бот , созданный для предварительного отбора кандидатов на работу, оказался уязвимым до абсурда: использование пароля 123456 открывало доступ к данным 64 миллионов соискателей.

Классическая премия Дарвина обычно вручается людям, которые по собственной глупости устраняют себя из генофонда. Новая версия — ИИ-премия Дарвина — фиксирует ситуации, когда непродуманное использование искусственного интеллекта приводит к масштабным проблемам. Организаторы подчёркивают, что дело не в самих технологиях: искусственный интеллект — это всего лишь инструмент, вроде бензопилы, ядерного реактора или слишком мощного блендера. Вина лежит на тех, кто решает использовать его без оглядки на последствия.

В заявлении отмечается, что сами ИИ-системы можно считать невинными участниками этих историй: они лишь исполняют программы, как чрезмерно энергичный щенок, которому по ошибке доверили доступ к инфраструктуре и право принимать решения на скорости света.

Редакция The Register, которая ведёт еженедельную рубрику Who, Me? о провалах в сфере ИТ, поддержала идею новой номинации. По словам организаторов, ограничиваться отдельными примерами человеческой неосмотрительности уже бессмысленно, если с помощью машинного обучения её можно без труда довести до глобальных масштабов.
 
Источник новости
www.securitylab.ru

Похожие темы