Новости Миллиарды OpenAI против Ким Кардашьян: "токсичный" ChatGPT обрушил мечту о карьере адвоката

NewsMaker

I'm just a script
Премиум
21,954
46
8 Ноя 2022
Тесты по юриспруденции провалены из-за «токсичного друга» в смартфоне.


tth1x268de1nxihcuqd12pnrz6e8imur.jpg

Ким Кардашьян призналась, что именно ChatGPT стал причиной её провалов на экзаменах по юриспруденции. Об этом она рассказала в интервью Vanity Fair из серии «проверка на детекторе лжи», где участвовала вместе с коллегой по сериалу «All’s Fair» Тейяной Тейлор.

По словам Кардашьян, она действительно обращается к ChatGPT, но не за советами о личной жизни или свиданиях и не считает чат-бота «другом». Зато активно использует его для юридических вопросов, делая снимки заданий и загружая их в систему. Однако результаты оказались неутешительными — ответы искусственного интеллекта часто были ошибочными. «Из-за этого я провалила кучу тестов. Потом злюсь и начинаю на него кричать», — рассказала актриса.

Она призналась, что порой даже спорит с чат-ботом, упрекая его в том, что тот подвёл её на экзаменах. По словам Кардашьян, ChatGPT «оправдывается» и отвечает, будто просто помогает ей научиться доверять своим инстинктам. В итоге звезда называет его «токсичным другом», от которого вроде бы ждёшь поддержки, но получаешь урок саморазвития.

Кардашьян добавила, что регулярно делает скриншоты своих разговоров с ботом и делится ими в групповом чате, поражаясь, насколько «нагло» он с ней разговаривает. Оператор детектора лжи подтвердил, что её признания были искренними.

История Кардашьян в очередной раз подчёркивает проблему доверия к искусственному интеллекту. Аналитики NewsGuard отмечают, что современные чат-боты, включая ChatGPT, всё чаще выдают ложные сведения. Согласно исследованию , за год количество таких случаев удвоилось. Причина — в том, что языковые модели всё активнее опираются на недостоверные источники и плохо распознают дезинформацию, которая распространяется сетевыми кампаниями. Наибольшее число фактических ошибок NewsGuard зафиксировал у Inflection (56,67%) и Perplexity (46,67%), в то время как ChatGPT допустил искажения в 40% ответов.

Глава OpenAI Сэм Альтман ранее признал, что пользователи чрезмерно доверяют чат-боту. Он напомнил, что искусственный интеллект склонен к « галлюцинациям » — созданию неправдоподобных, но убедительно звучащих выдумок. Чтобы распознать такие ошибки, специалисты советуют обращать внимание на внутренние противоречия, чрезмерную детализацию или, наоборот, туманность формулировок, а также на стереотипные или односторонние объяснения сложных тем.
 
Источник новости
www.securitylab.ru

Похожие темы