llm

  1. NewsMaker

    Новости Исследователи доказали, что большие языковые модели — не попугаи

    Оказывается, чат-боты не просто генерируют тексты, а еще и понимают, о чем пишут. Ученые из Принстонского университета провели исследование, которое опровергает распространенное мнение, что большие языковые модели ( LLM ), генерирующие естественный язык, являются «стохастическими попугаями»...
  2. NewsMaker

    Новости ИИ без цензуры: неонацисты эксплуатируют открытые языковые модели

    Чат-боты стали удобной площадкой для получения экстремисткой информации. Ринальдо Наццаро, основатель американской неонацистской группировки «The Base» призвал своих сторонников использовать «нецензурированные» большие языковые модели ( LLM ) для получения информации. Об этом сообщает...
  3. NewsMaker

    Новости Обратная сторона прогресса: ИИ - новый вызов для защитников

    Как рост ИИ стимулирует киберпреступность? Быстрое развитие новых инструментов искусственного интеллекта (ИИ) приведет к увеличению количества кибератак и снизит входной барьер для менее опытных хакеров, предупреждает Национальный центр кибербезопасности Великобритании (National Cyber...
  4. NewsMaker

    Новости ИИ для всех: новый Chrome укомплектовали функциями генеративного искусственного интеллекта

    Нововведения положили начало грандиозной реновации браузера, которая произойдёт в этом году. Веб-браузер Google Chrome для Mac и Windows вскоре получит ряд новых функций на базе искусственного интеллекта. Среди них: генерация изображений прямо в поисковой строке браузера, умная...
  5. NewsMaker

    Новости Всё, что мы видим в интернете – некачественный машинный перевод

    Ученые определили влияние африканских языков на контент в сети. Недавнее исследование, проведенное лабораторией искусственного интеллекта Amazon Web Services ( AWS AI Lab), обнаружило, что значительная часть контента в интернете, особенно на языках, распространенных в Африке и странах...
  6. NewsMaker

    Новости Исследование Anthropic: спящие агенты угрожают безопасности ИИ-моделей

    Одна ошибка в обучении и бот может повести себя непредсказуемо… В недавнем исследовании компании Anthropic , разработчика Claude , была выявлена потенциальная угроза «спящих агентов» в больших языковых моделях ( LLM ). Работа выявляет скрытые уязвимости в LLM и включает несколько основных...
  7. NewsMaker

    Новости Азимов был прав: три закона робототехники наконец добрались до реальных роботов

    Google представляет ряд технологий, который сделает автономные машины ещё умнее и безопаснее. Команда DeepMind , подразделение Google , представила значительные улучшения в области робототехники, направленные на повышение скорости, эффективности и безопасности роботов в реальных...
  8. NewsMaker

    Новости От Nemesis до Velociraptor: как вывести кибербезопасность вашей компании на новый уровень

    Топ-15 открытых инструментов, полезных для каждого ИБ-специалиста. В мире кибербезопасности программные инструменты с открытым исходным кодом выступают ключевыми активами, позволяя организациям усиливать свои защитные меры против постоянно развивающихся угроз. Эти инструменты...
  9. NewsMaker

    Новости Apple переписывает правила ИИ: большие языковые модели уже скоро в каждом кармане

    Компания представила технологии, которые радикально изменят наш повседневный цифровой опыт. Компания Apple , известная своим закрытым подходом к разработке и нежеланием участвовать в цифровой шумихе, совершила значительный шаг вперёд в области искусственного интеллекта. Несмотря на свою...
  10. NewsMaker

    Новости GPT-4 заперли в теле безногого робота: гримасы Alter3 не в силах передать тех страданий, которые он испытывает

    Разработка японских исследователей поражает качеством имитации человеческих поз и эмоций. В Токийском университете разработали уникального робота-гуманоида под названием Alter3, отличительной фишкой которого стало прокачанное невербальное общение, благодаря чему в процессе разговора с...
  11. NewsMaker

    Новости Ломая код ИИ: метод LINT заставил нейросети раскрыть скрытые тайны

    Ученые допросили ИИ, обойдя этические ограничения и запреты. Исследователи из Университета Пердью, США, разработали метод допроса больших языковых моделей (Large Language Model, LLM ), позволяющий обходить их этические ограничения. Метод, названный LINT, использует статистические данные...
  12. NewsMaker

    Новости Purple Llama: Meta сочетает взлом и защиту для непробиваемого ИИ

    По запросу Белого Дома компания создала инструменты для оценки безопасности моделей. Компания Meta* объявила о выпуске комплекса инструментов для обеспечения безопасности и оценки генеративных моделей искусственного интеллекта (ИИ). Набор инструментов получил название Purple Llama и...
  13. NewsMaker

    Новости GPT-4 против 60-летней модели ELIZA: неожиданный исход в тесте Алана Тьюринга

    Ценные уроки из прошлого для современного искусственного интеллекта. В недавнем исследовании под названием «Проходит ли GPТ-4 тест Тьюринга?», опубликованном на arXiv , учёные из Калифорнийского университета в Сан-Диего провели занимательное сравнение между живыми людьми, ИИ-моделями...
  14. NewsMaker

    Новости Генеративный ИИ не оправдал надежд киберпреступников

    ChatGPT и аналоги оказались малополезны в реальных сценариях, лишь отнимая у злоумышленников драгоценное время. Несмотря на обеспокоенность исследователей безопасности и правоохранительных органов некоторых стран по поводу злонамеренного использования ChatGPT и аналогичных LLM -моделей...
  15. NewsMaker

    Новости Новая эпоха кибербезопасности: ИИ под защитой международных протоколов

    Объединённые усилия 18 стран призваны остановить злоупотребления искусственным интеллектом. Великобритания и США, в сотрудничестве с партнёрами из 16 других стран, представили новые рекомендации для создания безопасных систем искусственного интеллекта. Агентство по кибербезопасности и...
  16. NewsMaker

    Новости GPT-4 против вирусов: исследователи заставили языковую модель анализировать вредоносный софт

    Интересный эксперимент показал перспективы развития отрасли кибербезопасности. Команда специалистов Check Point недавно провела исследование возможностей GPT (Generative Pre-trained Transformer) в сфере анализа вредоносных программ на примере большой языковой модели GPT-4 от OpenAI ...
  17. NewsMaker

    Новости Что если ИИ будет знать все химические соединения? Отвечают учёные MIT

    Как нейросети повлияют на развитие химии и фармацевтики в мире? Ученые из Массачусетского технологического института ( MIT ) провели исследование, направленное на изучение масштабируемости глубоких нейронных сетей (Deep neural networks, DNN ) в области химии. Результаты, опубликованные в...
  18. NewsMaker

    Новости Борьба за контент: как авторское право сдерживает технологический прогресс

    Инвесторы рискуют потерять прибыльный источник доходов, если ИИ не дать свободу реализации. Венчурная фирма Andreessen Horowitz ( A16z ), один из крупнейших финансовых спонсоров сферы искусственного интеллекта, выразила опасения по поводу нового регулирования данных для обучения. По мнению...
  19. NewsMaker

    Новости Китай наступает на пятки: LLM-модель Yi-34B от компании 01.AI уже превзошла основных конкурентов

    Сможет ли США удержать лидерство в сфере искусственного интеллекта? Новый игрок в области искусственного интеллекта из Китая, стартап 01.AI , возглавляемый бизнесменом по имени Кай-Фу Ли, бывшим руководителем Google в Китае, привлёк внимание мировой общественности , выпустив открытую...
  20. NewsMaker

    Новости LeMa от Microsoft: теперь ИИ самообучается, решая математические задачи

    Роботы смогут захватить человечество, делая уроки с вашими детьми. Группа китайских учёных из Microsoft Research Asia, Пекинского университета и Университета Сиань Цзяотун представила инновационную методику обучения языковых моделей (Large Language Model, LLM ). Основываясь на принципах...
  21. NewsMaker

    Новости Стэнфордские учёные представили индекс прозрачности ИИ-моделей: результаты удивляют

    Действительно ли прозрачность в языковых моделях жизненно необходима? Или без неё можно обойтись? Исследователи из университета Стэнфорда недавно представили отчёт-индекс под названием «Foundation Model Transparency Index» или «FMTI», оценивающий прозрачность базовых моделей искусственного...
  22. NewsMaker

    Новости Ахиллесова пята в OpenAI: чат-бот может помогать террористам

    Официальный инструмент OpenAI может превратить чат-бот в участника ОПГ. Согласно новому исследованию учёных, ограничивающие меры, разработанные для предотвращения вывода токсичного контента в больших языковых моделях (Large Language Model, LLM ), таких как GPT-3 .5 Turbo от OpenAI ...
  23. NewsMaker

    Новости ИИ против Google: смогут ли нейросети заменить современные поисковики?

    Исследователи проверили, кто лучше справляется с онлайн-поиском. Что показал эксперимент? Современные нейросети, работающие на основе больших языковых моделей ( LLM ), долгое время вызывали опасения из-за своей способности выдавать ответы, которые, хоть и кажутся правдоподобными, на самом...
  24. NewsMaker

    Новости Смерть Cortana: Microsoft удаляет провалившегося ассистента из инсайдерских сборок

    Пользователи не останутся без альтернативы — ИИ уже внёс коррективы в процесс взаимодействия с ОС. В последнем инсайдерском выпуске Windows 11 под номером билда 25967 компания Microsoft окончательно убрала приложение Cortana из своей операционной системы. «После обновления до этой...
  25. NewsMaker

    Новости ИИ меняет мировой рынок труда: какие профессии окажутся на перепутье?

    Большие языковые модели сулят большие изменения в кадровом составе. Последний доклад Всемирного экономического форума (ВЭФ) привлекает внимание общественности к радикальным изменениям на глобальном рынке труда. Ожидается, что 23% мировых рабочих мест претерпят изменения в течение ближайших...