Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Poison Fountain может навсегда подорвать доверие к стремительно растущей ИИ-индустрии.
В индустрии искусственного интеллекта запущена новая, весьма смелая инициатива, цель которой — ослабить работу моделей машинного обучения путём намеренного искажения данных, используемых для их обучения...
Больше не нужно выбирать между шифрованием и эффективностью.
Гонконгские ученые представили систему под названием Lancelot — первую на практике реализацию федеративного обучения , которая одновременно защищена от атак отравления данных и утечек приватной информации.
Федеративное...
Для манипуляции многомиллиардной индустрией теперь нужны минимальные ресурсы.
Злоумышленникам может быть гораздо проще саботировать обучение нейросетей, чем предполагалось ранее. К такому выводу пришли специалисты Anthropic совместно с Институтом безопасности ИИ Великобритании, Институтом...
Один фальшивый байт — и весь городской транспорт парализован.
Современные системы искусственного интеллекта зависят от огромного объёма данных, на которых они обучаются. Эта зависимость делает модели уязвимыми для так называемых атак с отравлением данных, при которых в обучающие выборки...