
Хотя примеры эффективного использования ИИ для поиска уязвимостей существуют (вот относительно
Мейнтейнеры cURL используют для работы с независимыми исследователями платформу HackerOne, через которую и был подан отчет о фейковой уязвимости; его можно найти
Выглядит эта уязвимость достаточно правдоподобно. В
Разработчик cURL проанализировал отчет и написал его авторам, сообщив, что предложенная модификация библиотеки aioquic не работает, как минимум, для текущего релиза этой библиотеки, а также попросил уточнить, что именно меняется в ее коде. В ответ на этот конкретный вопрос он получил многословный, бессодержательный ответ, с описанием банальных истин типа «как применить патч с использованием git.
Иными словами, в отчете речь идет об уязвимости, которая была полностью выдумана, а предложенный пример модификации кода открытой библиотеки не работает. Но так как отчет оформлен правдоподобно, его разбор отнимает время разработчиков, которые в данном случае делают свою работу на общественных началах. Очевидно, что имеют место чьи-то попытки автоматизировать создание отчетов и их подачу через сервис HackerOne в надежде, что какой-то из них будет принят разработчиками и будет произведена выплата за полезную информацию об уязвимости. Причем даже ответы на вопросы разработчиков генерируются с помощью чатбота. Это явление имеет общие черты с феноменом beg bounty — когда в организации рассылаются сообщения о тривиальных или несуществующих уязвимостях в инфраструктуре или программном обеспечении с просьбой поддержать отправителя финансово.
Хотя разработчики cURL сделали публичным только один отчет, они говорят о том, что таких сообщений присылается очень много. Стенберг пишет, что они «по сути испытывают DDoS-атаку». Что с этим делать — не совсем понятно. Разработчики cURL будут требовать от всех независимых исследователей ответить на вопрос: «Использовали ли вы ИИ для обнаружения этой проблемы или написания этого отчета?». В обсуждении под постом Стенберга говорится о том, что фильтровать ИИ-спам должны платформы типа HackerOne (что вполне логично). Предлагается также и более радикальное решение: требовать от исследователей вносить залог как гарантию того, что отчет содержит реально полезную информацию. И вот этот подход звучит несколько сомнительно. Конечно напрашивается решение проблемы путем использования ИИ для выявления отчетов, сгенерированных ИИ. В любом случае вся эта история является примером, когда технологии искусственного интеллекта не приносят пользу, а скорее ломают сложившиеся механизмы выявления ошибок в коде программного обеспечения.
Что еще произошло
Эксперты «Лаборатории Касперского»
Американское Федеральное бюро расследований
В блоге команды Google Project Zero опубликована
В браузере Google Chrome