09 October 2024

OpenAI разрушает дезинформацию о выборах с помощью ИИ


OpenAI наблюдает за постоянным потоком попыток использования ИИ в рамках кампаний по политической дезинформации в социальных сетях, но заявляет, что наиболее широко распространенная попытка была обманом, который только создавал видимость использования ее услуг. (Axios)
Почему это важно: В новом отчете компании, опубликованном в среду, подчеркивается продолжающееся использование генеративного ИИ иностранными противниками США, но при этом показывается, что, по крайней мере на выборах этого года, влияние, по-видимому, будет скромным.

OpenAI заявила, что за последние месяцы обнаружила и пресекла ряд кампаний политического и избирательного влияния, начиная от разовых попыток, введенных в ChatGPT, и заканчивая более крупными и систематическими проектами.

Как отмечалось в прошлых отчетах , OpenAI заявила, что ее инструменты, по-видимому, используются в качестве промежуточного шага в более широких кампаниях, а не в попытках выполнить сквозную работу. В одном случае, например, российская операция влияния использовала изображения, созданные Dall-E, в попытке сделать свои сообщения более привлекательными.
«Похоже, что злоумышленники все еще экспериментируют с различными подходами к ИИ, но мы не увидели доказательств того, что это приводит к значимым прорывам в их способности привлекать более широкую аудиторию», — заявил главный исследователь OpenAI Бен Ниммо на брифинге с журналистами.

Компания также обнаружила попытки получить доступ к учетным данным сотрудников OpenAI, в том числе попытку со стороны китайского злоумышленника, целью которой был доступ к учетным записям электронной почты сотрудников.

Да, но: кампания, связанная с ИИ, которая наиболее широко распространилась в социальных сетях, по-видимому, использовала только системы OpenAI.
«Это было ложное утверждение, которое, казалось, показывало, что русские тролли использовали нашу модель, но забыли за нее заплатить», — сказал Ниммо. «На самом деле, этот пост вообще не был создан с использованием наших моделей».

OpenAI заявляет, что за последние месяцы создала дополнительные инструменты ИИ, которые помогают ей быстрее обнаруживать и анализировать потенциально опасную активность.
«Эти инструменты позволили нам сократить некоторые аналитические шаги, которые мы выполняем, с нескольких дней до нескольких минут, а некоторые операции, которые мы прервали за последние пару месяцев, были обнаружены благодаря использованию нами ИИ», — сказал Ниммо.
(в пересказе)
Мнение авторов может не совпадать с мнением редакции 
Некоммерческое сообщество журналистов Non profit

Subscribe to this Blog via Email :