Канадская полиция, патрулирующая уголки темной паутины, хорошо осведомлена о обычно гнусных способах, которыми преступники используют искусственный интеллект. (CityNews)
Есть дипфейк-порнография. Олицетворение голоса. Романтические аферы, которые превращаются в финансовые махинации.
Но в последнее время произошел новый поворот — преступники предлагают «взломать» те самые алгоритмы, которые формируют архитектуру больших языковых моделей ИИ, или LLM, разрушая их гарантии, чтобы их можно было использовать в преступных целях.
Назовем это техподдержкой киберпреступников.
«Есть также эти LLM, которые киберпреступники создают сами», — сказал Крис Лайнам, генеральный директор Национального координационного центра по киберпреступности RCMP.
«Вот это... целое подпольное киберпреступное сообщество, которое действует на форумах, но они действуют и на таких платформах, как Telegram», — сказал он, где «рекламируют» канал или сервис и объясняют, как его приобрести.
«Киберпреступники не стали бы вкладывать деньги в попытки взлома (ИИ) только по доброй воле. Они пытаются коммерциализировать это».
Преступления, связанные с искусственным интеллектом, связанные с мошенничеством и выдачей себя за другое лицо, становятся все более распространенными и стали предметом кампаний по информированию общественности. Но эксперты и полиция предупреждают, что могут потребоваться дополнительные меры предосторожности для защиты общественности от новых криминальных рубежей технологии.
К ним относятся джейлбрейк ИИ и его ограждения, которые могут привести к тому, что ИИ будет давать инструкции о том, как обмануть благотворительные организации или как создать бомбу, сказал исследователь ИИ Алекс Роби.
Роби, научный сотрудник Университета Карнеги-Меллона, сосредоточился на джейлбрейке этих больших языковых моделей, таких как ChatGPT.
Он предупреждает, что ИИ потенциально может совершать преступления без побуждения, «когда у самого ИИ есть свои собственные цели или намерения, которые совпадают с повесткой дня, которая не приносит пользы людям».
Например, во Флориде мать подала в суд на компанию, которая позволяет пользователям создавать компаньонов с искусственным интеллектом, утверждая, что один из чат-ботов компании вел сексуально заряженные разговоры с ее 14-летним сыном, прежде чем подтолкнуть его к самоубийству в прошлом году.
Роби сказал, что существует «много исследований» о том, как искусственный интеллект может развивать свои собственные намерения и может вводить в заблуждение или причинять вред людям, особенно в робототехнике, где бот может физически взаимодействовать с людьми в реальном мире.
«Вот где заключается огромный риск, в своего рода милитаризации всего этого», — сказал он, указывая на потенциальное использование искусственного интеллекта и роботов в военных действиях.
Роби говорит, что необходимо законодательство, чтобы обеспечить более эффективные гарантии использования искусственного интеллекта.
«Это почти как в отдельных лабораториях, которые разрабатывают эти модели для саморегулирования, что не идеально», — сказал он в интервью.
«Сейчас во всем этом Дикий Запад. На самом деле нет никаких принципов вождения».
Запуск чат-бота ChatGPT в конце 2022 года стал переломным моментом для искусственного интеллекта, внедрив его в общественное сознание благодаря своей сверхъестественной способности воспроизводить человеческие разговоры и письма.
Чуть более двух лет спустя власти Соединенных Штатов заявили, что он был использован для организации громкого взрыва автомобиля. 37-летний Мэтью Ливелсбергер погиб в результате взрыва кибергрузовика Tesla возле отеля Трампа в январе.
Полиция говорит, что расследование поисковых запросов Ливельсбергера через ChatGPT показало, что он искал информацию о взрывчатых целях и боеприпасах.
«Это первый инцидент, о котором я знаю на территории США, когда ChatGPT используется для помощи человеку в создании определенного устройства», — сказал Кевин МакМахилл, шериф столичного полицейского управления Лас-Вегаса. Он назвал использование генеративного ИИ «переломным моментом».
Роби указал на взрыв в отеле Трампа как на недавний пример взлома ИИ в незаконных целях.
До ChatGPT уже существовали инструменты на основе изображений на основе искусственного интеллекта, такие как DALL-E, модель искусственного интеллекта, выпущенная в 2021 году, способная создавать реалистичные или стилизованные изображения на основе текстовых подсказок или инструкций.
Преступный потенциал этой технологии также быстро материализовался.
В 2023 году 61-летний мужчина из Квебека был заключен в тюрьму за использование искусственного интеллекта для создания дипфейк-видео с детской порнографией. На нем не было изображено ни одного реального ребенка, но Стивен Ларуш нарушил закон, запрещающий любое визуальное изображение лица в возрасте до 18 лет, участвующего в откровенных сексуальных действиях.
Судья провинциального суда Бенуа Ганьон написал в своем постановлении, что, по его мнению, это был первый случай в стране, связанный с дипфейками сексуальной эксплуатации детей.
По словам Лайнама, «киберпреступность, возможно, является наиболее быстро развивающимся видом преступности».
«Это постоянная эволюция, и мы должны понимать тенденции или пытаться понять, какие технологии собираются внедрять преступники, чтобы мы могли противостоять этому», — сказал он в интервью.
Канадские власти, включая Lynam, предупреждают, что может быть трудно отличить источники контента, созданные искусственным интеллектом, от законных, что отражает международные отраслевые предупреждения.
В прошлом году центр финансовых услуг Deloitte прогнозировал, что к 2027 году только в Соединенных Штатах потери от мошенничества могут увеличиться более чем в три раза до 40 миллиардов долларов США.
В качестве примера приводится случай, когда сотрудница гонконгской фирмы отправила мошенникам 25 миллионов долларов США в январе прошлого года после того, как получила инструкции от своего финансового директора в ходе видеовстречи с ней и другими сотрудниками. Но дело было вовсе не в руководителе — это была имитация дипфейк-видео.
«Доступность новых генеративных инструментов ИИ может сделать дипфейк-видео, вымышленные голоса и фиктивные документы легко и дешево доступными для злоумышленников», — говорится в исследовательской записке, предупреждающей о «демократизации» программного обеспечения ИИ, позволяющего совершать мошенничество.
«В даркнете уже существует целая кустарная индустрия, которая продает мошенническое программное обеспечение на сумму от 20 до тысяч долларов США».
По словам Лайнама, услуги по джейлбрейку ИИ, продаваемые в даркнете, «показывают вам, насколько адаптивны и инновационны эти люди, и причину, по которой мы должны быть такими же адаптивными или пытаться идти в ногу с ними».
В 2020 году RCMP запустила Национальный координационный центр по борьбе с киберпреступностью в попытке бороться со взрывом интернет-преступности. Lynam заявила, что с тех пор наблюдается всплеск преступности с помощью искусственного интеллекта, от фишинговых электронных писем до мошенничества с инвестициями в дипфейки.
Он сказал, что RCMP также запустила различные кампании, нацеленные на лиц из группы риска, прежде чем они превратятся в киберпреступников.
«Это никуда не денется. Мы должны найти наилучшие способы уменьшить воздействие на канадцев».
Немедленное законодательное решение маловероятно.
Из-за того, что 6 января работа парламента Канады была приостановлена, все законопроекты были приостановлены, в том числе Закон об искусственном интеллекте и данных, который должен был стать первой попыткой Канады обеспечить широкое регулирование систем искусственного интеллекта.
Правительство заявило, что закон «гарантирует, что системы искусственного интеллекта, развернутые в Канаде, являются безопасными и недискриминационными, а также возложит на предприятия ответственность за то, как они разрабатывают и используют эти технологии».
Роби сказал, что правительства, похоже, действуют из лучших побуждений, в то время как в данный момент они «довольно сбиты с толку и недостаточно гибки, чтобы идти в ногу со временем».
«Это довольно разочаровывающий набор разговоров, потому что я не думаю, что есть много понимания того, что такое технология, что она может сделать и каковы будущие риски», — сказал он.
Вместо принятия законодательства или нормативных актов власти начали проводить информационные кампании для просвещения и поощрения людей к самозащите.
В январе Комиссия по ценным бумагам Британской Колумбии запустила информационную кампанию, в которой рассказывается о том, как инструменты искусственного интеллекта используются для обмана канадцев.
В главной рекламе кампании стоимостью 1,8 миллиона долларов фигурируют дипфейк-бухгалтеры с шестью пальцами, а также намеки на клонирование голоса ИИ и мошенничество с фальшивыми романтическими отношениями.
Кампания призывает потенциальных инвесторов снизить риски, связанные с искусственным интеллектом, ища негативные отзывы об инвестиционных предложениях, используя национальный поиск регистрации для обеспечения законности компаний и рассматривая возможность личной встречи с людьми для подтверждения их личности.
Памела Макдональд, пресс-секретарь комиссии, сказала, что, поскольку мошенничество с искусственным интеллектом часто не имеет границ, трудно использовать обычные инструменты принуждения.
«Проблема в том, что для нас, как для регулирующего органа, люди, использующие эту технологию, в основном являются офшорными, организованной преступностью».
По ее словам, преступники за рубежом часто находятся «вне досягаемости» канадских регулирующих органов и правоохранительных органов.
«Итак, лучшее, что мы можем сделать сейчас для людей, — это обучить их», — сказала она. «Лучшее, что мы можем сделать, это использовать очень острую, смелую, необычную кампанию, чтобы прорваться сквозь весь остальной шум... чтобы помочь людям понять, в чем проблема и что они могут сделать, чтобы защитить себя».
Брианна Шарлебуа, Канадская пресса
С файлами Associated Press.
(в пересказе)
Некоммерческое сообщество журналистов Non profit
Семь Новостей. https://t.me/Fable_Teller
#политика #экономика #культура #новости
LitPatrol. https://t.me/ValeriusRu
#литература #книги #афоризмы