Нейросети несут не только пользу современному обществу, но и, находясь в руках злоумышленников, способны принести максимальный ущерб простым пользователям, рассказал директор регионального инжинирингового центра SafeNet Национальной технологической инициативы (НТИ) Денис Кувиков.
Должным образом формируя запросы к революционной нейросети ChatGPT, мошенники способны генерировать вредоносный код и создавать фишинговые письма и даже сайты. В пример можно привести скрипт (небольшую программу) на языке программирования Python, который при некоторой доработке и модификации становится программой-вымогателем. По мнению Кувикова, возможности нейросетей безграничны и при этом недостаточно пока изучены. Говоря о ChatGPT, далеко еще не все примеры использования доподлинно известны, дело ограничено лишь фантазией, говорит он. Кейсы использования во вред уже есть и результаты поражают воображение.
Нейросети также способны генерировать реалистичные человеческие лица и голоса в аудио и видео форматах. Дипфейки (deepfake) — фальшивый аудио- и видеоконтент, практически неотличимый от подлинного. Высокореалистичные дипфейки могут использоваться злоумышленниками для дезинформации, мошенничества, провокаций и кибербуллинга. Так, подменив в видео лицо человека, можно обвинить его в правонарушении, шантажировать родственников пропавшего без вести сгенерированными фото, или же влиять на решения избирателей вбросами фейковых видео в Сеть.
Также мошенники могут использовать ИИ, чтобы становиться невидимками в информационном поле. Нейросети помогают им адаптироваться к системам безопасности и находить новые пути обхода инструментов защиты инфраструктуры. Злоумышленники уже могут имитировать компоненты ИТ-систем и скрывать вредоносные коды в официальных приложениях.
Наконец, нейросети могут помочь мошенникам обходить антивирусы и спам-фильтры. Они могут создавать определенные алгоритмы для их обхода, которые практически невозможно отличить от написанных человеком. Также киберпреступники научились обучать модель ИИ, чтобы скрыться от сервисов автораспознавания CAPTCHA.
Беспилотные средства передвижения и дроны также могут быть атакованы мошенниками. К примеру, перехватив контроль или втайне изменив исходный код нейросети, управляющей беспилотным транспортом, злоумышленники могут спланировать вооруженные атаки или даже теракты.
Таким образом, подытожил эксперт, сама по себе нейросеть или современный ИИ в целом не несут в себе опасности, и не способны сами придумать новый способ обмана рядового пользователя. Они состоят из той информации, которая им доступна, которая была "скормлена" создателем. И здесь хакеры стараются вовсю взять их на вооружение, поэтому нужно быть очень аккуратными со своими данными.
Источник: https://1prime.ru/exclusive/20230112/839448232.html