Российские киберпреступники постоянно пытаются найти новые способы обойти действующие ограничения, чтобы помешать им получить доступ к мощному чат-боту OpenAI. ЧатGPT. Исследователи безопасности обнаружили несколько случаев, когда хакеры пытались обойти ограничения на IP-адрес, платежную карту и номер телефона.
С момента запуска в ноябре 2022 года ChatGPT стал необходимый инструмент рабочего процесса для разработчиков, писателей и студентов. Кроме того, он оказался полезным дополнением к арсеналу киберпреступников. хакеры используют его для написания вредоносного кода и улучшения фишинговых писем.. Его возможность использования в гнусных целях означает, что OpenAI установила ограничения на развертывание инструмента из-за «интереса хакеров к ChatGPT для скорейшего масштабирования вредоносной активности». Он также геоблокируется, чтобы российские пользователи не могли получить доступ к системе.
Но, изучая подпольные хакерские форумы, исследователи Check Point Software обнаружили несколько случаев, когда российские хакеры говорили о способах обхода этих средств защиты. Примеры включают случай, когда группа из России задает вопрос о том, как использовать украденную платежную карту для оплаты учетной записи OpenAI и использует API для получения доступа к системе, если они не могут получить доступ к ChatGPT обычным способом. В настоящее время система является «предварительной версией» и является бесплатной, а API включает плату за токены, используемые во время сеансов генерации текста и кода.
Сергей Шикевич, руководитель группы анализа угроз в Check Point Software Technologies, сказал, что обойти ограничения OpenAI не особенно сложно. «Сейчас мы видим, как российские хакеры обсуждают и проверяют, как обойти геозону, чтобы использовать ChatGPT в злых целях», — говорит он.
«Мы считаем, что эти хакеры, скорее всего, пытаются внедрить и протестировать ChatGPT в своих повседневных преступных операциях. Киберпреступники все больше интересуются ChatGPT, потому что лежащая в основе технология искусственного интеллекта может сделать хакера более прибыльной».
На форумах также есть несколько руководств на русском языке о полулегальных онлайн-сервисах SMS и о том, как использовать их для регистрации в ChatGPT и притвориться, что вы находитесь в другой стране, где сервис не заблокирован по географическому признаку.
Раздел форума сообщает хакерам, что им просто нужно купить виртуальный номер, заплатить 2 цента за номер и использовать его для получения кода от OpenAI. Эти временные телефонные номера могут быть из любой точки мира, и новые номера могут быть созданы по мере необходимости.
Инфостилеры и злонамеренное использование ChatGPT
Эта новость последовала за предыдущим исследованием, которое показало, что киберпреступники публиковали примеры как использовать ChatGPT для незаконных действий на этих же хакерских форумах. Это включает в себя создание программ для кражи информации, которые в настоящее время являются «довольно простыми», но, вероятно, станут более продвинутыми по мере более широкого использования инструментов ИИ.
Примером таких «простых инструментов» является похититель информации, появившийся в ветке под названием «ChatGPT — Преимущества вредоносного ПО» на популярном хакерском форуме. В посте автор сообщил, что он использовал ChatGPT для воссоздания штаммов вредоносных программ, описанных в других постах, путем подачи описаний и рецензий инструменту ИИ. Затем он поделился кодом кражи на основе Python, который ищет распространенные типы файлов, копирует их в произвольную папку и загружает на жестко закодированный FTP-сервер.
«Киберпреступники находят ChatGPT привлекательным», — говорит Шикевич. «За последние несколько недель мы видели, как хакеры начали использовать его для написания вредоносного кода. ChatGPT может ускорить процесс для хакеров, предоставив им хорошую отправную точку. Точно так же, как ChatGPT можно использовать во благо, чтобы помочь разработчикам писать код, его также можно использовать в злонамеренных целях. «
OpenAI заявляет, что предпринимает шаги по сдерживанию использования ChatGPT, включая ограничения на типы запросов, которые могут быть сделаны, но некоторые из них «проваливаются». Были также свидетельства того, что подсказки использовались, чтобы «обмануть» ChatGPT, чтобы предоставить примеры потенциально опасного кода под предлогом, что они были для исследования или в качестве вымышленного примера.
ChatGPT и возможность дезинформации
Эта новость появилась после того, как OpenAI подтвердила, что работает с Центром безопасности и новых технологий Джорджтаунского университета и Стэнфордской интернет-обсерваторией, чтобы изучить, как можно использовать большие языковые модели, такие как GPT-3, базу ChatGPT для распространять дезинформацию.
Модель может быть использована для снижения стоимости оперативных операций влияния, делая их доступными для новых типов киберпреступников, тогда как ранее доступ к этому типу контента имели только крупные игроки. «Точно так же наемные пропагандисты, автоматизирующие производство текстов, могут получить новые конкурентные преимущества».
Это также приведет к другому поведению, увеличению масштабов атак и созданию более персонализированного и целевого контента, чем это было бы возможно в противном случае из-за затрат на ручное создание. Наконец, они обнаружили, что инструменты для создания текста способны генерировать более действенные и убедительные сообщения по сравнению с большей частью пропаганды, создаваемой людьми, когда хакер часто может не обладать необходимыми лингвистическими или культурными знаниями своей цели.
«Наше окончательное решение состоит в том, что языковые модели будут полезны для пропагандистов и, вероятно, изменят онлайн-операции влияния», — заявили исследователи OpenAI. «Даже если самые передовые модели останутся частными или будут контролироваться через доступ к интерфейсу прикладного программирования (API), пропагандисты, скорее всего, обратятся к альтернативам с открытым исходным кодом, и государства могут сами инвестировать в них технологии».
Читать больше: Хакерские инструменты, созданные ChatGPT, обнаружены в дикой природе
Изображение домашней страницы предоставлено Ascannio/Shutterstock