ChatGPT вызвал тревогу среди исследователей кибербезопасности из-за своей пугающей способности составлять все, от сложных вредоносных программ до фишинговых приманок – но важно помнить, что этот инструмент также может помочь в защите кибербезопасности.
Ширан Гринберг, директор по исследованиям и кибер-операциям компании Cynet, рассказал, что слишком много компаний отпугивает ChatGPT, вместо того чтобы поощрять сотрудников использовать его функциональность. «В конце концов, я сомневаюсь, что сегодня можно найти руководителя, который не поощряет своих сотрудников использовать Google для поиска информации, если только вы не гражданин Китая, России, Северной Кореи или Ирана», – сказал он.
Польза ChatGPT для безопасности
По словам Гринберга, польза ChatGPT для безопасности весьма значительна. «Предположим, у вас есть команда аналитиков, и вы поощряете их использовать ChatGPT для того, чтобы делать выводы и искать всевозможную информацию», – сказал он. «Вы можете поместить кусок кода в ChatGPT и попросить его определить вредоносную часть кода – так что это действительно может помочь во многом».
Аналитики, ответчики и следователи, сказал Гринберг, могут использовать ChatGPT для составления подробного отчета о реагировании на инцидент в соответствии с методологией SANS за считанные минуты. Затем они могут наполнить отчет анализом вредоносного кода, сценариев и различных функций вредоносного ПО, «все это делается с помощью ChatGPT», – сказал он.
По словам Гринберга, компания Cynet уже начала использовать ChatGPT для обеспечения защиты в будущем. «Мы можем взять модель машинного обучения и превратить ее в механизм искусственного интеллекта, который, по сути, изучает множество типов легитимных файлов в сравнении с множеством вредоносных файлов», – сказал он. «Используя огромные объемы данных, мы можем сделать вывод о том, какие будущие файлы будут вредоносными, а какие – легитимными».
Вредоносное использование
С другой стороны, инструмент может помочь злоумышленникам генерировать угрозы, которые раньше были им не под силу. «Основная угроза заключается в том, что ChatGPT облегчает и упрощает жизнь субъектам угроз в плане создания атаки с минимальными знаниями технических возможностей», – сказал Гринберг.
По его словам, субъектам угроз относительно легко использовать ChatGPT для разработки вредоносного кода. Хотя ChatGPT подскажет вам, если вы пытаетесь сделать что-то незаконное, сказал Гринберг, «вы можете обмануть его, разыгрывая сценарии, и он выдаст вам код, который с небольшими изменениями может быть вредоносным».
В какой-то степени это не новая проблема – средний возраст злоумышленников снижается по мере того, как исчезают барьеры для входа. «Сегодня существуют всевозможные услуги, такие как вредоносное ПО как услуга, выкупное ПО как услуга, первоначальный доступ как услуга, а теперь еще и ChatGPT, который позволяет эксперту-хакеру внезапно получить возможность писать вредоносный код и осуществлять атаки», – говорит Гринберг.
По словам Гринберга, стоит также отметить, что все чаще появляются новые инструменты, помогающие определить, был ли контент создан искусственным интеллектом – в качестве примера можно привести OpenAI AI Text Classifier, Контент в масштабе детектор искусственного интеллекта и Выходной детектор GPT-2. «По моим оценкам, мы увидим дополнительные инструменты и решения, направленные на обнаружение вредоносного контента, созданного моделями ИИ», – сказал он.
По словам Гринберга, более широкий урок прост: не игнорируйте угрозы. «Работайте над расширением возможностей своих сотрудников, поощряйте их к взаимодействию с новыми технологиями, переплетайте это с обучением по вопросам кибербезопасности», – сказал он. «Это будет весело, увлекательно и незабываемо».
Комментарии (0)