Большинство созданных за всю историю человечества технологий, механизмов, машин имеют «созидательно-разрушительное» назначение. Часть из них изначально разрабатывались для улучшения условий труда и жизни людей, а затем модифицировались в орудия убийства, часть предназначалась для военных целей, а впоследствии находила мирные применения.
Такие же трансформации сопутствуют сегодня информационно-компьютерным технологиям, которые, обладая огромным положительным воздействием на все сферы экономики, могут использоваться для их же уничтожения. Все зависит от того, в чьих руках оказываются ИКТ. С каждым годом обостряется противостояние ИТ-преступников, взламывающих компьютерные сети для онлайн-воровства, вмешательства в производственные и бизнес-процессы, и ИТ-защитников, охраняющих рубежи корпоративных сетей. Это противоборство можно сравнить со своеобразной «гонкой вооружений» и с локальными (а то и глобальными) «военными конфликтами», перевес в которых оказывается на стороне, обладающей в данный момент времени более совершенным «ИТ-оружием» – наступательным или оборонительным.
Последние достижения в области искусственного интеллекта уже начали применять в системах ИТ-безопасности, где ИИ позволил существенно повысить эффективность выявления вредоносного ПО. И сразу же появились опасения в том, что мощь ИИ может быть использована киберпреступниками. На чем основаны эти опасения? – На том, что ключевым инструментом ИИ является его способность обучаться. Машинное же обучение построено на «предъявлении» искусственному интеллекту множества примеров и от того, какими будут эти примеры, зависит направленность ИИ, например, цель – «нападение» или цель – «защита от нападения».
ИТ-угрозы, которые может породить искусственный интеллект, проанализированы в недавно опубликованном отчете «Преступное использование ИИ: прогноз, профилактика и предотвращение», разработанном группой экспертов по ИТ-безопасности, работающих в Оксфордском, Кембриджском и Стэнфордском университетах, организациях Electronic Frontier Foundation и OpenAI и ряда компаний, специализирующихся в области ИБ. Исследователи классифицировали возможные ИТ-угрозы, которые могут быть созданы с помощью ИИ, по трем направлениям:
- атаки с помощью вредоносного ПО,
- атаки с помощью методов социальной инженерии,
- физические атаки.
Второй тип ИТ-угроз – использование «уязвимостей мышления человека», основанных, например, на применении искусственным интеллектом технологий синтеза речи или создания «контекстного» вредоносного ПО. Эти технологии «усыпят бдительность» человека, который нажмет нужную ИТ-преступникам ссылку (а больше ничего и не нужно для запуска компьютерного вируса или зловредного приложения). В эту же группу ИТ-угроз исследователи поместили использование ИИ для дезориентации людей в политической сфере и для наблюдения за инакомыслящими. ИИ может найти применение для проведения персонализированных кампаний массовой дезинформации.
Третий тип ИТ-угроз – организация атак на физические объекты, например, с использованием боевых дронов, управляемых искусственным интеллектом.
Вспомним одно из предупреждений об опасностях ИИ, высказанное Стивеном Хокингом: «Искусственный интеллект компьютеров обгонит интеллект человеческий уже в ближайшие 100 лет, и когда это случится, нужно убедиться в том, что цели компьютера и человека будут совпадать, а не идти вразрез друг другу». Но можно ли быть 100%-но уверенными в том, что ИИ не попадет в обучение к ИТ-преступникам?
Комментарии
Отправить комментарий