Злонамеренное использование искусственного интеллекта и угрозы информационно-психологической безопасности в Объединённых Арабских Эмиратах
Выпуск
2024 год
№ 6
DOI
10.31696/S086919080032578-2
Авторы
Страницы
107 - 117
Аннотация
Статья посвящена анализу рисков, связанных со стремительным развитием технологий искусственного интеллекта (ИИ) в Объединённых Арабских Эмиратах (ОАЭ) и их влиянием на информационно-психологическую безопасность. С момента своего основания ОАЭ превратились в ключевого игрока на международной арене благодаря стремительному развитию экономики, торговли и инноваций. Тем не менее, наряду с положительными аспектами внедрения ИИ, возникают и значительные риски, связанные с его злонамеренным использованием (ЗИИИ). Угрозы ЗИИИ рассматриваются авторами через призму трехуровневой классификации: от распространения ложных представлений об ИИ и последствий его развития, угроз критической инфраструктуре, до целенаправленных атак, нацеленных на подрыв информационно-психологической стабильности в государстве. Авторы подчёркивают, что ОАЭ, находясь в геополитически нестабильном регионе, сталкиваются с увеличением числа злонамеренных акторов, что делает страну уязвимой для киберугроз. Проблема ЗИИИ для страны остаётся актуальной и охватывает все три уровня угроз. Первый уровень связан с манипуляциями на тему роста уровня безработицы и угроз личной безопасности, которые могут быть вызваны внедрением ИИ. На втором уровне наибольшие риски представляют виртуальное мошенничество, в том числе через использование чат-ботов, а также хакерские атаки на объекты критической инфраструктуры государства. Анализ третьего уровня угроз показал, что в обществе возросло беспокойство по поводу способности посредством ИИ создавать фейковую информацию и активно продвигать её в виртуальном пространстве. Часто граждане сами становятся жертвами использования таких технологий из-за излишней доверчивости и недостаточной осведомлённости о рисках в Интернете. В статье акцентируется внимание на необходимости усиления мер по обеспечению кибербезопасности и разработке стратегий по противодействию ЗИИИ с целью обеспечения положительной динамики в противостоянии угрозам, связанным со злонамеренным использованием ИИ в ОАЭ.
Получено
07.05.2025
Статья
Введение
Бурное развитие торговли, туризма, промышленности превратили ОАЭ в глобальный центр бизнеса, инноваций и культурного обмена [Burt, 2024]. ОАЭ стали первой страной на Ближнем Востоке, где в 2017 г. было создано Министерство искусственного интеллекта. Это событие ознаменовало запуск Национальной стратегии по искусственному интеллекту до 2031 г. Практически все банки страны уже внедрили системы на основе ИИ – чат-боты, виртуальные помощники [Mehta, Bhavani, 2017]. В 2019 г. мир стал свидетелем открытия в Дубае первого в мире Университета искусственного интеллекта [Khaleej Times, 2019]. Это учреждение было создано для развития необходимой экосистемы ИИ на всех уровнях – от образования и науки до бизнеса и государственного управления. На Всемирном правительственном саммите в Дубае в феврале 2024 г. министр ОАЭ по вопросам ИИ Омар аль-Олама подчеркнул, что к сентябрю 2023 г. количество людей, занятых в сфере ИИ или смежных с ним отраслях, возросло до 120 000 человек по сравнению с 30 000 двумя годами ранее [Omar, 2024].
Однако вместе с развитием ИИ появляются и проблемы, связанные с его злонамеренным использованием (ЗИИИ). Они всё более актуальны в стране, которая, несмотря на высокий уровень социально-политической стабильности, находится в регионе с высоким уровнем конфликтности.
В процессе работы над статьей были использованы документы органов государственной власти ОАЭ, отражающие различные аспекты регулирования ИИ-отрасли, а также экспертные доклады по различным аспектам кибербезопасности, рисков ИИ, ЗИИИ. Данная работа подготовлена с использованием широкого пласта академических исследований в области социальных аспектов применения искусственного интеллекта в ОАЭ [Chenguel, 2023; Faraz, Mounsef, Raza, Willis, 2022; Keding, 2021; Mehta, Bhavani, 2017; Halabi, Hill, 2024; Khansaheb, 2024; Sajwani, 2024; AlGhanem, Abdallah, 2024], правового регулирования ИИ [Nakkach, 2021; Safar-Aly, 2024], использования ИИ как преступниками, так и правоохранительными органами [Othman, Al Hammadi, 2022; Sukhodolov et al., 2020, Keding, 2021; Alshamsi, Al-Kumaim, 2021], а также общих работ по проблемам социально-политического развития ОАЭ и других стран Ближнего Востока с целью определения общего контекста ЗИИИ и его последствий [Burt, 2024; Salameh, Benkohila, 2024; Smith, Zeigler, 2017; Matheson, 2020].
Для анализа угроз информационно-психологической безопасности с использованием ЗИИИ применяется трехуровневая классификация. На первом уровне происходит распространение ложного образа ИИ, последствий его развития и применения. Второй уровень угроз связан с практикой ЗИИИ, когда атака на общественное сознание не является основной целью, но имеет негативные для него последствия. ЗИИИ, направленное, в первую очередь, на нанесение ущерба в информационно-психологической сфере, можно выделить как третий и высший уровень угроз [см. подробнее: Pashentsev, 2023].
Угрозы, продуцируемые ЗИИИ, становятся всё более актуальными во всем мире на всех трех уровнях по мере роста политического соперничества, активности различных государственных и негосударственных антисоциальных акторов, а также развития и растущей доступности технологий ИИ, что делает возможным их широкое злонамеренное применение.
Первый уровень угроз информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта
С широким распространением технологий ИИ и интеграцией автоматизированных систем в повседневную жизнь общества ОАЭ, на первый план угроз первого уровня выходят целенаправленные спекуляции на фоне растущих опасений относительно потенциальной потери миллионов рабочих мест. В ближайшие 15 лет ИИ создаст в ОАЭ более 2,5 миллиона рабочих мест. Министерство человеческих ресурсов и эмиратизации (MOHRE) – регулирующий орган по вопросам труда и занятости в ОАЭ опубликовало список, согласно которому большинство вакансий в ОАЭ в ближайшее десятилетие будут связаны с ИИ, машинным обучением и автоматизацией [Tabrez, 2022].
Правительство ОАЭ финансирует образовательные инициативы, направленные на создание кадрового резерва в области инноваций, включая бесплатные курсы для людей, желающих повысить свои навыки в области информационных технологий [Alrahmah, Ahmed, 2024]. Однако этого часто оказывается недостаточно для того, чтобы люди перестали опасаться за свою конкурентоспособность на рынке труда. В опросе, который был проведен в ОАЭ, респондентам задавали вопрос, как они считают, повлияет ли ИИ на их жизнь. 55 % опрошенных выразили беспокойство по поводу того, что к 2033 г. их рабочие обязанности будут выполнять ИИ или роботы. Примечательно, что 66 % молодых людей в возрасте до 25 лет считают, что автоматизация затронет их специальность в следующем десятилетии [Webster, 2023a]. Таким образом, данные свидетельствуют о значительном уровне тревоги, особенно среди молодежи, которая только начинает свою профессиональную карьеру.
Эксперты активно участвуют в обсуждении этих рисков. По словам Шалини Вермы, генерального директора компании Pivot Technologies: «Люди, которые выйдут на рынок труда, начнут с гораздо более высокого уровня, чем ожидается – от стажеров и младших руководителей сегодня… Если вы не являетесь уникальным (исключительным) специалистом, вы рискуете быть заменённым ботом. Если же вы эксперт, то, вероятно, будете выполнять свою работу по-другому, поскольку основной объем задач возьмёт на себя ИИ» [Abbas, 2023]. Сама формулировка «исключительный» заставляет большинство не «исключительных» специалистов со всё большей тревогой смотреть в будущее.
Есть опасения среди населения и специалистов в области ИИ в ОАЭ по поводу конфиденциальности данных, предвзятости рекомендаций и других этических аспектов функционирования интеллектуальных систем, что подчеркивает необходимость совершенствования директивными органами нормативно-правовой базы для преодоления разрыва между технологическими достижениями и соблюдением требований законодательства [Ghandour, Woodford, 2019; Shwedeh et al., 2024].
Использование ИИ на национальном уровне в ОАЭ, существующие опасения на этот счет могут стать поводом для манипулирования сознанием широких слоев населения, особенно молодежи, что способно привести к негативным последствиям. Это может произойти в ОАЭ даже раньше, чем в других странах именно в силу общественно-необходимого, но и имеющего свои риски быстрого развития и внедрения технологий ИИ. Руководство ОАЭ осознаёт всю сложность ситуации. Омар аль-Олама, выступая на Дубайской ассамблее по вопросам генеративного ИИ в октябре 2023 г., призвал граждан не бояться потери работы [Awienat, 2023].
Несмотря на значительные угрозы первого уровня, связанные с внедрением ИИ, для успешной реализации вышеупомянутых инициатив, ОАЭ акцентируют внимание на создании гибких образовательных программ и курсов, которые будут соответствовать требованиям будущего рынка труда. Эти меры, а также международное сотрудничество, поддержка стартапов и инновационных компаний, призваны обеспечить гармоничное и безопасное внедрение ИИ для экономического и социального развития страны.
Второй уровень угроз информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта
Среди угроз второго уровня можно выделить риски, связанные с применением технологий ИИ, которые могут быть направлены на объекты критической инфраструктуры и физическую безопасность граждан, а также наносить ущерб их имуществу и благосостоянию. В конечном итоге, это также представляет угрозу информационно-психологической безопасности. За первые три квартала 2023 г. в ОАЭ было предотвращено более 71 млн попыток совершения кибератак [Shouk, 2023], за один первый квартал 2024 г. было отражено такое же количество атак – 71 млн [Al Amir, 2024]. Использование ИИ злоумышленниками представляет собой серьёзную угрозу, так как они могут применять технологии ИИ для создания сложных мошеннических схем, взлома систем онлайн-банкинга или кражи личных данных граждан.
ОАЭ – одна из первых стран в мире, которая внедрила ИИ в работу полиции для отслеживания и предотвращения преступлений. Появилась так называемая концепция предиктивной полиции и систем машинного обучения для прогнозирования будущих преступлений [Othman, Al Hammadi, 2022]. ИИ используется для обнаружения и обезвреживания бомб, наблюдения, прогнозирования, анализа социальных сетей и опросов подозреваемых. В настоящее время службы безопасности по всему миру работают над тем, чтобы использовать больше подходов, основанных на ИИ и анализе данных, для раскрытия преступлений [Sukhodolov et al., 2020; Keding, 2021]. Генерал-лейтенант Д.Х. Тамим, заместитель начальника полиции и службы общей безопасности в Дубае, считает необходимым внесение поправок в законодательство для борьбы с быстрым развитием нетрадиционных электронных преступлений, особенно тех, в которых используются технологии ИИ и, в частности, дипфейки. Он рассказал о том, как преступники используют ИИ для кражи данных, атак на критически важные объекты инфраструктуры и кибершпионажа, выходя за пределы физических и географических границ [Al Amir, 2024]. Этот феномен кардинально меняет характер преступности и ставит перед правоохранительными органами новые вызовы: преступники могут действовать из любой точки мира, не оставляя следов в физическом пространстве.
М. Х. аль-Кувейти, глава Совета по кибербезопасности ОАЭ, подчеркнул важность использования опыта образовательных учреждений ОАЭ, специализирующихся на ИИ [Al Amir, 2024]. В стране существует уголовная ответственность за такие киберпреступления, как подделка электронных писем, веб-сайтов и фейковые страницы в социальных сетях, которая регулируется статьей Федерального закона № 34 от 2021 г. о борьбе со слухами и киберпреступлениями.
В настоящее время Совет по кибербезопасности ОАЭ разрабатывает новую политику, которая включает себя три основных направления: облачные вычисления и безопасность данных, безопасность Интернета вещей и операционные центры кибербезопасности [Khaleej Times, 2024]. Ожидается, что эти документы будут опубликованы уже к концу 2024 года.
В последнее время ОАЭ активно совершенствуют свою деятельность по борьбе с отмыванием денег и финансированием терроризма, особенно в отношении виртуальных активов. После исключения из «серого» списка Международной организации по противодействию отмыванию преступных доходов (FATF) Исполнительное управление по борьбе с отмыванием денег и финансированием терроризма приступило к выполнению более 100 рекомендаций по результатам Национальной оценки рисков 10 июля 2024 г. Эти усилия, курируемые шейхом А. бен Заидом Аль Нахайяном, направлены на снижение рисков в секторах с высокой степенью угрозы, повышение прозрачности юридических лиц и поддержку инициатив в секторе виртуальных активов. ОАЭ создали первый в мире специальный регулятор виртуальных активов в Дубае – Ведомство Дубая по Виртуальным Активам. Кроме того, в период с 2024 по 2026 г. планируется провести комплексную программу более чем из 50 семинаров по обучению заинтересованных сторон рискам отмывания денег и финансирования терроризма [Malak, 2024]. Правительство ОАЭ стремится создать безопасную и прозрачную экосистему для операций с виртуальными активами, принимая во внимание потенциал и вызовы, связанные с ИИ.
В сентябре 2023 г. «Смишинговая триада» значительно расширила свою целевую аудиторию на территории ОАЭ. Группа была замечена в использовании доменных имен, похожих на те, что применялись в предыдущих кампаниях, и внедрила геофильтрацию, чтобы специально нацеливаться на граждан ОАЭ с помощью смишинговых страниц. Выдавая себя за авторитетные организации, такие, как Emirates Post (официальная служба доставки ОАЭ), группа рассылает текстовые сообщения для сбора личной и финансовой информации. Затем эти данные используются для мошеннических действий в отношении частных лиц и предприятий. «Смишинг-триада» получает базы данных персональной идентифицируемой информации (PII) с учетом географических особенностей от брокеров Dark Web, чтобы выявлять потенциальных жертв [Resecurity, 2023]. Раньше фишинговые письма можно было распознать по языковым ошибкам и их безличному характеру. Однако с появлением ChatGPT злоумышленники теперь могут создавать персонализированные фишинговые сообщения, основанные на предыдущих «успешных» сообщениях или содержащие конкретные детали, чтобы сделать их более правдоподобными. Распознать такие аферы с первого взгляда становится всё труднее.
Благодаря современным технологиям хакеры теперь могут без труда распространять ложную информацию. Достижения в области ИИ уже оказали значительное влияние на системы блокчейна и криптовалют, которые получили своё распространение после финансового кризиса 2008 г. [Chenguel, 2023]. Продвигая определённые акции или криптовалюты как представляющие ценность с помощью ложной информации, хакеры могут спровоцировать ажиотаж среди инвесторов. Как следствие, компании и частные лица могут вкладывать деньги в эти акции, искусственно завышая их стоимость. Это создает выгодную схему для преступников, которые уже заранее приобрели часть акций или криптовалюту.
Таким образом, влияние угроз второго уровня выходит за рамки физических и кибернетических аспектов, затрагивая и психологические последствия – как непосредственные, так и долгосрочные. Эти последствия могут оказывать как контролируемое, так и неконтролируемое негативное воздействие на психическое состояние людей. Необходимо также понимать, что технологии ИИ развиваются быстрее, чем законодательная база – это создает риск использования ИИ без надлежащего контроля и соблюдения этических норм. Без четких регуляторных норм и международных соглашений существует опасность неконтролируемого распространения технологий и их использования в злонамеренных целях.
Третий уровень угроз информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта
Несмотря на наличие национальных законов, таких как Закон о киберпреступлениях, который запрещает кибербуллинг, создание дипфейков и публикацию фейковых новостей, ОАЭ, как и многие другие страны, сталкиваются с проблемой распространения дезинформации. Такие фальшивые материалы могут угрожать политической стабильности государства, нанося ущерб политическим институтам и разжигая общественное недовольство.
Рост объемов созданных дипфейков и их распространение представляет собой серьёзную угрозу для различных аспектов безопасности, как личной, так и государственной. Инструменты для создания дипфейков предоставляют рынки даркнета – анонимные площадки, на которых торгуют запрещёнными товарами и услугами. Согласно результатам исследования Kaspersky Business Digitization, около 51 % сотрудников в регионе Ближнего Востока и Северной Африки считают, что могут отличить подделку от реального изображения. Однако при проведении тестирования только 25 % смогли отличить подлинное изображение от созданного ИИ [Kaspersky, 2024]. Это говорит о том, что организации уязвимы для потенциальных мошенников, поскольку киберпреступники используют созданные ИИ изображения в незаконных целях. Например, киберпреступники могут создать поддельное видео, на котором генеральный директор санкционирует денежный перевод или утверждает платеж, что приведет к краже корпоративных средств.
В ОАЭ существуют примеры, которые подтверждают сложившуюся ситуацию. Так, в ноябре 2023 г. власти ОАЭ задержали 43 человека, подозреваемых в участии в международной преступной группе, которая использовала дипфейк-технологию для кражи 36 млн долларов (131,4 млн дирхамов) у двух азиатских фирм. Предположительно, группа нацеливалась на крупные предприятия, взламывая электронную переписку между руководителями компаний и местными менеджерами, убеждая сотрудников перевести значительные суммы денег на их банковские счета в Дубае. В ходе расследования выяснилось, что группа получила несанкционированный доступ к системам электронной почты компании, перехватывая сообщения между генеральным директором и филиалами. Используя дипфейк-технологию, члены группировки выдавали себя за директоров компании и копировали их голоса, чтобы поручить менеджерам филиалов перевести 19 млн долларов на счет в Дубае для проведения конфиденциальной деловой сделки. Преступники использовали сложные методы перевода денег, перемещая похищенные средства по нескольким счетам, а затем снимая их и направляя в специализированные предприятия, занимающиеся хранением и переводом денег [Salim S, 2023]. Этот случай стал одним из крупнейших за последние годы, продемонстрировав, насколько уязвимы даже крупные компании перед лицом кибермошенников, использующих передовые технологии для осуществления своих преступных замыслов.
Мошенничество с использованием ИИ распространено не только среди известных компаний, но также могут быть нацелены на частных лиц. В 2023 г. в ОАЭ произошёл ещё один резонансный случай, связанный с телефонным мошенничеством. Злоумышленник из Индии использовал сфальсифицированные аудио- и видеозвонки, чтобы заполучить тысячи дирхамов, представившись другом, попавшим в трудное финансовое положение из-за проблем со здоровьем. Пострадавшим оказался 73-летний мужчина, который не заподозрил обмана, поскольку мошенник применил тактику раскрытия подробностей из личной жизни жертвы, что способствовало созданию доверительных отношений и затруднило выявление фальсификации [Sankar, 2023]. Этот случай подчёркивает, что преступники продолжают использовать и усовершенствовать свои методы для оказания информационно-психологического воздействия на свою жертву, будь то компания или частные лица.
Доступ к онлайн-играм, появление генеративного ИИ подвергают детей многогранным угрозам, таким как киберзапугивание, груминг и секстинг [Faraz et al. 2022]. По данным исследований компании WeProtect, которая занимается защитой детей от сексуального насилия, число сообщений о груминге с целью финансового мошенничества возросло со 139 в 2021 г. до более чем 10 000 в 2022 г. [Webster, 2023b]. Этот рост эксперты связывают с популярностью социальных сетей и развитием технологий ИИ. Наибольшую опасность представляют случаи, когда злоумышленники, представляясь молодыми девушками, рассылают фейковые непристойные фото- и видеозаписи. Эти действия направлены на то, чтобы манипулировать подростками, которые в ответ отправляют реальные материалы. После этого преступники шантажируют жертв, требуя деньги за молчание и угрожая разоблачением перед родителями. Эти факты подчёркивают необходимость принятия более строгих мер регулирования контента и повышения осведомлённости подростков и их родителей о потенциальных угрозах. IT-компаниям также необходимо принимать более активное участие в борьбе с подобными преступлениями, включая разработку и внедрение инструментов для обнаружения и предотвращения груминга и распространения непристойного контента. В совокупности эти усилия смогут помочь снизить риск для детей и подростков, а также сделать цифровое пространство более безопасным.
Учитывая угрозы, которые представляют собой дипфейки, их использование для распространения фальшивых медиа и дезинформации, подрыва репутации (частных лиц, организаций или государств), а также клеветы вызывает серьёзные опасения. Правовые меры в ОАЭ в значительной степени зависят от характера и последствий использования дипфейков. Если дипфейки приводят к диффамации, то согласно Уголовному кодексу ОАЭ (Федеральный декрет-закон № 31 от 2021 года) это может быть наказуемо по статьям 425 или 426, что может включать тюремное заключение или наложение штрафа. Для осуществления диффамации при использовании цифровых средств, статья 44 Закона ОАЭ о киберпреступлениях увеличивает наказание до одного года тюрьмы и/или штрафа от 250 тыс. до 500 тыс. дирхамов за каждое нарушение. Также, если действия, связанные с дипфейками, представляют собой акт мошенничества, то статья 451 Уголовного кодекса ОАЭ предполагает наказание в виде лишения свободы или штрафа. При этом, согласно Закону о киберпреступлениях, такое мошенничество может повлечь за собой тюремный срок минимум на год и штраф от 250 тыс. до 1 млн дирхамов. Аналогично, законы предусматривают ответственность за нарушение личной неприкосновенности [Safar-Aly, 2024]. Таким образом, использование дипфейков в ОАЭ сопряжено с серьёзными правовыми рисками и может повлечь за собой суровые наказания, включая тюремное заключение. Законы, направленные на защиту частной жизни граждан, репутации и национальной безопасности, отражают решимость государства бороться с угрозами, исходящими от цифровых технологий, используемых в злонамеренных целях.
Развитие ИИ также привело к созданию и распространению религиозных чат-ботов. ОАЭ стали одной из 10 стран, где пользователи используют чат-бот QuranGPT [Prabhakar, 2023]. Однако этот тренд сопряжён с двумя основными проблемами: предвзятостью ИИ и получением доступа к религиозному чат-боту злоумышленниками. Создатели стремятся предоставить достоверное представление о своей религии и помочь пользователям лучше понять её учения. Тем не менее, виртуальный мир продолжает оставаться подверженной предвзятостям, как это показал случай с GPT-3, который был обвинён в исламофобии в 2021 г. [Samuel, 2021]. Такие проблемы могут возникать из-за неправильной интерпретации запросов пользователей ИИ, что может привести как к распространению дезинформации, так и к потенциальным конфликтам в обществе.
Заключение
Анализ угроз, связанных с технологиями ИИ в ОАЭ, подчёркивает многоуровневый характер этих рисков. На первом уровне внимание привлекают риски намеренно искаженного толкования восприятия ИИ со стороны антисоциальных групп, что может спровоцировать социально-экономические конфликты в регионе. Хотя данный феномен пока не играет существенной роли в общественной жизни ОАЭ, стоит ожидать, что злонамеренные акторы попытаются использовать негативные последствия и достижения в развитии отрасли в своих целях. Особенно это актуально в условиях крайне напряжённой и опасной ситуации на Ближнем Востоке и во всём мире в целом. Второй уровень угроз представлен возможностью проведения кибератак на критически важные объекты инфраструктуры, что может повлечь за собой значительные потери и негативные последствия для населения. Количество подобных атак неуклонно растет, а роль ИИ в их реализации становится всё более значимой. Наконец, третий уровень угроз заключает в себе опасность манипуляции общественным мнением с помощью деструктивных методов информационно-психологического воздействия, включая дипфейки и чат-боты. Данные многообразные риски требуют комплексного подхода и незамедлительных действий со стороны государственных структур и общества, чтобы гарантировать информационно-психологическую безопасность и защиту интересов граждан в условиях быстроменяющегося технологического ландшафта.