Российские внутренние аудиторы: риск утечки конфиденциальных данных возглавил рейтинг рисков использования общедоступного ИИ для рабочих целей

В последнее время развитие технологий искусственного интеллекта идет быстрыми темпами, особенно с 2022 г., когда с запуском ChatGPT генеративный искусственный интеллект стал сенсацией для широкой общественности. Вау-эффект и последовавшая популярность способствовали тому, чтобы сделать безопасное внедрение генеративных моделей важным вопросом для компаний в целом и внутренних аудиторов в частности. 

Практика показывает, что переход на цифровые технологии часто происходит неравномерно, и не всегда в соответствии со стратегией развития компании. Поскольку многие инструменты ИИ находятся в свободном доступе и сравнительно дешевы, подразделения и сотрудники компаний могут использовать их самостоятельно и бесконтрольно. Как следствие, зачастую сложно определить (и контролировать), где и как ИИ используется в бизнесе, что влечет за собой большое количество рисков. 

Ассоциация «Институт внутренних аудиторов»1провела опрос 211 внутренних аудиторов из российских компаний разных секторов экономики, чтобы выяснить, какие риски сопровождают использование ИИ на рабочем месте, и как их можно минимизировать.

В топ-5 наиболее значимых, по мнению внутренних аудиторов, рисков использования общедоступного ИИ (например: ChatGPT, Claude, DeepSeek, GigaChat, YaGPT и прочее) для рабочих целей вошли:

1. Риск утечки конфиденциальных данных/ Нарушение конфиденциальности данных – 73%. 

2. Ошибки и недостоверная информация/ Создание дезинформации / Галлюцинирование (модели могут генерировать неполные или ложные ответы, а также выдавать правдоподобную, но фактически ложную информацию) – 70%.

3. Непонимание принципов работы ИИ сотрудниками (как результат: некорректное использование возможностей ИИ или неспособность выявить ошибки) – 43%.

4. Избыточная зависимость от технологий (сотрудники перестанут критически оценивать данные и решения, выработают привычку полагаться на ИИ, а также утратят креативное мышление) – 40%.

5. Непреднамеренное нарушение законодательства (ответы ИИ могут не соответствовать актуальным законодательным нормам) – 39%.

Иван Крайнов, Директор по внутреннему аудиту ГК «РОСВОДОКАНАЛ», уверен, что утечка конфиденциальных данных – это главный риск при использовании общедоступных ИИ-моделей. Данные, которые передаются в такие сервисы, могут не только использоваться для задач, поставленных пользователем и обучения моделей, но и попасть к третьим лицам с неизвестными последствиями. По мнению Ивана, особенно опасно неосознанное разглашение коммерческой тайны, персональных или финансовых данных.

Александр Тарасенко, независимый эксперт Ассоциации «Институт внутренних аудиторов», директор по аудиту технологий, также не удивлен, что риск утечки конфиденциальных данных находится на первом месте: «Компании-поставщики услуг генеративного ИИ могли бы уделять больше внимания публичному повышению уровня доверия к ним. Крайне мало случаев, когда поставщики предоставляют отчеты SOC (System and Organization Controls), которые в РФ можно выпустить в соответствии со стандартом ISAE 3000 (МСЗОУ 30002 ). Такого рода отчеты дают гораздо больше информации о системе внутреннего контроля и предоставляют разумную (или ограниченную) уверенность о её эффективности. В зависимости от типа отчета, это может быть как на момент времени, так и на определенный временной интервал (например, год). 

Даже если говорить про сертификацию ISO (которая только подтверждает, что система менеджмента соответствует требованиям стандарта), то не так много кто предоставляет сертификаты серий ISO 27000 (система менеджмента информационной безопасности), еще меньше предоставляют сертификат ISO 42001:2023 (система менеджмента ИИ, в том числе ответственная разработка и использование ИИ). Таким образом, при использовании внешних инструментов, я бы рекомендовал внимательно изучать политики приватности, сертификаты и отчеты о безопасности». 

Относительно второго по значимости риска («Ошибки и недостоверная информация…»), за который проголосовали 70% респондентов, Иван Крайнов, директор по внутреннему аудиту ГК «РОСВОДОКАНАЛ», предупреждает: «ИИ может выдавать очень убедительные, но фактически недостоверные ответы. Риск использования недостоверной информации особенно высок для юридических, аналитических и управленческих задач. Наличие такого риска требует обязательной двойной проверки полученных результатов, что, к сожалению, пока отсутствует в большинстве компаний». 

Илья Котлов, руководитель департамента внутреннего аудита ООО «УК Глобал Портс», полностью согласен с мнением о важности риска «Ошибки и недостоверная информация» и даже поставил бы его на первое место в связи с его очень высокой существенностью и потенциально быстрой реализацией: «Приведу простой пример. Я пишу много статей и периодически мне приходится искать результаты различных исследований, которые бы подкрепляли ключевые тезисы в тексте. Для ускорения процесса поиска я попробовал обратиться за помощью к ChatGPT. Он очень быстро и четко отработал запросы и сформировал целый перечень релевантных исследований и статистики. Причем, помимо всего прочего, он еще указал источники информации. Результаты работы ChatGPT выглядели очень солидно и надежно. Вот только при дальнейшем анализе оказалось, что большинства этих исследований и статистики не существует: ссылки на источники либо вели в никуда, либо к информации, не имеющей отношения к теме. Представляете, что будет, если финансовый аналитик заложит в проект бюджета тенденции макроэкономического развития, сгенерированные нейросетью и несоответствующие действительности? Последствия для компании могут быть катастрофическими и очень быстрыми. Поэтому здесь, как никогда, становится актуальным принцип «доверяй, но проверяй». Следование этому принципу должно стать аксиомой и неотъемлемым элементом информационной гигиены при использовании ИИ».

В топ-5 мер по снижению рисков, сопровождающих использование открытых ИИ-инструментов в рабочих целях, по мнению внутренних аудиторов, вошли:

1. Обучение сотрудников (о рисках использования публичных языковых моделей, о возможностях моделей, о правилах работы и т.д.) – 60%.

2. Создание внутренних политик использования ИИ – 57%.

3. Ограничение предоставления конфиденциальной информации (ограничение отправки в публичные языковые модели конфиденциальных и/или чувствительных данных) – 55%.

4. Верификация источников (проверка информации, предоставляемой моделью, с внешними надежными источниками данных) – 53%.

5. Разделение задач (использование публичных языковых моделей только для общих запросов, а для работы с чувствительными данными – только внутренние решения) – 45%.

По мнению Владимира Шатшнайдера, директора департамента ИТ-аудита и анализа данных, блок внутреннего аудита ПАО «Ростелеком», наиболее эффективная – особенно для телеком-компаний – мера по снижению рисков – это развертывание ИИ-моделей только во внутреннем изолированном контуре (за него проголосовали 38% респондентов). 

Иван Крайнов, директор по внутреннему аудиту ГК «РОСВОДОКАНАЛ», добавляет: «Недостаточная цифровая грамотность пользователей приводит к некорректному применению ИИ, использованию недостоверных ответов или загрузке в ИИ чувствительной информации. В отсутствие базового понимания того, как работает ИИ, все остальные меры, за исключением 100%-ого ограничения доступа, теряют эффективность».

При этом ограничение предоставления конфиденциальной информации стало самым распространенным способом, фактически используемым компаниями для снижения рисков, сопровождающих использование открытых ИИ-инструментов в рабочих целях (46%), тогда как создание внутренних политик использования ИИ и обучение сотрудников стоят на 2-м и 3-м месте (всего лишь с 23% и 22% соответственно).

В целом, по мнению 33% опрошенных внутренних аудиторов, управлению рисками, связанными с использованием ИИ в рабочих целях, компаниями уделяется недостаточное внимание (риски не управляются в качестве регулярного осознанного процесса). Только 9% уверены, что такие риски управляются в достаточной мере и регулярно используются основные лучшие практики. Александр Румянцев, руководитель отдела ИТ-аудита, VK, убежден, что тот факт, что люди стали чаще говорить о ИИ, уже демонстрирует положительную динамику в управлении рисками, связанными с его использованием. Александр предупреждает: «Работа с LLM-моделями является ярким примером сферы, которую будет очень сложно контролировать через запреты. Я рекомендую компаниям «возглавить» процесс использования этих инструментов и вести регулярную работу с сотрудниками: проводить обучение по промтированию, объяснять принцип работы продукта, приводить примеры последствий реализации рисков, рассказывать, что нельзя делать и почему». 

Илья Котлов, руководитель департамента внутреннего аудита ООО «УК Глобал Портс», уверен: «Внедрение ИИ должно сопровождаться очень тщательным тестированием и оценкой рисков. Задача менеджмента компании состоит в налаживании этих процессов, а внутренний аудит, безусловно, должен обладать той квалификацией, которая поможет провести оценку эффективности данных процессов наилучшим образом».

Александр Тарасенко, независимый эксперт Ассоциации «Институт внутренних аудиторов», директор по аудиту технологий: «Можно (и нужно) выстраивать разумные технические контроли, можно закрывать все во внутреннем контуре, но тут действуют те же законы, что и в информационной безопасности. Самое слабое звено при использовании ИИ – это человек. Поэтому крайне важно инвестировать достаточное количество времени в обучение, в повышение уровня осознанности и вовлеченности, а также понимание принципов работы. Без этого волну не оседлать, и она имеет все шансы вас смыть. Получается такой очевидно-банальный вывод: кто еще не начал использовать ИИ – начинайте использовать осознанно. Кто уже начал – берите под контроль».

Подводя итоги, Иван Крайнов, директор по внутреннему аудиту ГК «РОСВОДОКАНАЛ», говорит: «Результаты опроса демонстрируют, что в целом компании, по крайней мере на уровне подразделений внутреннего аудита, осознают серьёзность рисков, связанных с использованием ИИ, но на данный момент не выстроили системный подход по управлению данными рисками. На лидирующих позициях по данным опроса – утечка конфиденциальной информации, генерация недостоверных данных и слабое понимание принципов работы ИИ, что указывает в том числе на слабые места в управлении информационной безопасностью и цифровой грамотностью сотрудников компаний. Особое внимание нужно обратить на разрыв между важностью мер (например, обучение и внедрение политик) и их практическим применением. По моему мнению, в настоящее время компании либо не успевают внедрять реальные технические и организационные контроли, либо надеются на здравый смысл сотрудников, при этом бизнес остается уязвимым к ошибкам, регуляторным нарушениям и репутационным потерям. Для минимизации рисков необходимо оперативно переходить к интеграции ИИ в ИТ- и риск-контур с обязательной верификацией данных и аудитом использования». 

С результатом опроса можно ознакомиться на сайте Ассоциации «Институт внутренних аудиторов».


Примечания:

  1. Ассоциация «Институт внутренних аудиторов» (Ассоциация «ИВА»), зарегистрированная в 2000 г., является профессиональным объединением внутренних аудиторов, внутренних контролеров и работников других контрольных подразделений российских компаний и организаций.
  2. Минфин России: Международный стандарт заданий, обеспечивающих уверенность 3000 (пересмотренный) «Задания, обеспечивающие уверенность, отличные от аудита и обзорной проверки финансовой информации прошедших периодов»