Открытые системы OSP: Демократизация ИИ: какие угрозы и риски необходимо учитывать
Наши уважаемые эксперты — о рисках и угрозах для бизнеса, связанных с широким использованием ИИ, на которые следует обратить внимание при планировании проектов, нацеленных на демократизацию ИИ.
О рисках, связанных с повсеместным распространением искусственного интеллекта, сегодня говорят много. Какие из этих рисков актуальны для корпоративного сектора? Об угрозах, которые несет демократизация ИИ в компаниях, и о сопутствующих рисках, на которые следует обратить внимание, мы попросили рассказать экспертов, планирующих принять участие в ближайшем форуме «Данные+ИИ ― 2025.
Очень многие наши эксперты отметили кибербезопасность и защиту данных среди ключевых проблем, появляющихся в ходе демократизации ИИ. Корень проблемы кроется в публичных
«Многие нейронные сети находятся за периметром компании, и сотрудник может непреднамеренно отправить вовне конфиденциальную информацию, — поясняет Михаил Комаров, директор по развитию бизнеса в области работы с данными и искусственным интеллектом дата-кластера компании «Ростелеком». — Для подобных случаев важно применять защитные меры. Так, для контроля работы с внешними сетями в “Нейрошлюз” интегрировано DLP-решение, которое анализирует информацию, отправленную пользователями. Кроме того, значительная часть нейронных сетей локализована. Чем больше нейросети будут внедряться в нашу жизнь, тем острее будет стоять проблема слишком высокого доверия к ним. Важно сохранять критическое мышление и не использовать нейросети бездумно, иначе риск искажения информации и принятия ошибочных решений будет существенным».
Никита Ильин, архитектор Visiology, предупреждает: «Обращаясь к внешним облачным ИИ-сервисам, компании рискуют не только собственными данными (поскольку возможны их утечки), но и целостностью своей ИТ-инфраструктуры. Не случайно сегодня набирают популярность локальные модели LLM — за счет удачных алгоритмов они практически не уступают открытым облачным сервисам при решении корпоративных задач, а после специального обучения могут и превосходить их».
Николай Тржаскал, директор по продуктам «Преферентум» компании SL Soft, также подчеркивает угрозу кибератак: «В частности, неправильно настроенные ИИ-системы или комплексы, построенные путем их интеграции, могут стать уязвимыми точками — это особенно критично для банковской сферы и онлайн-торговли. Кроме того, есть угроза зависимости от качества и доступности локальных решений после ухода зарубежных вендоров: российские разработчики стремятся быстрее вывести на рынок новые версии решений, нередко жертвуя тщательностью их тестирования. Такая спешка может привести к ошибкам в расчетах, сбоям в работе и снижению производительности. Нельзя забывать и о рисках, связанных со сложностью оценки окупаемости (ROI): эффект от внедрения ИИ часто бывает трудно измерить из-за длительного периода адаптации, отсутствия четких метрик и сложности прогнозирования. Однако самая серьезная, на мой взгляд, угроза — опасность завышенных ожиданий: руководители, вдохновленные успешными кейсами конкурентов, могут недооценить необходимость долгосрочного сопровождения ИИ-систем, что снижает их эффективность. Важно понимать, что если бизнес-процессы компании не готовы к внедрению ИИ, затраты могут оказаться необоснованными, а выгоды — неочевидными. Снизить риски и повысить предсказуемость результатов внедрения ИИ компаниям поможет запуск и анализ пилотных проектов, формирование четких метрик эффективности и учет дополнительных затрат на обучение, техническую поддержку и обновление технологий».
Олег Гиацинтов, технический директор DIS Group, отмечает: «ИИ, как и любой другой инструмент, может применяться с разными целями. Применение ИИ в неблаговидных целях будет приводить к увеличению числа финансового мошенничества — именно в этом я вижу основные риски, которые необходимо отслеживать и продумывать варианты их предотвращения и минимизации».
Максим Иванов, директор по развитию компании Modus, особое внимание обращает на риск применения ИИ для дискредитации бизнеса и сотрудников компании, например, с применением дипфейков. Что касается рисков утечек данных в ходе работы с внешними сервисами ИИ, то для их минимизации следует прививать сотрудникам культуру использования ИИ и обучать правилам обращения с конфиденциальной информацией. Третья группа рисков, о которой говорит Иванов, касается неточности ответов от
Дмитрий Дорофеев, главный конструктор ГК Luxms, в список наиболее значимых угроз, вызванных демократизацией ИИ, включает непрозрачность работы нынешних
Антон Балагаев, директор по консалтингу Arenadata, делит существенные угрозы ИИ на две большие группы: угрозы от действий, ответственность за которые возложена на людей, но которые бездумно делегируют свои полномочия искусственному интеллекту, и угрозы от действий, которые полностью возложены на ИИ. «Анализируя первую группу угроз, важно помнить, что большие языковые модели созданы так, чтобы их ответы нравились людям, и в этом кроется проблема. LLM может, например, выдумать для клиента несуществующий продукт, чтобы клиент ушел довольный, или подобрать хоть
Вера Краевская, генеральный директор «ВижнСервис» видит две ключевые группы рисков. Первая вызвана открытостью моделей ИИ, точнее, рисками нарушений требований регуляторов при работе с открытыми внешними
Федор Медведев, директор департамента проектных решений и поисковых систем компании Naumen, считает наиболее актуальными проблемы кибербезопасности, качества данных, а также вопросы этики и конфиденциальности данных. «Кроме того, компании могут столкнуться с нехваткой методологий внедрения ИИ, поскольку это относительно новая технология. Недостаточный опыт ее применения может привести к неэффективному использованию ресурсов и затруднить интеграцию ИИ в
Сергей Галеев, руководитель отдела
Александр Борисов, руководитель направления Data Science RAMAX Group, склонен связывать основные угрозы ИИ для бизнеса с завышенными ожиданиями (якобы ИИ заменит всех сотрудников), недоверием к прогнозам и выводам ИИ, вызванным непрозрачностью моделей и зависимостью прогнозов ИИ от данных (обучение на неполных или неверных данных усилит риск неверных результатов), а также проектными рисками при внедрении ИИ. «Во всех этих случаях следует использовать план по митигации рисков, адаптированный под конкретную проектную среду и архитектуру предприятия», — рекомендует Борисов.
«С одной стороны, компании уверенно фиксируют экономическую выгоду от внедрения ИИ, с другой — существуют реальные вызовы, связанные с безопасностью и защитой чувствительных данных, — комментирует Константин Саратцев, директор по продукту компании Insight. — Этот факт риска будет существовать всегда. Подходы к управлению этим риском требуют постоянного мониторинга, внедрения новых инструментов защиты и обучения персонала, чтобы вовремя предотвращать технические сбои и ошибки, вызванные человеческим фактором».
Александр Ефимов, исполнительный директор практики продвинутой аналитики GlowByte, предостерегает от этических и репутационных рисков, киберрисков, зависимости от технологий и нормативной неопределенности: «Важно понимать, что этих угроз можно избежать при наличии правильной стратегии и подготовки. Чтобы минимизировать этические и репутационные риски, следует внедрять принципы прозрачности и регулярной проверки моделей ИИ: встраивать в процессы независимые аудиты данных, обучать сотрудников работе с технологиями на „
«Основными угрозами для бизнеса все еще являются ошибки ИИ (галлюцинации) и связанные с ними репутационные риски, — уверен Григорий Шершуков, директор по продуктам компании „Наносемантика“. — Также к рискам можно отнести киберугрозы и атаки, что часто решается использованием закрытого контура на локальном оборудовании заказчиков. Нужно не упускать из виду и этические вопросы применения автоматизированных ассистентов для общения с клиентами — иногда эти роботы пытаются „замаскироваться“ под сотрудников».
«Основными угрозами для бизнеса все еще являются ошибки ИИ (галлюцинации) и связанные с ними репутационные риски, — уверен Григорий Шершуков, директор по продуктам компании „Наносемантика“. — Также к рискам можно отнести киберугрозы и атаки, что часто решается использованием закрытого контура на локальном оборудовании заказчиков. Нужно не упускать из виду и этические вопросы применения автоматизированных ассистентов для общения с клиентами — иногда эти роботы пытаются „замаскироваться“ под сотрудников».
Светлана Кабалина,
Нынешние особенности генеративного ИИ, по мнению Дмитрия Гольцова, заместителя генерального директора компании «Мегапьютер», объясняются новизной данной технологии: «Ей сегодня свойственны „детские“ болезни, самая явная из которых — проблема галлюцинаций. Между тем, есть критически важные задачи (например, выявление нежелательных явлений в истории болезни пациента), где у вас не должно быть вообще никаких галлюцинаций, потому что ошибка здесь может иметь самые пагубные последствия. Сейчас даже самые продвинутые модели генеративного ИИ не готовы к применению в критичных задачах в режиме самостоятельной работы без контроля со стороны человека».
Александр Костюков, менеджер продукта Easy Report компании Sapiens solutions, предлагает проверять достоверность получаемых от ИИ данных и предлагаемых решений, пропуская их сквозь призму критической интерпретации: «Если используемое решение базируется на генеративном ИИ с минимумом детерминированной логики, то велика вероятность галлюцинаций и искажения фактов. Чтобы минимизировать их влияние, к автоматизируемым на базе ИИ процессам нужно приставить ответственных сотрудников — владельцев процессов, чтобы они отслеживали функционирование механизма ИИ». Еще одним значимым риском демократизации ИИ Костюков называет риск саботажа со стороны пользователей: «Внедрение
Как видим, среди перечисленных экспертами рисков и угроз, связанных с демократизацией ИИ, есть как временные, вызванные недостаточной зрелостью ИИ и методологий его применений, но есть и постоянные, которые придется учитывать на протяжении долгого времени. Что важно, далеко не все риски минимизируются чисто техническими методами — на часть из них прямое влияние оказывает человеческий фактор, и здесь без серьезной работы с персоналом не обойтись.
Фото: Открытые системы OSP