На ИИ мы уповаем?

На ИИ мы уповаем?

Почему услуги по обеспечению уверенности в век компьютерного оборудования важны, как никогда ранее.

1000

Автор: профессор Сандер Клаус, руководитель Группы по изучению данных и бизнес-аналитики KPMG International, KPMG в Нидерландах

Представьте, что вы родитель, ребенок которого подал документы на поступление в учебное заведение. Вы хотите, чтобы у вашего ребенка были все шансы на поступление в выбранное учебное заведение, не так ли? А что если бы вы знали, что решение о распределении вашего ребенка принимает искусственный интеллект (ИИ)? Вы бы доверили алгоритму учитывать интересы вашего ребенка?

Именно с таким сценарием сталкиваются родители одного из городов в Нидерландах, с тех пор как школьная система начала использовать ИИ для создания более справедливой системы равномерного распределения учащихся. Алгоритм разработан, чтобы предотвратить переполнение наиболее популярных школ и обеспечить наилучшие общие результаты для всех детей. Но как доказать, что он работает правильно и учитывает этические аспекты?

Именно такая задача стояла перед нами, когда нас попросили разработать модель по обеспечению уверенности, которая бы убедила как администраторов, так и родителей в справедливости алгоритма, чтобы все заинтересованные стороны верили в существующую систему.

Разумеется, доверие уже давно является решающим фактором успеха или неудачи организации, ведь именно оно лежит в основе репутации, удовлетворенности клиентов, лояльности и акционерной стоимости. Вместе с тем в связи с широким распространением в сфере бизнеса методов анализа данных в целом и ИИ в частности, компьютерное оборудование и алгоритмы стали существенной частью уравнения доверия.

В результате у всех организаций возникают серьезные вопросы, поскольку, стремясь получить конкурентное преимущество в технологической гонке с помощью ИИ, компании готовы пойти на более существенные риски, несмотря на то что данные и алгоритмы, на которые они полагаются, становятся все более сложными и непонятными. Это может привести к ситуациям, при которых, например, руководителей просят принять важное решение на основании результата алгоритма, который они не создавали и не совсем понимают.

Хаотичный подход к данным и аналитике должен в ближайшем будущем превратиться в тщательно продуманный процесс, чтобы компании сохраняли доверие к своим методам ведения бизнеса. Пока уровень доверия весьма невысок, даже внутри самих компаний. Согласно недавно опубликованному отчету KPMG Guardians of Trust, который был подготовлен по результатам глобального опроса 2 200 лиц, ответственных за принятие решений в области информационных технологий (ИТ) и бизнеса и участвующих в разработке инициатив по управлению данными, лишь 35% респондентов продемонстрировали высокий уровень доверия к аналитической обработке данных в своих организациях1.

Для того чтобы ИИ стал поистине трансформационным, должна быть уверенность в том, как он функционирует. Именно поэтому комплексная модель обеспечения уверенности в отношении ИИ так важна: такая модель должна формировать доверие, гарантируя надежность алгоритмов, кибербезопасность системы, надлежащее внедрение ИТ-процессов и средств контроля, осуществление соответствующего управления данными, а также структуру корпоративного управления, учитывающую этические аспекты машинного обучения. Такие аспекты впоследствии включаются в управление широким спектром организационных рисков, таких как возможное влияние несоблюдения требований на финансовые результаты или репутацию.

При изучении такой модели обеспечения уверенности становится понятно, что аудит ИИ не так сильно отличается от аудита финансовой отчетности. К ней применимы те же принципы и передовые наработки, такие как «три линии защиты» и влияние возможных ошибок (существенность). Как и в случае с финансовой отчетностью, интересы общественности должны быть первоочередным приоритетом аудитора, как и стремление к прозрачности деятельности и тесному сотрудничеству с государственными и международными регулирующими органами. Как обычно, аудитор несет ответственность перед широкой общественностью, а также перед регулирующими органами и корпоративным сектором.

В конечном итоге управление компьютерным оборудованием не должно кардинально отличаться от управления людьми, и его следует интегрировать в структуру предприятия в целом. Следовательно, можно надеяться, что те, кого затрагивают принятые искусственным интеллектом решения, будут так же верить в систему, как и родители в Нидерландах, у детей которых будут более равноправные возможности при поступлении в учебное заведение благодаря алгоритму, прошедшему независимую проверку.

«Компании в самых различных индустриях Казахстана, особенно связанные с обслуживанием массового рынка, понимают, что для удержания своей доли рынка недостаточно просто расширять сеть филиалов, увеличивая зону охвата: необходимо понимать своих клиентов, их интересы, платежеспособность, то, какие устройства и продукты они уже купили, а также быстро реагировать на изменения в потребностях. Для получения четкой и прозрачной картины профиля своих клиентов и грамотного сегментирования разнородных групп многим предприятиям необходимо было потратить несколько лет только на структуризацию существующих данных, выделение ключевых моментов, оценку точности существующих записей. Благо для определения правильной стратегии развития анализа клиентских данных есть отличная возможность посмотреть на западный рынок с его опытом решения подобных задач, наличием огромного количества готовых решений и поставщиков.

На данный момент только самые продвинутые казахстанские банки и телеком-операторы завершают этап “Дикого Запада” – расширения объема “больших данных”, где первостепенной задачей является детальная запись истории активности пользователей, поиск дополнительных источников новых клиентских данных.

Вторым этапом является упорядочивание данных в удобный и доступный формат, обычно специально
заточенный на конкретные бизнес-задачи, и привязка к несложной и понятной всем модели оценки поведения клиентов. При этом, такие модели имеют несколько существенных недостатков – ограниченный, упрощенный формат используемых данных, необходимость в периодической калибровке параметров. Интеллектуальные алгоритмы, созданные на основе машинного обучения, способны сами экспериментировать с расширенным объемом данных, изменять себя в зависимости от результатов и со временем смещать собственные приоритеты для новых клиентов с новыми вводными параметрами.

Несмотря на то, что для нейронных сетей и прочих алгоритмов искусственного интеллекта, в отличие от действий человека, невозможно до конца понять, чем руководствовались системы при выполнении своей задачи, все действия, присвоенные баллы и входные параметры будут сохранены в доступном виде. Следовательно, необходимо отказаться от прежней парадигмы, где мы могли легко заглянуть во “внутренности” настраиваемых моделей, а научиться осторожно пилотировать новейшие технологии,
создавать внутренние контрольные процедуры и оценивать исполнение конечной бизнес-задачи», – комментирует Санжар Шаймерденов, старший консультант Группы консультирования в области ИТ, KPMG в Казахстане и Центральной Азии.

1Guardians of trust: Who is responsible for trusted analytics in the
digital age?

© 2024. ТОО «КПМГ Аудит», ТОО «КПМГ Такс энд Эдвайзори» и ТОО «КПМГ Валюэйшн», компании, зарегистрированные в соответствии с законодательством Республики Казахстан; участники глобальной организации независимых фирм KPMG, входящих в KPMG International Limited, частную английскую компанию с ответственностью, ограниченной гарантиями своих участников. Все права защищены.


Больше информации о структуре глобальной организации KPMG доступно по ссылке https://kpmg.com/governance.

Свяжитесь с нами