Банк России: ИИ должен регулироваться точечно

8 ноября 2023 г.

Согласно регулятору, искусственный интеллект должен регулироваться на основе риск-ориентированного подхода

Центральный банк сообщил, что придерживается риск-ориентированного принципа регулирования искусственного интеллекта (ИИ) в финансовой сфере. То есть, решения по регулированию принимаются в основе на анализ зависимости формата регуляторных требований от объема и вероятности реализации риска использования технологии в сравнении с потенциальным положительным эффектом от ее внедрения. Также регулятор выделяет три основные категории рисков по необходимости их регулирования: не требующие вмешательства вообще, которые могут быть ограничены за счет саморегулирования и рекомендаций, а также требующие внимания регуляторов.

При этом Банк не указал какие именно риски относятся к выделенным категориям, но также определил три основные группы рисков в целом. Прежде всего, это группа угроз, связанная с ошибками при разработке ИИ, а также возможность неверной интерпретации полученных результатов. Также, регулятор выделил риски, связанные с информационной безопасностью, в том числе проблему утечки персональных данных. Кроме того, был отмечен этический риск, предполагающий как принятие дискриминационных решений, так и общую непрозрачность результатов искусственного интеллекта. Наконец, ЦБ вновь обратил внимание на проблему монополий при разработке ИИ-решений со стороны крупных компаний.

Искусственный интеллект — это универсальный инструмент развития различных сфер экономики, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Область его применения широка: от медицины до транспортной инфраструктуры. Это объясняется логикой принятия решения. Как правило для того, чтобы сделать правильный вывод, человек проводит анализ похожих случаев и выявляет какие-либо закономерности. Такой подход позволяет разрешить возникшую задачу эффективно и рационально. ИИ же позволяет проанализировать миллионы таких близких случаев (что невозможно для людей) и предоставить результат», — пояснил депутат.

Нужно понимать, что любой искусственный интеллект — результат работы человека, напомнил эксперт. «Именно от человека зависит то, каким именно будет искусственный интеллект с точки зрения качества моделей, правильности предсказаний и недопущения дискриминационных решений. Подчеркну, что большая часть рисков, выявленная Банком России, действительно, имеет место быть и связана именно с человеческим фактором. Например, разработчик может использовать неправильную спецификацию модели и тем самым представить неверные результаты. Или использовать неполные данные при обучении выборки из-за чего точность предсказания также окажется низкой», — объяснил Немкин.

Именно поэтому ИИ-отрасль нуждается не сколько в полноценном законодательном регулировании, сколько в выработке стандартов при создании ИИ-решений, считает депутат. «Мы должны понимать, что считать качественным решением, а что нет. Фактически ИИ не должен являться закрытым ящиком, о котором экспертное общество ничего не знает. Такие стандарты уже появляются и вопрос находится в дискуссии. Думаю, что повышение прозрачности внедренных ИИ-решений нивелирует часть перечисленных ЦБ рисков», — заключил парламентарий.

Источник: Пресс-служба депутата ГосДумы РФ Антона Немкина

( )   

Комментарии закрыты.