Цифра —  Статьи —  Искусственный интеллект в финансах: нужны ли новые «законы робототехники»

Искусственный интеллект в финансах: нужны ли новые «законы робототехники»

05.07.2021
05.07.2021

Внедрение искусственного интеллекта в финансах происходит стремительно: очень скоро многие процессы работы банка или страховой компании будут полностью управляться нейросетями. Это эффективно и удобно, но есть и «подводные камни».

Автор: Павел Самиев, генеральный директор аналитического центра «БизнесДром»

Сегодня обучающиеся нейросети и роботизированные системы анализа информации все больше внедряются в рабочие процессы банков, страховщиков и инвестиционных компаний. К этому можно отнести трейдинг, андеррайтинг, тарификацию в страховании, выявление мошенничества, оценку кредитных рисков заемщиков, моделирование рыночных сценариев, а также роботизацию общения с клиентами с использованием голосовых и текстовых ботов. И чем больше искусственный интеллект будет проникать в работу компаний, тем выше станет вероятность возникновения множества моментов, когда требуется ответственность за принятие решений, управление рисками и доступ к данным. Сами банкиры соглашаются с тем, что не всегда понимают, почему, например, скоринговые роботы выдают разные результаты подсчетов. Это значит, что на сегодняшний день, в отчетности банков эффект от внедрения искусственного интеллекта (ИИ) будет сложно увидеть, так как его сложно посчитать, а еще труднее формализовать.

В связи с активным повышением значимости ИИ возникают очевидные вопросы: во-первых, кто будет контролировать качество ИИ? Регулятор или аудитор? Ведь робот – это субъект действий, но не субъект права. На чьи плечи ложится ответственность за его решения? На производителя или банк, который его использует, или на менеджера, который курирует его работу? Отсюда вопрос, какую информацию разработчик ИИ мог бы дать регулятору, ведь это и ноу-хау, интеллектуальная собственность, и конкурентное преимущество, которое не может быть открыто для всех. Во-вторых, вопрос кибербезопасности. Когда начнутся проверки и контроль регулятором за ИИ, сразу возрастет угроза «промышленного шпионажа» и утечек данных клиентов. В-третьих, при неправильном применении ИИ какие будут штрафы и санкции со стороны регулятора? Нужно ли компаниям создавать отдельный учет подверженности рискам?

Очевидно, что финансовые регуляторы всего мира и Банк России, в том числе, в ближайшее время должны будут сформулировать правила применения ИИ в банкинге и других областях финансового рынка. Регулятору придется вспомнить законы роботехники Азимова и применить их к ИИ. Возможно, они будут звучать примерно так: робот не должен причинять вред своему банку и его клиентам, должен следовать только валидированным алгоритмам и обеспечивать кибербезопасность.

Правда, если рассматривать отдельные случаи, эти принципы могут начать противоречить друг другу. Это потребует выстраивания приоритетов, а они у участников рынка разные. Регулирование должно помочь избежать конфликтов интересов.

Вы удачно подписаны!
Связаться с нами
Оставьте ваше сообщение с помощью формы обратной связи
Подписаться на рассылки
Введите адрес электронной почты в форму ниже
Спасибо за подписку
Пожалуйста, проверьте почту и подтвердите ваш email
Вы уже подписаны
Email %email% уже подписан на рассылку