Алгоритмы, ведущие бизнес-процессы, привлекают внимание не столько своим инновационным потенциалом, сколько проблемами предвзятости. В то время как компании ожидали от ИИ беспристрастности и эффективности, на практике технологии лишь умножают предвзятости, содержащиеся в исходных данных или закладываемые разработчиками. Ответственность, как юридическая, так и репутационная, в конечном итоге ложится именно на бизнес.
Причины предвзятости алгоритмов
По словам экспертов, алгоритмы учатся на наборе данных, которые могут содержать множество искажений. Как отметил директор по искусственному интеллекту корпорации «Синергия», Андрей Комиссаров, если данные собраны с перекосом — например, из социальных сетей — то и модель, основанная на них, будет предвзятой. Под предвзятостью можно понимать, в частности, дискриминацию, происходящую по трем основным причинам:
- Обучение на дискриминационных данных. Алгоритмы могут основывать свои решения на неправильных примерах.
- Научение в процессе использования. Машины могут дообучается, принимая во внимание данные, которые уже содержат предвзятость.
- Ошибки в шаблонах. Если система работает по шаблону с ошибкой, она может искажать результаты.
Реальные примеры и последствия
Различные инциденты подчеркивают, насколько опасной может быть алгоритмическая предвзятость. Например, в 2018 году Amazon отказался от использования алгоритма для найма, который занижал рейтинги женщин-кандидатов. Это произошло в результате того, что в обучающей выборке преобладали резюме мужчин. Также наблюдается использование ложных корреляций, когда такие факторы, как почтовый индекс, используются для оценки кредитоспособности, что приводит к скрытой дискриминации.
Эксперты, такие как Алексей Хахунов из Dbrain, указывают на то, что такие случаи сложно предсказать, они становятся видимыми только тогда, когда пользователи сталкиваются с ними на практике. Для сравнения, в Западных странах компании активно применяют различные методы тестирования справедливости алгоритмов, включая оценку независимых экспертов, что способствует выявлению скрытых предвзятостей в ИИ.
Менталитет и юридическая ответственность
С начала 2020-х годов наблюдается значительное повышение осведомленности о проблемах предвзятости в ИИ. Компании начинают осознавать, что ответственность за дискриминацию, исходящую от их алгоритмов, теперь является юридически закреплённой. Как отметил Хахунов, фраза "я не знал, что модель дискриминирует" больше не может служить оправданием. Именно поэтому внедрение регулярных проверок и независимого аудита становится всё более важным для компаний, желающих избежать юридических последствий и сохранить свою репутацию.