© gorgev - Depositphotos

Сегодня прогнозы для финансовых институтов и полиции нередко составляют компьютерные программы. Для некоторых клиентов страховых компаний и банков такая дигитализация чревата серьезными неприятностями.

Необъективная оценка

Если администрация предприятий и фирм предлагает лучшие места исключительно мужчинам, а выходцы из Африки заведомо считаются склонными к противозаконным действиям, это представляет собой явную дискриминацию. Но что делать «униженным и оскорбленным», если такой подход исходит не от людей, а от алгоритмов — компьютерных программ, составляемых на основе собранных данных?

А ведь подобные случаи уже происходят. Google Anzeigen «поймали» на том, что программа «показывала» лучше оплачиваемые места, когда считала пользователя мужчиной. В США полицейская компьютерная программа без реальных оснований прогнозировала афроамериканцам более высокий риск превратиться в преступников-рецидивистов, чем людям со светлым цветом кожи. В обоих случаях статистические зависимости определял алгоритм, т.е. искусственный интеллект.

Настало время поднимать вопрос о дигитальных правах человека, считает Килиан Фит, эксперт из фонда «Neue Verantwortung» («Новая ответственность»). Многие люди верят, что использование дигитальной техники автоматически ведет к более предметной оценке. Но техника не более объективна, чем человек, поскольку в нее изначально «встраиваются» многие присущие людям предрассудки, объясняет Фит. И если программист считает, что высокооплачиваемая работа больше подойдет именно мужчинам, он сознательно или бессознательно «вкладывает» это убеждение в свою программу. Алгоритмы рассчитывают только статистическую вероятность того, что два признака коррелируют друг с другом, не обращая внимания на смысловую связь между ними.

«Ненадежные» клиенты

Алгоритмы обобщают только один раз. Например, они оценивают как менее кредитоспособных жителей определенных городских микрорайонов или лиц с определенным профилем движения на хэнди. Банк, втайне работающий с такими программами, ориентируется на их результаты в принятии решений, что, безусловно, является нечестным по отношению к клиентам.

Неважно, желает ли потребитель взять кредит в банке, заключить страховой договор или приобрести товары онлайн, может случиться, что ему из-за места жительства, возраста, пола и других особенностей предложат худшие условия и более высокие цены, поскольку алгоритмы оценят его как менее ценного и заслуживающего доверия клиента. При этом сам человек не заметит и не узнает, что окажется ущемленным в своих правах по сравнению с другими клиентами. Ведь люди не знают даже того, какие их данные оцениваются искусственным интеллектом и в каких целях. «Эта непрозрачность представляет собой серьезную проблему, — беспокоится Фит. — Дискриминация становится видимой только тогда, когда можно окинуть взглядом целостную картину».

Контроль за алгоритмами

Таким образом, для предотвращения несправедливого попадания людей в заведомо невыгодное положение в результате использования алгоритмов в качестве первого шага Фит предлагает ввести большую прозрачность. Он считает необходимым, чтобы люди знали, какие критерии и для каких целей использует искусственный интеллект.

Фит (равно как и Федеральное объединение обществ по защите прав потребителей) требует введения своего рода «Algorithmen-TUEV», разоблачающего случаи дискриминации людей компьютерными программами, и введения соответствующих «знаков качества» для предприятий и учреждений. Потребителям следует предоставить возможность понимать, какими критериями определяются предлагаемые им тарифы и цены и какие их данные для этого подверглись оценке с использованием алгоритмов. Только так они смогут защититься от возможной дискриминации.

Дело не столько в самих алгоритмах, как в особенностях их использования. С одной стороны, они могут умножать и усиливать «вложенные» в них человеческие предрассудки, а с другой — способны принимать более объективные решения, если в них будут заложены соответствующие этические критерии.

Werbung