• Пн. Июн 14th, 2021

Исследование показывает, что создает расовые предубеждения в технологии распознавания лиц.

Исследование показывает, что создает расовые предубеждения в технологии распознавания лиц.

Исследование показывает, что создает расовые предубеждения в технологии распознавания лиц..

Фото:CC0 Public Domain

По мере того, как технология распознавания лиц становится все более широко используемой во всем мире, все больше внимания уделяется дисбалансу производительности этой технологии в разных гонках..

В исследовании, опубликованном 29 сентября в журнале Транзакции IEEE по биометрии, поведению и идентификации, Исследователи из Техасского университета в Далласской школе поведенческих и мозговых наук (BBS) обрисовали основные факторы, которые способствуют этим недостаткам в точности распознавания лиц, и предложили руководство по оценке алгоритмов по мере совершенствования технологии..

Доктор Элис О’Тул, профессор Оге и Маргареты Мёллер из BBS, является старшим автором исследования, которое она описывает как «глубокое и неудовлетворительное», поскольку оно проясняет масштаб проблемы..

«Все ищут простое решение, но тот факт, что мы описываем различные способы возникновения предубеждений -ни один из них не является взаимоисключающим, -делает эту статью предостережением», -сказала она. «Если вы пытаетесь исправить алгоритм, знайте, сколько разных вещей происходит».

В исследовании, проведенном в прошлом году Национальным институтом стандартов и технологий (NIST), правительственное агентство обнаружило, что большинство алгоритмов распознавания лиц с гораздо большей вероятностью ошибочно идентифицировали расовые меньшинства чем белые, причем особому риску подвержены азиаты, чернокожие и коренные американцы.

В результате своего исследования ученые UT Dallas пришли к выводу, что, хотя универсального решения для всех не существует расовая предвзятость в алгоритмах распознавания лиц есть определенные подходы, которые могут улучшить производительность технологии..

Докторант психологических наук Жаклин Кавасос, ведущий автор исследования, разделила факторы, способствующие предвзятость на две категории: управляемые данными и определяемые операциями. Первые влияют на производительность самого алгоритма, а вторые исходят от пользователя..

«Факторы, управляемые данными, связаны с наиболее часто обсуждаемыми проблемами -что обучающий пул изображений сам по себе искажен», -сказал Кавазос. «Используются ли изображения для групп? Обучающие изображения одинакового качества для разных рас? Или есть что-то присущее алгоритмам вычисления лиц, различающихся между собой. раса группы? "

О’Тул добавил: «Наше обсуждение проблемы изображения расовой предвзятости является относительно новой темой. Мы показываем, что по мере того, как пары изображений становится труднее различать -по мере снижения качества -расовые предубеждения становятся более выраженными. Этого не было показано. перед."

Кавазос объяснил, что операционная систематическая ошибка может быть введена в зависимости от того, где установлен порог между решениями о сопоставлении и несоответствии, и от того, какие типы парных изображений выбраны..

«Наша статья подтверждает то, что было показано ранее: когда вы устанавливаете критерий для одной и той же идентичности по сравнению с разными идентичностями, это может повлиять на частоту ошибок, а иногда один и тот же порог дает вам разную частоту ошибок для разных рас», -сказал Кавасос. «Во-вторых, вы должны быть уверены, что при тестировании алгоритма пары изображений, которые имеют разную идентичность, всегда должны сопоставляться по демографическим характеристикам; -это гарантирует нам, что точность идентификации основана только на идентичности. Участникам-людям показывают два изображения разные люди с совпадающими демографическими данными -той же расы, одного пола и т. д. Если алгоритмы также не представлены в таких схожих парах, производительность алгоритмов может оказаться лучше, чем есть на самом деле, потому что задача машины проще ».

Хотя в исследовании излагается, как следует оценивать расовые предубеждения при использовании алгоритмов распознавания лиц, исследователи подчеркивают, что простого решения проблемы не существует..

«Одна из новинок в этой статье -это то, как она объединяет все эти факторы», -сказал О’Тул. «Раньше работа была сосредоточена на отдельных вопросах. Но вы должны просмотреть их все, чтобы узнать, как лучше всего использовать эти алгоритмы».

О’Тул считает, что их исследование может помочь пользователям понять, какие алгоритмы должны показывать предвзятость и как потенциально проводить калибровку с учетом этой предвзятости..

"Например, вы можете измерить производительность алгоритма разными способами. Один показатель может указывать на то, что алгоритм предвзято относится к расе, а другой -нет. Более того, алгоритм может быть предвзятым таким образом, который вы явно не измерили. , "Сказал О’Тул. «Например, одна мера может прямо указывать на то, может ли алгоритм ложно обвинить невиновного человека. Она может быть направлена ​​на определение того, насколько похожими должны выглядеть люди на двух изображениях, чтобы машина могла указать, что это один и тот же человек. Другой Измерение может быть сосредоточено на том, сколько правильных определений делает алгоритм. Эти меры основаны на одном и том же алгоритме, но они могут легко разделиться, указывая на предвзятость в одном случае и на справедливую производительность в другом ».

О’Тул сказала, что исследователи в ее области все еще борются с мифами о предвзятости распознавания лиц. Одна из них заключается в том, что предвзятость -это проблема машин..

«Выброс машин в окно не сделает процесс справедливым; люди сталкиваются с теми же проблемами, что и алгоритмы», -сказала она..

Еще одна проблема -преодолеть представление о расе как о дескрипторе "все или ничего"..

«Расу нельзя рассматривать как категориальную, или как будто существует ограниченный список рас», -сказал О’Тул. «По правде говоря, биологически раса непрерывна, поэтому неразумно думать, что можно сказать« расовое равенство »и настроить алгоритм для двух рас. Это может поставить в невыгодное положение людей смешанной расы».

Хотя ученые согласны с тем, что алгоритмы распознавания лиц могут быть полезны, если кто-то знает, как их использовать, и что новые алгоритмы позволили добиться значительного прогресса в борьбе с расовыми предубеждениями, они знают, что предстоит еще много работы..

«Это не означает, что эти алгоритмы не следует использовать сейчас в том виде, в каком они используются в настоящее время. Но есть факторы, которые необходимо учитывать, и операции должны выполняться с особой осторожностью», -сказал О’Тул. "Мы так много узнали о сложности проблемы, что должны признать, что, возможно, никогда не будет решения проблемы, когда каждое лицо одинаково сложно для распознавания лиц. алгоритм."

Дополнительная информация:

Жаклин Г. Кавазос и др. Сравнение точности алгоритмов распознавания лиц: где мы измеряем предвзятость расы?, Транзакции IEEE по биометрии, поведению и идентификации (2020). DOI: 10.1109 / TBIOM.2020.3027269

Предоставлено

Техасский университет в Далласе