Ivan Begtin
8.08K subscribers
1.51K photos
3 videos
100 files
4.26K links
I write about Open Data, Data Engineering, Government, Privacy and Data Preservation and other gov and tech stuff
Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts ivan@begtin.tech

Contact @NMBabina for ads proposals
Download Telegram
В биометрии [1], технологиях распознавания основанных на признаках человека таких как отпечатки пальцев, изображения радужной оболочки глаза, лица и почерку и многому другому, существует две важнейшие метрики.

FAR - False Acceptance Rate (коэффициент ложного пропуска ) и FRR - False Rejection Rate (коэффициент ложного отказа.

В большинстве случаев применения аутентификации пользователя важнее FAR, крайне важно чтобы под видом хорошего пользователя не мог войти злоумышленник и чтобы его отпечаток или изображение лица не могли использоваться для доступа к защищаемой системе/помещению/данным.

Но, в системах идентификации, когда надо найти конкретного человека из множества, важнее охватить больше условных подозреваемых, чем гарантированно идентифицировать конкретного человека. Идентификация может происходить дополнительными мерами.

По модели идентификации работают AFIS системы в правоохранительных органов где даже по неполным отпечаткам происходит поиск по базе данных и далее уже следователь/дознаватель/офицер полиции проводит отсев тех кто может быть причастен к приступлению.

Аналогично действуют системы выявления преступников на футбольных матчах. Например, The Guardian в заметке "Welsh police wrongly identify thousands as potential criminals" [2] пишут что во время футбольного матча Лиги Чемпионов в 2017 году полиция Уэльса ошибочно идентифицировала преступников.

Но это конечно же совсем не так. Из 170 тысяч посетителей матча алгоритмы автоматически определили 2 470 человек как преступников по базе данных фотографий, но из них ошибочно 2 297 человек (92%).

У полиции существует множество дополнительных инструментов проверки информации о человеке, системы проверки так или иначе будут дополнять друг друга со временем, и высокий процент срабатываний в данном случае - это не обвинение каждого человека при каждом срабатывании, а индикатор более тщательной проверки.

Кстати, к вопросу о социальных рейтингах. Спорт - это одна из тех областей где они могут применяться на практике. В первую очередь из-за очень высокой вероятности антисоциального поведения и все большей технологической готовности отслеживания спортивных болельщиков.

Ссылки:
[1] https://ru.wikipedia.org/wiki/%D0%91%D0%B8%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B5_%D1%82%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D0%B8
[2] https://www.theguardian.com/uk-news/2018/may/05/welsh-police-wrongly-identify-thousands-as-potential-criminals

#biometry #facialrecognition
IBM отказались в будущем разрабатывать технологии распознавания по лицам, об этом в письме руководителя IBM Арвинда Кришна в адрес Сената США [1] . The Verge подробно разобрали ситуацию с применением [2] технологий распознавания лиц и, в том числе, "расовым предубеждением алгоритмов" и злоупотребление полиции использования этой технологии.

Тема слежки полиции за гражданами сейчас будет одной из важнейших в США точно. 12 июня, завтра выходит фильм "Запрограммированное предубеждение" (Coded Bias) [3] за авторством Joy Buolamwini которая когда и обнаружила и описала то что алгоритмы распознавания лиц плохо различают женщин и людей с темным цветом кожи.

На многое ли это повлияет в мире? Пока сложно предсказать. Этих шагов не возникло бы из-за стихийных митингов в США, обвинений полиции в использовании технологий и активизации НКО противодействующих неэтичному использованию ИИ, например, AI Justice United [4] и другие.


Ссылки:
[1] https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/
[2] https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
[3] https://www.hrwfilmfestivalstream.org/film/coded-bias/
[4] https://ajlunited.org/

#facialrecognition #ibm #bias #biometrics #ai
Есть и другие новости, Налоговая служба США (IRS) законтрактовалась с компанием ID.me на работы по идентификации и распознаванию по лицам тех кто сдаёт личную налоговую отчетность онлайн. Об этом статья в Scientific American [1] со ссылкой на сайт IRS [2]. Главная причина - резкий всплеск мошенничества и преступлений связанных с подменой личности. Об этом в США был большой госдоклад за 2020 год [3] систематизирующий такие преступления.

Отдельная тема упоминаемая в статье, о том что частная компания обеспечивает идентификацию людей для госоргана и опасения что нельзя отдавать такие критичные функции бизнесу.

По моим наблюдениям, в России противоположная ситуация. Многих тревожит требование по биометрии именно потому что это делается как государственная система и сразу возникают страхи всеобъемлющей слежки.

Ссылки:
[1] https://www.scientificamerican.com/article/facial-recognition-plan-from-irs-raises-big-concerns/
[2] https://www.irs.gov/newsroom/irs-unveils-new-online-identity-verification-process-for-accessing-self-help-tools
[3] https://www.ftc.gov/system/files/documents/reports/consumer-sentinel-network-data-book-2020/csn_annual_data_book_2020.pdf

#privacy #facialrecognition #biometrics #usa #irs