AlgorithWatch опубликовали свежий отчёт о идентификации граждан и скоринге в 5 африканских странах и в Китае [1]. В отчете разобраны примеры Уганды, Туниса, Ганы, Руанды, Зимбабве и приведен пример китая по социальному скорингу. Почитать отчёт будет интересно всем тем кто задумывается о том как идентификация и цифровизация происходит в мире.
Вот лишь несколько важных факторов:
- только в Тунисе регистрируют всех детей до 5 лет, в остальных африканских странах только каждого второго;
- подавляющее число поставщиков систем скоринга и идентификации в Африке находятся за пределами континента. Это США, Китай и Евросоюз. Почти все они представлены на выставке ID4Africa проходящей с 2005 года;
- в Руанде компании секторов энергетики, ЖКХ и телекома передают данные о гражданах в кредитные бюро для большей точности кредитного скоринга;
- в Зимбабве работает наиболее продвинутая биометрическая база по идентификации людей по лицу и походке на базе китайской системы CloudWalk
Ссылки:
[1] https://algorithmwatch.org/en/identity-management-and-citizen-scoring-in-ghana-rwanda-tunisia-uganda-zimbabwe-and-china/
#privacy #biometrics
Вот лишь несколько важных факторов:
- только в Тунисе регистрируют всех детей до 5 лет, в остальных африканских странах только каждого второго;
- подавляющее число поставщиков систем скоринга и идентификации в Африке находятся за пределами континента. Это США, Китай и Евросоюз. Почти все они представлены на выставке ID4Africa проходящей с 2005 года;
- в Руанде компании секторов энергетики, ЖКХ и телекома передают данные о гражданах в кредитные бюро для большей точности кредитного скоринга;
- в Зимбабве работает наиболее продвинутая биометрическая база по идентификации людей по лицу и походке на базе китайской системы CloudWalk
Ссылки:
[1] https://algorithmwatch.org/en/identity-management-and-citizen-scoring-in-ghana-rwanda-tunisia-uganda-zimbabwe-and-china/
#privacy #biometrics
AlgorithmWatch
Identity-management and citizen scoring in Ghana, Rwanda, Tunisia, Uganda, Zimbabwe and China - AlgorithmWatch
A review of identity-management practices in five African countries shows that much of the continent is well on its way towards comprehensive biometric registration. It could enable comprehensive citizen scoring or automated surveillance in the near future.
IBM отказались в будущем разрабатывать технологии распознавания по лицам, об этом в письме руководителя IBM Арвинда Кришна в адрес Сената США [1] . The Verge подробно разобрали ситуацию с применением [2] технологий распознавания лиц и, в том числе, "расовым предубеждением алгоритмов" и злоупотребление полиции использования этой технологии.
Тема слежки полиции за гражданами сейчас будет одной из важнейших в США точно. 12 июня, завтра выходит фильм "Запрограммированное предубеждение" (Coded Bias) [3] за авторством Joy Buolamwini которая когда и обнаружила и описала то что алгоритмы распознавания лиц плохо различают женщин и людей с темным цветом кожи.
На многое ли это повлияет в мире? Пока сложно предсказать. Этих шагов не возникло бы из-за стихийных митингов в США, обвинений полиции в использовании технологий и активизации НКО противодействующих неэтичному использованию ИИ, например, AI Justice United [4] и другие.
Ссылки:
[1] https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/
[2] https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
[3] https://www.hrwfilmfestivalstream.org/film/coded-bias/
[4] https://ajlunited.org/
#facialrecognition #ibm #bias #biometrics #ai
Тема слежки полиции за гражданами сейчас будет одной из важнейших в США точно. 12 июня, завтра выходит фильм "Запрограммированное предубеждение" (Coded Bias) [3] за авторством Joy Buolamwini которая когда и обнаружила и описала то что алгоритмы распознавания лиц плохо различают женщин и людей с темным цветом кожи.
На многое ли это повлияет в мире? Пока сложно предсказать. Этих шагов не возникло бы из-за стихийных митингов в США, обвинений полиции в использовании технологий и активизации НКО противодействующих неэтичному использованию ИИ, например, AI Justice United [4] и другие.
Ссылки:
[1] https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/
[2] https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
[3] https://www.hrwfilmfestivalstream.org/film/coded-bias/
[4] https://ajlunited.org/
#facialrecognition #ibm #bias #biometrics #ai
Comparitech выпустили сравнение 96 стран по тому как те используют биометрические данные [1]. Согласно исследованию хуже всего ситуация в Китае и лучше всего в Эфиопии и Туркменистане (видимо из-за неразвитости технологий). В целом исследование не претендует на научность и практически полностью основано на публикациях в СМИ, которые и приведены в списке источников.
Уровень использования биометрических данных в России лучше чем в США или в Иране, но хуже чем в Польше, Германии или Казахстане.
Опять же, поскольку методология исследования вызывает очень много вопросов, интереснее приводимые там факты. Например, национальная биометрическая база в Китае включающая теперь ещё и данные ДНК [2] или разрешение компаниям собирать данных о мозговых волнах работниках [3].
И так далее, ещё много примеров по другим странам.
Что находится за пределами этого исследования так это то что биометрические данные концентрируются не только в государстве. Если говорить про Россию, то из актуального - это вхождение Яндекса в капитал Генотек'а [4], где хоть и сделано множество оговорок про не передачу Яндексу каких-либо данных, но не тревожить не может.
Впрочем, если говорить про Россию, то у нас наиболее вероятен китайский путь с построением одной или нескольких национальных баз данных с биометрическими данными и постепенное введение регуляторки по сдачи в государственную информационную систему(-ы) биометрических данных собираемых частными компаниями.
P.S. Не все знают и не все понимают природу биометрических данных. Приведу несколько примеров, без ссылок:
- кроме распознавания лиц есть немало других технологий бесконтактного снятия биометрических данных, например, распознавание радужной оболочки возможно на расстоянии до 10 метров, распознавание походки, распознавание по форме рук и кистей и др.
- расшифровка генома - это передача третьей стороне данных не только о себе, но и о своих ближайших родственниках;
- отпечатки пальцев родственников имеют много схожих признаков и, при наличии финансирования исследований в этом направлении, можно научиться выявлять взаимосвязи;
По биометрии не так много хорошей литературы, многие технологии в этой области очень наукоёмки и требуют длительных исследований, с другой стороны, если запреты на именно распознавание по лицам получит распространение, то пойдут инвестиции в исследования в других направлениях: распознавание одежды, формы горла и ушей и иных биометрических признаков.
Ссылки:
[1] https://www.comparitech.com/blog/vpn-privacy/biometric-data-study/
[2] https://www.rfa.org/english/news/china/collect-08232019115209.html
[3] https://www.businessinsider.com/china-emotional-surveillance-technology-2018-4?r=US&IR=T
[4] https://blog.genotek.ru/genotek-and-yandex
#privacy #biometrics #genetics
Уровень использования биометрических данных в России лучше чем в США или в Иране, но хуже чем в Польше, Германии или Казахстане.
Опять же, поскольку методология исследования вызывает очень много вопросов, интереснее приводимые там факты. Например, национальная биометрическая база в Китае включающая теперь ещё и данные ДНК [2] или разрешение компаниям собирать данных о мозговых волнах работниках [3].
И так далее, ещё много примеров по другим странам.
Что находится за пределами этого исследования так это то что биометрические данные концентрируются не только в государстве. Если говорить про Россию, то из актуального - это вхождение Яндекса в капитал Генотек'а [4], где хоть и сделано множество оговорок про не передачу Яндексу каких-либо данных, но не тревожить не может.
Впрочем, если говорить про Россию, то у нас наиболее вероятен китайский путь с построением одной или нескольких национальных баз данных с биометрическими данными и постепенное введение регуляторки по сдачи в государственную информационную систему(-ы) биометрических данных собираемых частными компаниями.
P.S. Не все знают и не все понимают природу биометрических данных. Приведу несколько примеров, без ссылок:
- кроме распознавания лиц есть немало других технологий бесконтактного снятия биометрических данных, например, распознавание радужной оболочки возможно на расстоянии до 10 метров, распознавание походки, распознавание по форме рук и кистей и др.
- расшифровка генома - это передача третьей стороне данных не только о себе, но и о своих ближайших родственниках;
- отпечатки пальцев родственников имеют много схожих признаков и, при наличии финансирования исследований в этом направлении, можно научиться выявлять взаимосвязи;
По биометрии не так много хорошей литературы, многие технологии в этой области очень наукоёмки и требуют длительных исследований, с другой стороны, если запреты на именно распознавание по лицам получит распространение, то пойдут инвестиции в исследования в других направлениях: распознавание одежды, формы горла и ушей и иных биометрических признаков.
Ссылки:
[1] https://www.comparitech.com/blog/vpn-privacy/biometric-data-study/
[2] https://www.rfa.org/english/news/china/collect-08232019115209.html
[3] https://www.businessinsider.com/china-emotional-surveillance-technology-2018-4?r=US&IR=T
[4] https://blog.genotek.ru/genotek-and-yandex
#privacy #biometrics #genetics
Comparitech
Biometric data collection by country: What's collected, how is it used?
This study looks at the type of biometric data collected by 96 countries and how it is used. We've scored and ranked countries to see which are the most invasive of visitors' or citizens' privacy.
По поводу принуждения к сдаче биометрии для получения Госуслуг [1] лично я считаю всё это ошибкой и принуждение к сдаче биометрических данных особенно. Причём ошибка эта двойная.
Первая её часть в том что если подталкиваешь к чему-то граждан то важна просветительская кампания которой не было, нет и, похоже, не планируется. Потому что найдутся те кто дойдет до Конституционного суда если их принуждать сдавать биометрию.
А вторая часть этой ошибки в том что тезисы о том что биометрия обеспечивает лучшую защиту очень спорный. Утечка биометрических данных невосполнима, лицо, отпечатки пальцев, голос и многое другое - не поменять и кроме биометрии есть и другие пути идентифицировать граждан/пользователей.
Я вообще не понимаю зачем именно гос-во ввязалось в создание ЕБС, сама идея с постепенным принуждением будет вызывать раздражение у граждан. Уже вызывает, на самом то деле. Граждане всё больше напрягаются на любые требования по сбору их личных данных и текущий подход по сбору биометрии ошибочен.
Ссылки:
[1] https://www.kommersant.ru/doc/5171552
#biometrics #security #authentication #government
Первая её часть в том что если подталкиваешь к чему-то граждан то важна просветительская кампания которой не было, нет и, похоже, не планируется. Потому что найдутся те кто дойдет до Конституционного суда если их принуждать сдавать биометрию.
А вторая часть этой ошибки в том что тезисы о том что биометрия обеспечивает лучшую защиту очень спорный. Утечка биометрических данных невосполнима, лицо, отпечатки пальцев, голос и многое другое - не поменять и кроме биометрии есть и другие пути идентифицировать граждан/пользователей.
Я вообще не понимаю зачем именно гос-во ввязалось в создание ЕБС, сама идея с постепенным принуждением будет вызывать раздражение у граждан. Уже вызывает, на самом то деле. Граждане всё больше напрягаются на любые требования по сбору их личных данных и текущий подход по сбору биометрии ошибочен.
Ссылки:
[1] https://www.kommersant.ru/doc/5171552
#biometrics #security #authentication #government
Коммерсантъ
Госуслуги поворачиваются лицом к биометрии
Граждан мотивируют сдавать данные
Сегодня в 11:10, в рамках Privacy Day 2022 модерирую сессию Биометрия и другие персональные данные в школах: в чем опасность единой базы данных о детях.
Подключайтесь к трансляции https://privacyday.ru
#privacy #biometrics #vents
Подключайтесь к трансляции https://privacyday.ru
#privacy #biometrics #vents
2024.privacyday.net
Privacy Day 2024
Международная практическая конференция, посвященная приватности в сети и защите персональных данных.
Есть и другие новости, Налоговая служба США (IRS) законтрактовалась с компанием ID.me на работы по идентификации и распознаванию по лицам тех кто сдаёт личную налоговую отчетность онлайн. Об этом статья в Scientific American [1] со ссылкой на сайт IRS [2]. Главная причина - резкий всплеск мошенничества и преступлений связанных с подменой личности. Об этом в США был большой госдоклад за 2020 год [3] систематизирующий такие преступления.
Отдельная тема упоминаемая в статье, о том что частная компания обеспечивает идентификацию людей для госоргана и опасения что нельзя отдавать такие критичные функции бизнесу.
По моим наблюдениям, в России противоположная ситуация. Многих тревожит требование по биометрии именно потому что это делается как государственная система и сразу возникают страхи всеобъемлющей слежки.
Ссылки:
[1] https://www.scientificamerican.com/article/facial-recognition-plan-from-irs-raises-big-concerns/
[2] https://www.irs.gov/newsroom/irs-unveils-new-online-identity-verification-process-for-accessing-self-help-tools
[3] https://www.ftc.gov/system/files/documents/reports/consumer-sentinel-network-data-book-2020/csn_annual_data_book_2020.pdf
#privacy #facialrecognition #biometrics #usa #irs
Отдельная тема упоминаемая в статье, о том что частная компания обеспечивает идентификацию людей для госоргана и опасения что нельзя отдавать такие критичные функции бизнесу.
По моим наблюдениям, в России противоположная ситуация. Многих тревожит требование по биометрии именно потому что это делается как государственная система и сразу возникают страхи всеобъемлющей слежки.
Ссылки:
[1] https://www.scientificamerican.com/article/facial-recognition-plan-from-irs-raises-big-concerns/
[2] https://www.irs.gov/newsroom/irs-unveils-new-online-identity-verification-process-for-accessing-self-help-tools
[3] https://www.ftc.gov/system/files/documents/reports/consumer-sentinel-network-data-book-2020/csn_annual_data_book_2020.pdf
#privacy #facialrecognition #biometrics #usa #irs
Scientific American
Facial Recognition Plan from IRS Raises Big Concerns
Government agencies are tapping a facial recognition company to prove you’re you
На vc.ru статья [1] про инициативу конкретного человека по сбору списка сотрудников компании NTechLab и, по сути, применения к ним культуры отмены. Для тех кто не знает, NTechLab - это российская компания разработчик технологии распознавания по лицам. Технологии мирового уровня по многим измерениям, оценкам и практике применения.
Лично я, мягко говоря, против культуры отмены. Персонифицированные бойкоты слишком похожи на самосуд, даже при плохой правоохранительной системе, они, в основном, создают поддерживают атмосферу общего ожесточения.
Но сейчас хочу сказать не об этом. В технологических компаниях очень многие и слишком часто забывают про то что многие технологии имеют двойное назначение. В каких-то областях это давно знают, есть ограничения таких как Вассенаарских соглашения [2], иногда спорно применяемых к технологиям сильного шифрования, но тем не менее.
Так вот дело в том что во многих технологиях уже невозможно говорить о благих намерениях или говорить о непонимании того как Ваша технология будет применяться на практике. Разработчики безусловно отвечают за применение их технологии и должны уметь отвечать на вопросы:
1. Можно ли с помощью технологии нарушать права граждан?
2. Можно ли с помощью технологии усилить нарушение прав граждан?
3. Какие меры разработчик предпринимает чтобы снизить последствия такого применения?
и ещё многие другие.
Технологии распознавания лиц, силуэтов, походки, или технологии глубокого перехвата трафика и ещё многие безусловно относятся как таким технологиям двойного назначения.
И везде где возможно в мире внедрению таких технологий препятствуют общественные организации, политики, учёные и отдельные активисты.
Есть много примеров такого сопротивления. Сотрудники Гугл активно протестовали против разработки ПО для военных. Соцсети под давлением общественного мнения заблокировали ПО Geofeedia использовавшееся для мониторинга протестов полицейскими в США, а в отношении компании NetSweeper продающей ПО для фильтрации интернета было полномасштабное расследование [3] со стороны НКО Citizenlab в 2018 году.
Меры общественного сопротивления таким технологиям в мире включали: общественные кампании, публикации в СМИ, призывы правительствам стран проводить расследования, протесты при внедрении таких систем, письма сотрудникам с призывом увольняться и многое другое.
Но нигде не было призывов составлять списки всех сотрудников компании и применять к ним культуру отмены (читаем правильно - применять санкции и устраивать самосуд).
При том что я лично понимаю насколько все легальные меры воздействия на подобные компании в России и ряде других стран сейчас ограничены, но очень важно помнить что покраска мира в черно-белый цвет очень редко достигает своих целей.
Для меня всё это выглядит как часть очень неприятного для мира изменения - радикализация инженеров. Главное отличие профессионального инженера в способности нанести гораздо больший вред окружающему обществу при желании. Технологии, в принципе, за последние годы в направлении усиления малых команд и одиночек. Ни один террорист-смертник не мог ранее нанести столько вреда как очень мотивированный инженер сейчас. Возможно пользы тоже, но вред первичен.
Возвращаясь к ситуации с NTechLab. Методы культуры отмены против сотрудников которые сейчас против них применяют, безусловно, мне не нравятся, но и компания безусловно пошла по пути когда их технологии специально заточены под технологии массовой слежки.
Вопрос лишь кто может оказаться следующим на рынке нарушения приватности?
Ссылки:
[1] https://vc.ru/services/435936-programmist-opublikoval-spisok-sotrudnikov-ntechlab-on-obvinyaet-ih-v-pomoshchi-silovikam-v-arestah-posle-mitingov
[2] https://ru.wikipedia.org/wiki/Вассенаарские_соглашения
[3] https://citizenlab.ca/2018/04/planet-netsweeper/
#privacy #security #biometrics #facerecognition
Лично я, мягко говоря, против культуры отмены. Персонифицированные бойкоты слишком похожи на самосуд, даже при плохой правоохранительной системе, они, в основном, создают поддерживают атмосферу общего ожесточения.
Но сейчас хочу сказать не об этом. В технологических компаниях очень многие и слишком часто забывают про то что многие технологии имеют двойное назначение. В каких-то областях это давно знают, есть ограничения таких как Вассенаарских соглашения [2], иногда спорно применяемых к технологиям сильного шифрования, но тем не менее.
Так вот дело в том что во многих технологиях уже невозможно говорить о благих намерениях или говорить о непонимании того как Ваша технология будет применяться на практике. Разработчики безусловно отвечают за применение их технологии и должны уметь отвечать на вопросы:
1. Можно ли с помощью технологии нарушать права граждан?
2. Можно ли с помощью технологии усилить нарушение прав граждан?
3. Какие меры разработчик предпринимает чтобы снизить последствия такого применения?
и ещё многие другие.
Технологии распознавания лиц, силуэтов, походки, или технологии глубокого перехвата трафика и ещё многие безусловно относятся как таким технологиям двойного назначения.
И везде где возможно в мире внедрению таких технологий препятствуют общественные организации, политики, учёные и отдельные активисты.
Есть много примеров такого сопротивления. Сотрудники Гугл активно протестовали против разработки ПО для военных. Соцсети под давлением общественного мнения заблокировали ПО Geofeedia использовавшееся для мониторинга протестов полицейскими в США, а в отношении компании NetSweeper продающей ПО для фильтрации интернета было полномасштабное расследование [3] со стороны НКО Citizenlab в 2018 году.
Меры общественного сопротивления таким технологиям в мире включали: общественные кампании, публикации в СМИ, призывы правительствам стран проводить расследования, протесты при внедрении таких систем, письма сотрудникам с призывом увольняться и многое другое.
Но нигде не было призывов составлять списки всех сотрудников компании и применять к ним культуру отмены (читаем правильно - применять санкции и устраивать самосуд).
При том что я лично понимаю насколько все легальные меры воздействия на подобные компании в России и ряде других стран сейчас ограничены, но очень важно помнить что покраска мира в черно-белый цвет очень редко достигает своих целей.
Для меня всё это выглядит как часть очень неприятного для мира изменения - радикализация инженеров. Главное отличие профессионального инженера в способности нанести гораздо больший вред окружающему обществу при желании. Технологии, в принципе, за последние годы в направлении усиления малых команд и одиночек. Ни один террорист-смертник не мог ранее нанести столько вреда как очень мотивированный инженер сейчас. Возможно пользы тоже, но вред первичен.
Возвращаясь к ситуации с NTechLab. Методы культуры отмены против сотрудников которые сейчас против них применяют, безусловно, мне не нравятся, но и компания безусловно пошла по пути когда их технологии специально заточены под технологии массовой слежки.
Вопрос лишь кто может оказаться следующим на рынке нарушения приватности?
Ссылки:
[1] https://vc.ru/services/435936-programmist-opublikoval-spisok-sotrudnikov-ntechlab-on-obvinyaet-ih-v-pomoshchi-silovikam-v-arestah-posle-mitingov
[2] https://ru.wikipedia.org/wiki/Вассенаарские_соглашения
[3] https://citizenlab.ca/2018/04/planet-netsweeper/
#privacy #security #biometrics #facerecognition
vc.ru
Программист опубликовал список сотрудников NtechLab — он обвиняет их в помощи силовикам в арестах после митингов — Сервисы на vc.ru
Компания разрабатывает систему распознавания лиц по камерам и делится доступом к ней, например, с МВД и другими органами.