"Искусственный интеллект и предубеждения" (AI and bias) [1] серия статей Брукингского института (США) где на сегодня их опубликовано уже три:
- Challenges for mitigating bias in algorithmic hiring [2]
- Fairness in algorithmic decision-making [3]
- Assessing employer intent when AI hiring tools are biased [4]
Все статьи посвящены актуальной теме алгоритмической дискриминации, с особенным акцентом в алгоритмическом найме людей. Например, там упоминается что из-за того что из-за того что алгоритмы языковых моделей обучаются на Google новостях то и, например, при применении word2vec, инструмента использующего корпус новостных данных, итоговый алгоритм оказывается предубеждённым относительно гендерных ролей в обществе [5]
Хотя и прямо сейчас в России это не кажется самой актуальной темой, однако не стоит её недооценивать. Алгоритмическая этика может "замыкать людей" в их социальных стратах не давая возможности выйти за их пределы.
Ссылки:
[1] https://www.brookings.edu/series/ai-and-bias/
[2] https://www.brookings.edu/research/challenges-for-mitigating-bias-in-algorithmic-hiring/
[3] https://www.brookings.edu/research/fairness-in-algorithmic-decision-making/
[4] https://www.brookings.edu/research/assessing-employer-intent-when-ai-hiring-tools-are-biased/
[5] https://arxiv.org/pdf/1607.06520.pdf
#ai #ethics
- Challenges for mitigating bias in algorithmic hiring [2]
- Fairness in algorithmic decision-making [3]
- Assessing employer intent when AI hiring tools are biased [4]
Все статьи посвящены актуальной теме алгоритмической дискриминации, с особенным акцентом в алгоритмическом найме людей. Например, там упоминается что из-за того что из-за того что алгоритмы языковых моделей обучаются на Google новостях то и, например, при применении word2vec, инструмента использующего корпус новостных данных, итоговый алгоритм оказывается предубеждённым относительно гендерных ролей в обществе [5]
Хотя и прямо сейчас в России это не кажется самой актуальной темой, однако не стоит её недооценивать. Алгоритмическая этика может "замыкать людей" в их социальных стратах не давая возможности выйти за их пределы.
Ссылки:
[1] https://www.brookings.edu/series/ai-and-bias/
[2] https://www.brookings.edu/research/challenges-for-mitigating-bias-in-algorithmic-hiring/
[3] https://www.brookings.edu/research/fairness-in-algorithmic-decision-making/
[4] https://www.brookings.edu/research/assessing-employer-intent-when-ai-hiring-tools-are-biased/
[5] https://arxiv.org/pdf/1607.06520.pdf
#ai #ethics
Brookings
AI and Bias | Brookings
Сегодня вышел в свет доклад об этике в цифровых технологиях от Центр подготовки руководителей цифровой трансформации где коллектив авторов написали так много разделов что читать их можно долго, если бы они не были написаны так хорошо что читать их было бы легко и полезно.
Как мог, я тоже влился в его подготовку, и во всех разделах про этику работы с данными выступил как автор.
Доклад можно прочитать по ссылке [1]
Ссылки:
[1] http://ethics.cdto.center/
#digital #ethics #dataethics
Как мог, я тоже влился в его подготовку, и во всех разделах про этику работы с данными выступил как автор.
Доклад можно прочитать по ссылке [1]
Ссылки:
[1] http://ethics.cdto.center/
#digital #ethics #dataethics
ethics.cdto.center
Аналитический доклад «Этика и "цифра"»
Очевидно, что государство не может предусмотреть все этические риски цифровой трансформации и преодолеть их, но оно должно сделать этические принципы цифровизации своим приоритетом на ближайшее будущее. Одним из первых шагов на этом пути и является данный
В рамках национальной стратегии данных в США опубликованы финальные версии каталога навыков по работе с данными и этический фреймворк по работе с данными [1].
Конечно, весьма бюрократизированные, но интересные документы. В отличие от российских они создавались непосредственно теми кто занимается наймом людей с этими навыками и их обучением в органы власти США. То есть теория уже после практики и это разумно.
Ссылки:
[1] https://strategy.data.gov/news/2020/12/01/data-skills-catalog-and-data-ethics-framework/
#data #ethics #usa
Конечно, весьма бюрократизированные, но интересные документы. В отличие от российских они создавались непосредственно теми кто занимается наймом людей с этими навыками и их обучением в органы власти США. То есть теория уже после практики и это разумно.
Ссылки:
[1] https://strategy.data.gov/news/2020/12/01/data-skills-catalog-and-data-ethics-framework/
#data #ethics #usa
strategy.data.gov
Data Skills Catalog and Data Ethics Framework Now Available - Federal Data Strategy
Design and build fast, accessible, mobile-friendly government websites backed by user research.
В NewYorker статья "Who Should Stop Unethical A.I.?" [1] о нарастающей тревоге учёных за результаты разработки искусственного интеллекта. Чем лучше идут исследования, чем совершеннее становятся системы автоматического принятия решения, тем больше опасений. Многие начинают избегать направления исследований которые потенциально могут привести к появлению оружия нового поколения.
Там же отсылки про саморегулирование научного сообщества, как это было с исследованиями плутония в 1941 году, когда учёные сознательно, придерживали их до конца войны или с исследованиями связанными с возможностью создания биооружия. Главные риски в том что почти все исследования в области ИИ имеют двойное назначение.
Сейчас Вы разрабатываете автономных дронов для доставки грузов вместо курьеров, а через несколько лет они могут разрушать инфраструктуру противника в гибридных войнах. Сейчас Вы проектируете системы распознавания лиц, поведения и угроз для выявления преступников, а через несколько лет они могут использоваться диктатурами для подавления протестов населения и ужесточения контроля за гражданами. И так далее, это длинный список всех рисков и последствий.
И, действительно, в случае ИИ до сих пор нет "своей Хиросимы", большого знакового события-катастрофы с участием ИИ или автоматической системы принятия решения способного напугать человечество.
Если оно произойдёт то мы получим мощнейший всплеск нео-луддизма с тотальным ограничением всех ИИ исследований по всему миру.
Ссылки:
[1] https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai
#ai #ethics
Там же отсылки про саморегулирование научного сообщества, как это было с исследованиями плутония в 1941 году, когда учёные сознательно, придерживали их до конца войны или с исследованиями связанными с возможностью создания биооружия. Главные риски в том что почти все исследования в области ИИ имеют двойное назначение.
Сейчас Вы разрабатываете автономных дронов для доставки грузов вместо курьеров, а через несколько лет они могут разрушать инфраструктуру противника в гибридных войнах. Сейчас Вы проектируете системы распознавания лиц, поведения и угроз для выявления преступников, а через несколько лет они могут использоваться диктатурами для подавления протестов населения и ужесточения контроля за гражданами. И так далее, это длинный список всех рисков и последствий.
И, действительно, в случае ИИ до сих пор нет "своей Хиросимы", большого знакового события-катастрофы с участием ИИ или автоматической системы принятия решения способного напугать человечество.
Если оно произойдёт то мы получим мощнейший всплеск нео-луддизма с тотальным ограничением всех ИИ исследований по всему миру.
Ссылки:
[1] https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai
#ai #ethics
The New Yorker
Who Should Stop Unethical A.I.?
At artificial-intelligence conferences, researchers are increasingly alarmed by what they see.
unesco_ai_etic_16-11-2021.pdf
456.3 KB
В ЮНЕСКО приняли Проект Рекомендации об этических аспектах искусственного интеллекта [1]. Документ рамочный, с одной стороны, а с другой довольно четко дающий установки для мониторинга этического внедрения ИИ в странах. О его содержании я хочу написать отдельно и подробно большой лонгрид, а пока обращу внимание на пункт: Прозрачность и объяснимость.
На 13 странице рекомендаций очень недвусмысленно написано о праве на оспаривание решений ИИ, о необходимости аудита и мониторинга, о необходимости контроля соответствия. Эти вопросы можно задавать уже сейчас всем тем кто активно декларирует применение ИИ в чувствительных областях. Соответствуют ли их системы рекомендациям ЮНЕСКО? Что делается обеспечения права гражданина на оспаривание решений ИИ? Какие механизмы правовой защиты предусмотрены? И многое другое.
Спасибо коллегам из @DigitalRightsCenter [2] за наводку
Ссылки:
[1] https://www.unesco.org/en/general-conference/41/commissions/shs
[2] https://t.me/DigitalRightsCenter
#ai #ethics #regulation #un
На 13 странице рекомендаций очень недвусмысленно написано о праве на оспаривание решений ИИ, о необходимости аудита и мониторинга, о необходимости контроля соответствия. Эти вопросы можно задавать уже сейчас всем тем кто активно декларирует применение ИИ в чувствительных областях. Соответствуют ли их системы рекомендациям ЮНЕСКО? Что делается обеспечения права гражданина на оспаривание решений ИИ? Какие механизмы правовой защиты предусмотрены? И многое другое.
Спасибо коллегам из @DigitalRightsCenter [2] за наводку
Ссылки:
[1] https://www.unesco.org/en/general-conference/41/commissions/shs
[2] https://t.me/DigitalRightsCenter
#ai #ethics #regulation #un
Городской совет города Нью Йорка обязал проводить обязательный "аудит на предубеждённость" (bias audit) для всех систем ИИ используемых в рекрутинге. Законопроект был внесён в 27 февраля 2020 года и принят городским советом 10 ноября 2021 года [1]. The Protocol пишет [2] что после того как он будет подписан, то с 1 января 2023 года он вступит в силу и за его нарушение предполагается гражданская ответственность.
Ссылки:
[1] https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E-81F8-6596032FA3F9&Options=&Search=
[2] https://www.protocol.com/bulletins/nyc-ai-hiring-tools
#ai #ethics #audit #usa
Ссылки:
[1] https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E-81F8-6596032FA3F9&Options=&Search=
[2] https://www.protocol.com/bulletins/nyc-ai-hiring-tools
#ai #ethics #audit #usa
legistar.council.nyc.gov
The New York City Council - File #: Int 1894-2020
Title: A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools
Для тех кто интересуется реакцией правительств на COVID-19 через мобильные приложения для отслеживания, вышел финальный отчет Tracing The Tracers 2021 report: Automating COVID responses [1] от Algrorithm Watch, германской исследовательской группы в области ИИ и приватности.
В отчете много разного полезного, вроде того что утечки данных были не только в российских приложениях и о том какие меры и как предпринимали центральные и региональные власти европейских стран.
Ссылки:
[1] https://algorithmwatch.org/en/tracing-the-tracers/2021-report/
#privacy #covid19 #ai #ethics
В отчете много разного полезного, вроде того что утечки данных были не только в российских приложениях и о том какие меры и как предпринимали центральные и региональные власти европейских стран.
Ссылки:
[1] https://algorithmwatch.org/en/tracing-the-tracers/2021-report/
#privacy #covid19 #ai #ethics
AlgorithmWatch
Tracing The Tracers 2021 report: Automating COVID responses - AlgorithmWatch
In this final report, we will provide an early overall assessment of the main trends and developments concerning ADM-based responses to COVID-19.
В Италии выяснили что местные автостраховщики делают разные оценки процентной ставки в зависимости от того где Вы родились [1]. Для жителей Рима тариф будет одним, для жителей Неаполя другим. Всё это в статье Algorithmic Audit of Italian Car Insurance: Evidence of Unfairness in Access and Pricing от команды исследователей из 3-х итальянских университетов [2].
Дискриминация по национальности и по месту рождения одна из наиболее жёстких. Большинство из нас не имеет возможности выбрать расу, нацию и, особенно, место рождения.
В статье упоминается что эта практика существовала и раньше, а с применением автоматизированных алгоритмов она лишь стала изощрённее.
Ссылки:
[1] https://algorithmwatch.org/en/discriminating-insurance/
[2] http://www.dei.unipd.it/~silvello/papers/2021_aies2021.pdf
#privacy #ai #ethics
Дискриминация по национальности и по месту рождения одна из наиболее жёстких. Большинство из нас не имеет возможности выбрать расу, нацию и, особенно, место рождения.
В статье упоминается что эта практика существовала и раньше, а с применением автоматизированных алгоритмов она лишь стала изощрённее.
Ссылки:
[1] https://algorithmwatch.org/en/discriminating-insurance/
[2] http://www.dei.unipd.it/~silvello/papers/2021_aies2021.pdf
#privacy #ai #ethics
AlgorithmWatch
Costly birthplace: discriminating insurance practice - AlgorithmWatch
Two residents in Rome with exactly the same driving history, car, age, profession, and number of years owning a driving license may be charged a different price when purchasing car insurance. Why? Because of their place of birth, according to a recent study.
Наглядная иллюстрация будущего ИИ которое нас ждёт, нас это в смысле, программистов, инженеров и всех остальных кто с ИТ работает - это ИИ способный читать код.
Саймон Вилсон применил GPT-3 к участкам кода [1]. На скриншотах примеры кода, вопросы и полученные ответы.
Помимо того что это забавно, это ещё и серьёзный шаг вперед. ИИ способный читать код может контролировать качество кода, идентифицировать ошибки, отслеживать прогресс разработки.
Иначе говоря быть эдаким супервайзером кода. Это примерно как со строительством. Роботы сами пока ещё не умеют строить дома (почти), но алгоритмические системы могут определять когда строители работают, а когда курят и расслабляются.
То же самое может ожидать и индустрию разработки. Даже если ИИ не будет писать код сам, следить за твоим кодом он сможет.
Ссылки:
[1] https://simonwillison.net/2022/Jul/9/gpt-3-explain-code/
#ai #ethics
Саймон Вилсон применил GPT-3 к участкам кода [1]. На скриншотах примеры кода, вопросы и полученные ответы.
Помимо того что это забавно, это ещё и серьёзный шаг вперед. ИИ способный читать код может контролировать качество кода, идентифицировать ошибки, отслеживать прогресс разработки.
Иначе говоря быть эдаким супервайзером кода. Это примерно как со строительством. Роботы сами пока ещё не умеют строить дома (почти), но алгоритмические системы могут определять когда строители работают, а когда курят и расслабляются.
То же самое может ожидать и индустрию разработки. Даже если ИИ не будет писать код сам, следить за твоим кодом он сможет.
Ссылки:
[1] https://simonwillison.net/2022/Jul/9/gpt-3-explain-code/
#ai #ethics
Все ещё не наигрались с искусственными изображениями создаваемыми ИИ MidJourney, а уже появился движок Stable Diffusion от стартапа Stability AI умеющие генерировать изображения людей, например, знаменитостей. В TechCrunch большая статья про потенциальные последствия и возможности этой системы [1].
Опуская технические подробности её реализации, как вы думаете какие последствия для человечества может принести развитие этой технологии?
Ссылки:
[1] https://techcrunch.com/2022/08/12/a-startup-wants-to-democratize-the-tech-behind-dall-e-2-consequences-be-damned/
#ai #ethics
Опуская технические подробности её реализации, как вы думаете какие последствия для человечества может принести развитие этой технологии?
Ссылки:
[1] https://techcrunch.com/2022/08/12/a-startup-wants-to-democratize-the-tech-behind-dall-e-2-consequences-be-damned/
#ai #ethics