В сообществе Open Data Science большой текст о том что для алгоритмов важно быть "объяснимыми" [1], например, решения для этого были у IBM в проекте AI Explainability 360 [2]. Смысл в том что исполнение алгоритма должно показывать, желательно визуально, то как и почему было принято итоговое решение.
Возможно ли это? Почти наверняка возможно, хотя и будет непросто. Актуально ли это? Да, всё большее число пользователей будет требовать объяснений почему было принято то или иное решение.
Ссылки:
[1] https://medium.com/@ODSC/ai-black-box-horror-stories-when-transparency-was-needed-more-than-ever-3d6ac0439242
[2] https://opendatascience.com/ibm-research-launches-explainable-ai-toolkit/
#privacy #ai #aiexplainability
Возможно ли это? Почти наверняка возможно, хотя и будет непросто. Актуально ли это? Да, всё большее число пользователей будет требовать объяснений почему было принято то или иное решение.
Ссылки:
[1] https://medium.com/@ODSC/ai-black-box-horror-stories-when-transparency-was-needed-more-than-ever-3d6ac0439242
[2] https://opendatascience.com/ibm-research-launches-explainable-ai-toolkit/
#privacy #ai #aiexplainability
Medium
AI Black Box Horror Stories — When Transparency was Needed More Than Ever
Arguably, one of the biggest debates happening in data science in 2019 is the need for AI explainability. The ability to interpret machine…