Алгоритмічна упередженість
![]() | Ця стаття має вигляд переліку, який краще подати прозою. (1 серпня 2025) |
Алгоритмічна упередженість — систематичне або структурне викривлення результатів роботи автоматизованих інформаційних систем і моделей машинного навчання через недосконалість алгоритмів, однобокість чи обмеженість тренувальних даних та через упередження розробників і користувачів[1].
Алгоритмічна упередженість полягає в упередженому або несправедливому відборі, класифікації чи прогнозуванні об'єктів за допомогою алгоритмів. Вона проявляється через помилкове виключення певних груп осіб, систематичне завищення або заниження ризиків, а також нерівномірний розподіл ресурсів і послуг.
Алгоритмічна упередженість може виникнути внаслідок недостатнього або однобокого представництва даних у тренувальних множинах, упереджень самих розробників, які закладають стереотипи в дизайн системи, використання застарілих чи непридатних моделей, а також побічних ефектів оптимізаційних цілей (наприклад, максимізації прибутку).
Серед найпоширеніших прикладів алгоритмічної упередженості — системи підбору персоналу, які застарілі історичні дані змушують відкидати резюме жінок або представників національних меншин[2], технології розпізнавання облич, що гірше ідентифікують осіб із темнішою шкірою[3], та кредитні скорингові моделі, які завищують ризик неповернення коштів певних демографічних груп.
Алгоритмічна упередженість призводить до порушення прав людини й дискримінації в працевлаштуванні, страхуванні та кредитуванні, знижує довіру до систем ШІ й уповільнює їхнє впровадження в критичних галузях, а також посилює соціальну нерівність.
Серед основних підходів до подолання алгоритмічної упередженості — аудит алгоритмів і тестування на різних підгрупах даних, збирання та очищення тренувальних множин для збалансованості, використання прозорих або відкритих моделей із можливістю пояснення прийнятих рішень, а також розробка етичних і правових стандартів щодо застосування ШІ.
- ↑ Barocas, S.; Selbst, A. D. (2016). Big Data’s Disparate Impact. Т. 104, № 3. с. 671—732.
{{cite book}}
: Проігноровано|journal=
(довідка) - ↑ O’Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
- ↑ Buolamwini, J. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Процитовано 1 серпня 2025.
- Barocas S., Selbst A. D. (2016). «Big Data's Disparate Impact». California Law Review.
- O'Neil C. (2016). Weapons of Math Destruction. Crown Publishing.
- Buolamwini J., Gebru T. (2018). «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification».