Перейти до вмісту

Алгоритмічна упередженість

Матеріал з Вікіпедії — вільної енциклопедії.
(Перенаправлено з Алгоритмічне упередження)

Алгоритмічна упередженість — систематичне або структурне викривлення результатів роботи автоматизованих інформаційних систем і моделей машинного навчання через недосконалість алгоритмів, однобокість чи обмеженість тренувальних даних та через упередження розробників і користувачів[1].

Визначення

[ред. | ред. код]

Алгоритмічна упередженість полягає в упередженому або несправедливому відборі, класифікації чи прогнозуванні об'єктів за допомогою алгоритмів. Вона проявляється через помилкове виключення певних груп осіб, систематичне завищення або заниження ризиків, а також нерівномірний розподіл ресурсів і послуг.

Причини виникнення

[ред. | ред. код]

Алгоритмічна упередженість може виникнути внаслідок недостатнього або однобокого представництва даних у тренувальних множинах, упереджень самих розробників, які закладають стереотипи в дизайн системи, використання застарілих чи непридатних моделей, а також побічних ефектів оптимізаційних цілей (наприклад, максимізації прибутку).

Приклади прояву

[ред. | ред. код]

Серед найпоширеніших прикладів алгоритмічної упередженості — системи підбору персоналу, які застарілі історичні дані змушують відкидати резюме жінок або представників національних меншин[2], технології розпізнавання облич, що гірше ідентифікують осіб із темнішою шкірою[3], та кредитні скорингові моделі, які завищують ризик неповернення коштів певних демографічних груп.

Наслідки

[ред. | ред. код]

Алгоритмічна упередженість призводить до порушення прав людини й дискримінації в працевлаштуванні, страхуванні та кредитуванні, знижує довіру до систем ШІ й уповільнює їхнє впровадження в критичних галузях, а також посилює соціальну нерівність.

Методи протидії

[ред. | ред. код]

Серед основних підходів до подолання алгоритмічної упередженості — аудит алгоритмів і тестування на різних підгрупах даних, збирання та очищення тренувальних множин для збалансованості, використання прозорих або відкритих моделей із можливістю пояснення прийнятих рішень, а також розробка етичних і правових стандартів щодо застосування ШІ.

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. Barocas, S.; Selbst, A. D. (2016). Big Data’s Disparate Impact. Т. 104, № 3. с. 671—732. {{cite book}}: Проігноровано |journal= (довідка)
  2. O’Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
  3. Buolamwini, J. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Процитовано 1 серпня 2025.

Джерела

[ред. | ред. код]
  • Barocas S., Selbst A. D. (2016). «Big Data's Disparate Impact». California Law Review.
  • O'Neil C. (2016). Weapons of Math Destruction. Crown Publishing.
  • Buolamwini J., Gebru T. (2018). «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification».

Посилання

[ред. | ред. код]