🔍 Introduzione al Bias Algoritmico
Il bias algoritmico si verifica quando i sistemi di IA producono risultati ingiusti/discriminatori a causa di dati distorti o di un design imperfetto. Questo perpetua le disuguaglianze sociali in ambiti critici come la sanità, la finanza e l’occupazione.
Meccanismi Fondamentali:
- I bias derivano dai dati di addestramento (che riflettono pregiudizi storici) o dalle scelte di progettazione algoritmica (Balbaa et al., 2024; Mehrabi et al., 2019).
- Distinto dal bias tecnico di ML (underfitting), si manifesta come pregiudizio contro gruppi basati su razza, genere o status socioeconomico (Walsh et al., 2020).
Conseguenze nel Mondo Reale:
- Sanità: Gli afroamericani ricevono diagnosi di disturbi psicotici 3-4 volte più frequentemente rispetto ai pazienti bianchi (Schwartz et al., 2014).
- Loop di Feedback: I modelli distorti peggiorano le disparità per i gruppi vulnerabili, ad esempio, il targeting di annunci discriminatorio basato sul genere (Lambrecht et al., 2019).
“Affrontare il bias è essenziale per decisioni eque basate sull’IA.” — Balbaa et al., 2024
🧩 Tassonomia del Bias Algoritmico
📊 Bias Legati ai Dati
- Bias di Rappresentazione
- I dati di addestramento mancano di diversità nella popolazione → scarse prestazioni per i gruppi sottorappresentati.
- Fonte: Mehrabi et al., 2019; Pagano et al., 2023.
- Bias Storico/Sociale
- Gli algoritmi replicano i pregiudizi sociali incorporati nei dati.
- Fonte: Pagano et al., 2023.
- Bias del Campione
- Campioni di addestramento non rappresentativi → modelli non calibrati per gruppi specifici.
- Fonte: Barr et al., 2024.
- Bias di Misurazione
- Caratteristiche/risultati mal misurati → categorizzazione inaccurata.
- Fonte: Bond et al., 2019.
⚙️ Bias Legati all’Algoritmo
- Bias Algoritmico
- Bias introdotto puramente tramite scelte di progettazione (es. funzioni di ottimizzazione).
- Fonte: Mehrabi et al., 2019; Belenguer, 2022.
- Bias di Valutazione
- Modelli testati su benchmark non rappresentativi → falliscono nell’implementazione nel mondo reale.
- Fonte: Giffen et al., 2022.
- Bias di Implementazione
- Disallineamento tra l’intento dei creatori e il contesto di utilizzo nel mondo reale.
- Fonte: Giffen et al., 2022.
👥 Bias di Interazione con l’Utente
- Bias di Automazione
- Eccessiva dipendenza dalle decisioni algoritmiche nonostante gli errori.
- Fonte: Bond et al., 2019.
- Bias di Popolarità
- Gli elementi popolari ottengono un’esposizione sproporzionata → loop di feedback.
- Fonte: Mehrabi et al., 2019; Barr et al., 2024.
- Bias Emergente
- Cambiamenti nella demografia degli utenti/valori culturali dopo l’implementazione.
- Fonte: Mehrabi et al., 2019; Pagano et al., 2023.
🧪 Bias Specializzati
- Bias Algoritmico Iterato
- Bias dinamico derivante da interazioni ripetute algoritmo-utente.
- Fonte: Sun et al., 2020.
- Bias di Conferma
- I sistemi rafforzano le credenze esistenti dando priorità alle prove che le confermano.
- Fonte: Jain et al., 2023.
💎 Concetto Chiave
Il bias algoritmico è multiforme e sistemico, e richiede mitigazione lungo l’intero ciclo di vita del ML—dalla raccolta dei dati all’implementazione (Mavrogiorgos et al., 2024). Ignorarlo rischia di cementare la disuguaglianza nel processo decisionale automatizzato.
Imperativo della Mitigazione:
“L’equità deve essere progettata proattivamente, non corretta a posteriori.” — Orphanou et al., 2021
Non credete sia possibile?
Gurdate qui che lista sconfinata GitHub – kdeldycke/awesome-falsehood: 😱 Falsehoods Programmers Believe in A curated Awesome list of falsehoods programmers believe in. A falsehood is an idea that you initially believed was true, but in reality, it is proven to be false.
🔍 Riferimenti
- Balbaa, Muhammad Eid and Marina Sagatovna Abdurashidova. “THE IMPACT OF ARTIFICIAL INTELLIGENCE IN DECISION MAKING: A COMPREHENSIVE REVIEW.” EPRA International Journal of Economics, Business and Management Studies (2024): n. pag.Mehrabi et al., 2019
- Walsh, H., McNeill, A., Purssell, E., & Duaso, M. (2020). A systematic review and Bayesian meta-analysis of interventions which target or assess co-use of tobacco and cannabis in single- or multi-substance interventions. Addiction (Abingdon, England), 115(10), 1800–1814. https://doi.org/10.1111/add.14993
- Schwartz, R. C., & Blankenship, D. M. (2014). Racial disparities in psychotic disorder diagnosis: A review of empirical literature. World journal of psychiatry, 4(4), 133–140. https://doi.org/10.5498/wjp.v4.i4.133Lambrecht & Tucker, 2019
- Pagano, T. P., Loureiro , R. B., Lisboa , F. V. N., Peixoto , R. M., Guimarães, G. A. S., Cruz , G. O. R., Araujo , M. M., Santos , L. L., Cruz , M. A. S., Oliveira , E. L. S., Winkler, I., & Sperandio Nascimento, E. G. (2023). Bias and Unfairness in Machine Learning Models: A Systematic Review on Datasets, Tools, Fairness Metrics, and Identification and Mitigation Methods. Big Data and Cognitive Computing, 7(1), . https://doi.org/10.3390/bdcc7010015
- van Giffen, Benjamin & Herhausen, Dennis & Fahse, Tobias, 2022. “Overcoming the pitfalls and perils of algorithms: A classification of machine learning biases and mitigation methods,” Journal of Business Research, Elsevier, vol. 144(C), pages 93-106.
- Sun W, Nasraoui O, Shafto P (2020) Evolution and impact of bias in human and machine learning algorithm interaction. PLOS ONE 15(8): e0235502. https://doi.org/10.1371/journal.pone.0235502
- Jain, R., Jain, A. (2024). Generative AI in Writing Research Papers: A New Type of Algorithmic Bias and Uncertainty in Scholarly Work. In: Arai, K. (eds) Intelligent Systems and Applications. IntelliSys 2024. Lecture Notes in Networks and Systems, vol 1065. Springer, Cham. https://doi.org/10.1007/978-3-031-66329-1_42
- Mavrogiorgos, K., Kiourtis, A., Mavrogiorgou, A., Menychtas, A., & Kyriazis, D. (2024). Bias in Machine Learning: A Literature Review. Applied Sciences, 14(19), 8860. https://doi.org/10.3390/app14198860
- Kalia Orphanou, Jahna Otterbacher, Styliani Kleanthous, Khuyagbaatar Batsuren, Fausto Giunchiglia, Veronika Bogina, Avital Shulner Tal, Alan Hartman, and Tsvi Kuflik. 2022. Mitigating Bias in Algorithmic Systems—A Fish-eye View. ACM Comput. Surv. 55, 5, Article 87 (May 2023), 37 pages. https://doi.org/10.1145/3527152