Impactul deciziilor automate și cadrul legislativ internațional
În era digitală, algoritmii binari — cei care iau decizii simple, „da” sau „nu” — sunt din ce în ce mai folosiți în domenii sensibile precum recrutarea, finanțele, justiția sau sănătatea. Dar ce se întâmplă când aceste decizii automate generează rezultate discriminatorii? Cum pot sistemele digitale să „greșească” moral și ce fac diferitele țări pentru a proteja cetățenii de astfel de erori?
Algoritmii binari și discriminarea: cum apar inechitățile?
Un algoritm binar procesează date și oferă o decizie simplă: acceptat/refuzat, corect/greșit. Problema este că aceste decizii se bazează pe date care pot reflecta inegalități sociale sau prejudecăți.
Exemplu concret:
- Sistemul COMPAS folosit în SUA pentru evaluarea riscului recidivei infractorilor supraestimează riscul pentru persoanele de culoare comparativ cu cele albe (Angwin et al., 2016). Astfel, algoritmul poate amplifica inegalitățile în sistemul judiciar.
- Amazon a abandonat în 2018 un sistem de recrutare automatizat care favoriza candidații bărbați, fiind antrenat pe CV-uri din ultimul deceniu, majoritatea ale bărbaților (Dastin, 2018).
Cum poate fi corectat un algoritm discriminatoriu?
Pentru a reduce discriminarea, experții recomandă:
- Curățarea datelor pentru eliminarea părtinirilor (Zliobaite, 2017).
- Auditarea periodică a deciziilor algoritmice (Mehrabi et al., 2021).
- Transparența și explicabilitatea deciziilor automate (Doshi-Velez și Kim, 2017).
- Implicarea factorului uman pentru revizuiri și control.
Cadrul legislativ în diferite țări
Uniunea Europeană
UE impune prin GDPR dreptul la explicații privind deciziile automate care ne afectează (Regulamentul (UE) 2016/679). Recent, propunerea pentru AI Act reglementează sistemele AI cu impact major, prevenind discriminarea (European Commission, 2021).
Statele Unite
Nu există o lege federală unică pentru AI, dar EEOC reglementează discriminarea în angajare, inclusiv cea provenită din decizii automate (EEOC, 2023).
Canada
Legea PIPEDA și cadrul etic canadian promovează echitatea, transparența și responsabilitatea în AI (Government of Canada, 2021).
Regatul Unit
Codul de Etică AI subliniază evaluarea riscurilor și implicarea umană (UK AI Council, 2020).
China
Reglementările chineze pun accent pe securitate și control, cu mai puțin accent pe drepturile individuale (China Standards 2022).
De ce este importantă legislația?
Fără reguli clare, riscul de discriminare crește. Legislația asigură:
- Standardele etice pentru dezvoltatori.
- Drepturi de contestare pentru cetățeni.
- Responsabilități legale clare.
- Transparență și audit independent.
Concluzii
Algoritmii binari pot ajuta la decizii rapide, dar nu sunt imparțiali. Ei reflectă prejudecăți din date, ceea ce poate duce la discriminare. Exemplele din SUA sau Canada arată că trebuie intervenit atât tehnic, cât și legislativ.
Legislația din UE, SUA, Canada, Regatul Unit sau China evidențiază o preocupare globală pentru un AI responsabil și echitabil. Pentru ca tehnologia să servească oamenii, este nevoie de reguli clare, principii etice și implicare umană.
Referințe
- Angwin, Julia, et al. “Machine Bias.” ProPublica, 23 May 2016, http://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
- Dastin, Jeffrey. “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women.” Reuters, 10 Oct. 2018, http://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.
- Doshi-Velez, Finale, and Been Kim. “Towards A Rigorous Science of Interpretable Machine Learning.” arXiv preprint arXiv:1702.08608, 2017, arxiv.org/abs/1702.08608.
- European Commission. “Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act).” 2021, digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence.
- EEOC. “Artificial Intelligence and Algorithmic Fairness in Employment.” U.S. Equal Employment Opportunity Commission, 2023, http://www.eeoc.gov/artificial-intelligence.
- Government of Canada. “Responsible Use of Artificial Intelligence.” 2021, http://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html.
- Mehrabi, Ninareh, et al. “A Survey on Bias and Fairness in Machine Learning.” ACM Computing Surveys, vol. 54, no. 6, 2021, article 115.
- Regulamentul (UE) 2016/679 al Parlamentului European.
- UK AI Council. “AI Code of Ethics.” 2020, http://www.gov.uk/government/publications/ai-code-of-ethics.
- Zliobaite, Indre. “A Survey on Measuring Indirect Discrimination in Machine Learning.” arXiv preprint arXiv:1704.01731, 2017, arxiv.org/abs/1704.01731.
- China Standards 2022. “Guidelines on AI Standardization.” China National Institute of Standardization, 2022.


Lasă un comentariu