Discriminare algoritmică
Într-o dimineață obișnuită într-un birou de corporație tech din București, Maria, o specialistă în resurse umane, deschide platforma automatizată de recrutare. Cu un simplu click, sistemul începe să filtreze sute de CV-uri. Procesul e rapid, elegant și aparent eficient. Totuși, ceva o neliniștește: de câteva luni, candidații invitați la interviuri provin într-o proporție covârșitoare dintr-un grup omogen — bărbați albi, cu studii tehnice în Europa de Vest. Ceva nu este în regulă.
Maria suspectează că algoritmul, deși „inteligent”, perpetuează anumite tipare istorice de selecție. Un studiu de la Universitatea din Washington a descoperit că algoritmii de filtrare automată favorizează în mod clar candidații albi cu nume masculine, în defavoarea celor care provin din minorități sau care au nume feminine. Astfel, o unealtă creată pentru eficiență riscă să reproducă aceleași inegalități împotriva cărora se presupune că luptăm.
Situația Mariei nu este unică. În 2018, Amazon a fost forțat să închidă un sistem intern de recrutare automatizată care învăța să respingă candidatele de gen feminin, doar pentru că fusese antrenat pe CV-uri venite istoric de la bărbați angajați în sectorul tehnologic (Dastin). Sistemul, învățând din trecut, a perpetuat exact trecutul, fără discernământ moral.
În Australia, un alt studiu a arătat că instrumentele AI de evaluare video penalizează candidații care vorbesc cu accent non-nativ, având o marjă de eroare semnificativ mai mare comparativ cu vorbitorii nativi de engleză. Astfel, accentul devine un criteriu discriminatoriu mascat, iar tehnologia, în loc să democratizeze accesul, îl îngustează (Knaus).
Aceste cazuri nu sunt doar erori tehnice, ci semnale de alarmă despre modul în care tehnologiile emergente pot întări sistemele de excludere deja existente. Chiar și în jurnalism, un domeniu unde umanul părea de neînlocuit, au apărut experimente controversate. Ziarul italian Il Foglio a publicat o ediție realizată integral de inteligență artificială. Rezultatul? Un amalgam de fraze impersonale, idei reciclate și chiar pasaje copiate din publicații americane. Cititorii au simțit lipsa unei voci autentice, umane (Loveluck).
În acest context, Margaret Mitchell, cercetătoare în domeniul eticii AI, avertizează că viziunea asupra unei inteligențe artificiale generale (AGI) ne poate deturna atenția de la problemele concrete ale prezentului: discriminare, lipsa transparenței și dezechilibre de putere. Ea afirmă tranșant: „AGI este mai mult o promisiune mistică decât o realitate științifică, și ne face să ignorăm suferințele produse deja de sistemele imperfecte din prezent” (Murgia).
Ce învățăm din toate acestea? Că etica inteligenței artificiale nu este doar un subiect abstract, ci o realitate care atinge viețile oamenilor în mod direct. De la un CV respins automat, la o voce ignorată din cauza accentului, până la un articol scris de o entitate lipsită de conștiință — fiecare dintre aceste situații ne provoacă să ne întrebăm: cui servește tehnologia și în ce condiții devine ea justă?
În loc de concluzie, putem spune că viitorul tehnologiei depinde nu doar de ingineri, ci și de cetățeni activi, jurnaliști, eticieni, profesori și decidenți politici. Inteligența artificială poate fi o unealtă puternică, dar fără o busolă morală, ea riscă să devină o oglindă care reflectă nu progresul, ci prejudecățile noastre.
Lucrări citate
Dastin, Jeffrey. „Amazon scrapped ‘sexist AI’ recruiting tool.” Reuters, 2018.
Knaus, Christopher. “People interviewed by AI for jobs face discrimination risks, Australian study warns.” The Guardian, 14 May 2025.
Loveluck, Louisa. „What happened when a newspaper let AI take over.” The Washington Post, 26 Mar. 2025.
Murgia, Madhumita. “Margaret Mitchell: Artificial general intelligence is ‘just vibes and snake oil’.” Financial Times, 2025.


Lasă un comentariu