Inteligența artificială este și ea rasistă, precum unii oameni
De cele mai multe ori, rasismul vine de la oameni și este îndreptat către alți oameni. Se pare însă că ar putea veni și de la inteligența artificială.
Politiciana Alexandria Ocasio-Cortez din Statele Unite ale Americii este de părere că tehnologiile de recunoaștere facială și algoritmii „au mereu aceste nedreptăți rasiale care ajung să fie traduse, pentru că algoritmii sunt totuși realizați de oameni, iar acei algoritmi sunt totuși supuși presupunerilor umane". Ea a subliniat că presupunerile apar în mod automat,
Altfel spus, algoritmii ar putea fi rasiști. E oarecum dificil de evitat, pentru că inteligența artificială funcționează în baza a ce date și informații primește, iar ele vin de la oameni. Oamenii au întotdeauna o oarecare doză de subiectivism în ei - iar în anumite cazuri, subiectivismul cuprinde și rasism.
În 2015, Google s-a confruntat cu un val de critici după ce Google Photos a etichetat oamenii de culoare drept gorile. Explicația cea mai probabilă a fost că gorilele fuseseră singurele ființe cu pielea închisă la culoare care fuseseră introduse în algoritm. Din acest motiv, este nevoie de măsuri pentru a evita greșeli care pot ofensa vreo categorie de oameni.
Dar eliminarea subiectivității poate fi o problemă pentru inteligența artificială. Până și Google, o companie de top în ceea ce privește inteligența artificială comercială, nu a găsit o cale viabilă să elimine problema cu gorilele. Astfel, în loc să găsească o soluție prin care să ajute algoritmii să distingă mai bine între persoanele de culoare și gorile, Google pur și simplu a blocat algoritmii din a mai recunoaște gorile.
Toată povestea cu Google și gorilele demonstrează, pe de o parte, dificultatea antrenării inteligențelor artificiale, iar pe de altă parte servește drept inspirație pentru a îmbunătăți sistemele inteligente.