Cum ar putea mașinile să fie "rasiste" și să ucidă mai multe persoane de culoare
Tehnologia mașinilor autonome este una inovatoare. Au fost însă cazuri în care acestea nu și-au făcut treaba exact cum ar fi trebuit. Un studiu recent a arătat că sistemele de recunoaștere facială au probleme când vine vorba să identifice anumiți oameni. Este vorba de cei cu pielea mai închisă la culoare. Ceea ce ar putea fi o veste teribilă, dacă vrem ca în câțiva ani să avem așa mașini pe străzi.
Sistemele de inteligență artificială destinate mașinilor autonome nu sunt cu nimic diferite. Ar putea pune mai mult în pericol pietonii cu un ten mai închis.
Cercetătorii de la Georgia Institute of Technology au folosit pentru studiul lor opt modele de inteligență artificială folosite în sistemele de detecție din cadrul mașinilor autonome. Acestea sunt cele care le permit vehiculelor să recunoască semnele de circulație, pietonii sau alte obiecte din trafic.
Modelele au fost testate folosind imagini cu pietoni împărțiți în două categorii: cei cu ten deschis la culoare și cei cu piele închisă. Cercetătorii au folosit pentru divizarea acestora scala Fitzpatrick, utilizată în mod obișnuit pentru clasificarea culorii pielii oamenilor.
Modelele de AI au avut o performanță mult mai proastă atunci când au avut de a face cu pietonii cu tenul cel mai închis. În medie, acuratețea modelelor AI folosite pentru mașinile autonome a scăzut cu 5% în cazul examinării imaginilor care reprezentau trecători cu tonuri mai întunecate ale pielii.
Există și o soluție pentru această problemă pe care echipa de cercetători de la Georgia Tech a găsit-o.
O șosea populată de mașini autonome ar putea fi mult mai puțin sigură pentru pietonii cu o culoare a pielii mai închisă. Dar ce e de făcut pentru ca o astfel de posibilitate să fie evitată. Pe scurt, inteligența artificială pe care mașinile autonome o folosesc ar trebui antrenată mai bine, oferindu-i mai multe imagini cu persoane cu ten închis. Astfel, acestea ar putea detecta mai bine pietonii și ar face totul mai sigur.