I pregiudizi degli esseri umani nel mondo della tecnologia

Qualcuno inizierebbe questo articolo, parlando dei bias che affliggono il mondo della tecnologia e dell’informatica. Invece io voglio chiamarli per quello che sono pregiudizi e luoghi comuni degli esseri umani, che vengono utilizzati sempre più spesso nella loro comunicazione sul web e che nel prossimo futuro renderà l’AI tanto stupide quanto gli essere umani.

Va detto sin da subito che non sono il primo, che in questi ultimi anni ha lanciato il confronto su come i pregiudizi hanno influenzato e influenzano gli algoritmi, portando le macchine ad apprendere gli stessi pregiudizi in modo indiretto da noi esseri umani. Sicuramente non sarò neanche l’ultimo a farlo, vista la situazione in cui ci troviamo.

Io per primo, da ex sviluppatore sono cosciente che in un modo o nell’altro per quanto ci si impegni a fare un lavoro fatto bene un errore in un algoritmo lo si genera in fase di stesura del programma e l’utente sfortunato di turno lo trova. 

Tipo, il sottoscritto è fermo da quasi 24 ore su Facebook e Instagram, perché dopo aver lasciato un commento non capito dalla macchina e fatto un post in cui segnalavo che la macchina non aveva capito un tubo, la macchina e la piattaforma ha scelto di mettermi un blocco. Quindi si, è una cosa spiacevole, ma nemmeno poi così grave. In realtà se analizziamo quello che è successo, è estremamente grave, però non è un vero e proprio problema. 

Invece vorrei riflettere insieme a voi su queste domande:

  • Che cosa accadrebbe se l’errore riguardasse un algoritmo di guida autonoma?
  • Oppure se venissimo scartati ad un colloquio lavorativo per il sesso, la religione, la cittadinanza, l’etnia di provenienza o le origini dei nostri avi?

Non sono a caso ed è da queste domande e da un fatto accaduto da poco, che nasce questo post e spero questa riflessione.

Mentre per la prima domanda una risposta possiamo darla in modo logico e possiamo in qualche modo sistemare il problema dell’eventuale pregiudizio nei confronti degli altri utilizzatori della strada, per la seconda la cose si mettono in modo molto più complicato. 

Perché questo è già successo e la Amazon lo sa benissimo. Infatti, l’algoritmo presente nel software di recruitment utilizzato da Amazon a partire dal 2014 soffriva di diversi bias o meglio pregiudizi.

In poche semplice parole, questo software, era ritenuto affidabile e molto utile, perché era in grado di analizzare i curriculum dei candidati ed automatizzare la procedura di selezione. Fin qui nulla di strano.

Tuttavia, dopo indagini e indignazioni varie è emerso come l’algoritmo penalizzasse tutti quei candidati il cui sesso era femminile, specialmente per le posizioni legate a ruoli più tecnologici. Perché da sempre donna e motori, così come donna e tecnologia, a quanto pare non sono il connubio giusto. Ed è una di quelle cose che si nota anche nei commenti lasciati in giro per i social e sotto i post di Fjona Cakalli e Erika Gherardi, che tipo conosco da almeno un 7 anni e in tutto questo periodo c’è ancora gente che commenta ad minkium sotto i loro post perché come donne non possono parlare di tecnologia o di macchine.

Quindi, si capisce velocemente dove stava l’errore nell’algoritmo del software di recruitment utilizzato da Amazon, semplicemente il tutto stava “nascosto” nei dati con cui il modello è stato addestrato:

  • partiamo dai dati erano reali: nome, cognome, sesso, età, data di nascita, nazionalità, capacità, esperienza
  • l’analisi e la suddivisione dei dati: questi erano contenuti nei CV ricevuti e archiviati dalla società nei 10 anni precedenti.
  • campione: ovviamente, il campione e la quantità di CV era prettamente maschili

Da questo si capisce come mai l’algoritmo sia stato capace di riconoscere in modo del tutto automatico un pattern che delineasse i migliori candidati, inglobando tra le caratteristiche ideali il genere maschile, e incorrendo così in un pregiudizio. Questo errore, ha costretto Amazon a dismettere il software.

Perché ci rompi le scatole con i pregiudizi degli esseri umani e i bias degli algoritmi?

Perché mi sono rotto un pochino le scatole di vedere come i luoghi comuni e i pregiudizi degli essere umani diventano sempre più spesso bias per gli algoritmi, ma soprattutto mi da parecchio fastidio vendere come al giro di boa del primo quarto di secolo degli anni 2000, vi siano persona che guardano ancora le origini. 

Negli ultimi anni mi sono capitate di sentire di puttanate dal:

  • “ahm, ma te sei romeno… allora, tu mi puoi rubare i soldi dalla banca”
  • “ahm, ma te sei romeno… allora, tu sai come bucare i computer e gli smartphone degli altri”
  • “eh, ma quello è giapponese… quello fa i calcoli a memoria, altroché noi”
  • “eh, ma quello è cinese… sicuramente è qui per fotografare e poi torna in Cina per fare una copia del prodotto”

Mi fermo qui, perché la lista delle affermazioni collegate a luoghi comuni e pregiudizi con cui ho dovuto combattere in questa vita sono tantissimi. Ma quello che mi ha lasciato più di stucco in queste settimane e sentir dire a delle aziende che non volevamo più collaborare con dei professionisti per colpa delle loro origini. 

Cioè siamo nel primo quarto di secolo del 2000 e ci sono ancora persone che pensano che lo sviluppatore o il consulente deve avere la stessa nazionalità e le stesse origini loro. Quindi, per queste persone non è ammissibile lavorare con altre nazionalità al di fuori della loro. 

No, non sto scherzando. Pensavo di averle sentite tutte, come dicevo prima partendo dal “tu mi puoi rubare i soldi in banca“, passando per il “con questo accento e parlantina potresti vendere aria fritta” per arrivare a sentire con le mie orecchie dire “eh, ma abbiamo notato accessi di gente che non è italiana“.

Quanto detto fino adesso non è un racconto di fantascienza e non è neanche un racconto per creare un allarmismo, perché tanto la frittata è stata fatta. Se andate a chiedere a ChatGPT le cose in modo intelligente, vedrete quanti bias o meglio pregiudizi ha. Tra poco vedremo la “forza di ChatGPT” applicata al motore di ricerca Bing e ci sarà da divertirsi, quando le sue risposte si baseranno su quello che il motore di ricerca ha indicizzato. Così come ci divertiremo anche con Bard di Google.

Conclusione

Ecco io mi fermo qui e vi lascio riflettere sul come i luoghi comuni e i pregiudizi hanno influenzato il mondo, continuando a farlo e portando nel prossimo futuro le AI a comportarsi come noi, cioè avendo un sacco di pregiudizi verso il prossimo.

Ve lo ripeto, non pensavo di sentire nel 2023 qualcuno affermare, che notando degli accessi da gente non italiana ha ritenuto e ritiene di non voler collaborare con i professionisti in questione.

Con questo vi auguro lunga vita e prosperità 🖖 e a questo punto non mi rimane altro da fare che aspettarvi sul mio canale Telegram, dove cerco di pubblicare anche altri contenuti interessanti e utili. Invece se consideri che questa post e guida ti hanno salva la vita, ma soprattutto fatto risparmiare incazzature, puoi offrire una birra media o un caffè qui.

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.