Seleziona una pagina

Robot e linguaggio: come le macchine imparano a discriminare

Mag 23, 2017

Autore: Raffaele Brilli

La discriminazione, il pregiudizio sessuale, razziale ed identitario non appartengono alla matematica, né tantomeno ai complessi linguaggi di programmazione che danno vita ai robot. Eppure, con l’avanzare delle tecniche di machine learning, sembrerebbe che le tanto sterili macchine di nostra creazione possano apprendere proprio da noi questi controversi lati dell’emotività umana. Scoviamo insieme le radici che connettono insieme i peccati dell’uomo, robot e linguaggio.

 

Robot e linguaggio umano: un’arma a doppio taglio

 

I primi dati su questo inaspettato nesso provengono dalle ricerche di Arvind Narayanan, professore della Princeton University. Attraverso le dinamiche del machine learning e linguaggio naturale i computer sono infatti capaci di analizzare e collegare tra loro una mole sorprendente di informazioni, alla ricerca di pattern logici che insieme possano costituire i pezzi di un grande puzzle. Sottoponendo queste potenti macchine alla lettura dei testi scritti da esseri umani esse sono tavolta in grado di rilevare i toni sia vezzegiativi che dispregiativi che si celano dietro le parole di uso comune. A titolo d’esempio, la lettura del termine inglese “weapon” (letteralmente “arma”) attiva in questi computer una connessione con il concetto di paura e di stato di pericolo, probabilmente a causa della presenza di questo lemma in numerosissimi testi che hanno a che vedere con atti di violenza.

Il problema è che se il machine learning possa replicare i pregiudizi umani, questo potrebbe esser rispedito a noi mittenti. Forse potrebbe creare un ciclo di retroazione che perpetui ad oltranza queste forme di pregiudizio.

Citando testualmente Narayanan, mentre esprime i suoi dubbi sul potenziale interpretativo delle intelligenze artificiali.

 

Come evolve ed evolverà il rapporto tra robot e linguaggio

Un esempio eclatante e piuttosto discutibile della problematica messa in luce dal professore è rappresentata dall’esperimento “Machine Bias” di ProPublica. Il progetto si è concluso esibendo i dati di un software sviluppato per individuare soggetti socialmente pericolosi mostrandone una evidente falla: a parità di altre informazioni, stabiliva che un individuo di pelle scura fosse meno apprezzabile di uno di pelle chiara.

 

robot-e-linguaggio-2

L’individuo di pelle chiara è stato marchiato dal software con 5 gradi (su scala decimale) in meno rispetto all’obiettivamente meno pericoloso soggetto di pelle scura.

 

Come far fronte a questi vizi che i nostri figli digitali hanno appreso dai loro padri? Si aprono almeno due scenari al momento. La prima, avanzata dalla professoressa Sorelle Friedler dell’Haverford College, consiste nella correzione manuale di questi bias, inserendo nel database dei software le esplicite indicazioni che impartiscono alla macchina di interpretare la parola senza accedere ai dati concernenti i pregiudizi ad essa associati. Un’interessante alternativa sempre proposta dalla professoressa è invece rappresentata dall’utilizzo di questi bias per fornire utili dati sull’evoluzione del nostro linguaggio in relazione ai cambiamenti sociali e culturali che esso attraversa. In entrambi i casi, per ora possiamo ben sperare che i nostri computer non ci giudicheranno per la nostra etnia o per il nostro genere sessuale.

Fonte: FAT/ML