Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

L'intelligenza artificiale è classista?

L'intelligenza artificiale eccelle nel riconoscere oggetti tipici dei Paesi ad alto reddito, ma fallisce con prodotti provenienti da nazioni più povere.
L'intelligenza artificiale è classista?
L'intelligenza artificiale eccelle nel riconoscere oggetti tipici dei Paesi ad alto reddito, ma fallisce con prodotti provenienti da nazioni più povere.
Link copiato negli appunti

L'intelligenza artificiale è molto più scaltra nel riconoscere oggetti tipici delle nazioni ricche, rispetto a prodotto della medesima categoria appartenenti a Paesi più poveri. È questo il risultato di una ricerca condotta dagli AI Lab di Facebook: a quanto pare, i cervelli digitali sarebbero oggi in grado di interpretare correttamente solo una porzione ber definita del mondo.

Una notizia che ha spinto molti a chiedersi se le tecnologie d'intelligenza artificiale non siano classiste. Tuttavia, la problematica appare più connessa a un bias di progettazione che a una lotta di classe: è quindi necessario ripensare al modo con cui le grandi aziende istruiscono le loro tecnologie digitali?

La ricerca

I laboratori di Facebook hanno voluto indagare quanto fossero affidabili le tecnologie di intelligenza artificiale odierne nel riconoscere oggetti e prodotti di uso comunque. A questo scopo, i ricercatori hanno scelto alcune delle soluzioni e degli algoritmi oggi più diffusi, mettendoli alla prova con un set nutrito di fotografie provenienti da tutto il mondo.

In particolare, sono state indagate le proposte Microsoft Azure, Clarifai, Google Cloud Vision, Amazon Rekognition e IBM Watson, approfittando in un grande database d'immagini suddiviso in 117 categorie.

Nella scelta degli scatti da sottoporre all'intelligenza artificiale, i ricercatori hanno cercato il massimo dell'eterogeneità: non solo sulla categoria dell'oggetto - dalle scarpe ai saponi, passando per i divani e gli elettrodomestici - ma anche sul fronte economico. Sono stati scelti infatti prodotti provenienti da famiglie di tutto il mondo, con retribuzioni mensili comprese tra 50 e 3.500 dollari, affinché il test potesse approfittare della più ampia variabilità possibile.

I risultati sono stati a dir poco sorprendenti: l'intelligenza artificiale non incontra grandi problemi nell'identificare oggetti presenti nelle case delle nazioni ad alto reddito, mentre registra errori frequenti nel tentativo di interpretare gli scatti ripresi nei Paesi meno avanzati economicamente. In termini di performance, tutti i sistemi sottoposti a test hanno raggiunto risultati maggiori del 15-20% quando chiamati a riconoscere fotografie riprese negli Stati Uniti, rispetto a immagini provenienti da Somalia o Burkina Faso.

Ad esempio, gli algoritmi non hanno avuto problemi nell'identificare un flacone di sapone liquido adagiato sul bordo di un lavabo occidentale, tanto da spingersi non solo a riconoscere il detergente, ma anche le singole componenti del lavandino come il rubinetto e l'erogatore.

Di fronte alla tipica dotazione del residente medio in Nepal - composta da una piccola cesta contenente due barrette di sapone e una spugna - tutti i sistemi analizzati sono entrati in crisi: hanno scambiato il sapone per cibo. Ancora, in pochi secondi l'AI può correttamente etichettare un frigorifero a due ante tipico delle case a stelle e strisce, ma fatica nel descrivere correttamente un piccolo refrigeratore a batteria usato da diverse nazioni povere in Asia, dove la fornitura di energia elettrica non è sempre costante.

Così come riferiscono i ricercatori alla base dello studio, il bias rinvenuto è apparso "presente su un grande range di servizi commerciali cloud per il riconoscimento delle immagini", rappresentando quindi un problema non di poco conto.

Oltre al bias: che fare?

La tendenza dei servizi di intelligenza artificiale a preferire immagini prettamente occidentali - molto spesso restringendo ulteriormente il campo agli Stati Uniti - potrebbe essere connesso a un errore in fase di training di questi cervelli digitali.

Nel tentativo di presentare all'intelligenza artificiale la massima varietà possibile di elementi - in particolare con il machine learning, dove gli algoritmi imparano autonomamente a identificare oggetti facendo ricorso a precedenti esposizioni con prodotti analoghi - pare non siano stati scelti dei database sufficientemente estesi o affidabili.

Un intoppo che potrebbe avere una natura prettamente linguistica: ingegneri e sviluppatori avrebbero preferito datasheet con nomi e descrizioni in inglese, dimenticando però come molti oggetti non abbiano un corrispettivo anglofono, poiché non diffusi nelle nazioni con lingua inglese predominante. Così spiega il The Register:

I campioni geografici di immagini non sono rappresentativi dell'effettiva distribuzione della popolazione del mondo, la maggior parte dei database sono raccolti utilizzando l'Inglese come "lingua base". Gli oggetti che non hanno un nome inglese solitamente non vengono inclusi nei processi di training, ciò altera fortemente la tipologia di elementi che può essere riconosciuta.

La soluzione, però, potrebbe essere più facile rispetto a quanto si possa pensare. L'apprendimento da parte dell'intelligenza artificiale è continuo, proprio grazie alle tecniche di machine learning, e più questi cervelli digitali verranno esposti a immagini non inizialmente comprese nel loro processo di training, più impareranno a riconoscerle.

Ti consigliamo anche