I proletari dell’intelligenza artificiale
Senza il lavoro spesso ripetitivo e alienante degli esseri umani l’IA non sarebbe in grado di interpretare i dati che le vengono sottoposti
Filtra per rubrica
Filtra per autore/trice
Senza il lavoro spesso ripetitivo e alienante degli esseri umani l’IA non sarebbe in grado di interpretare i dati che le vengono sottoposti
• – Redazione
Perché il lavoro di documentazione della violazione dei diritti umani, all’interno di Israele viene vissuto come un oltraggio o cade nel vuoto come in un dialogo fra sordi
• – Sarah Parenzo
Come nel 1948 radere al suolo città e villaggi serve a ostacolare la rinascita della comunità. Netanyahu è l’unico primo ministro israeliano, dagli anni ’70 a oggi, a non aver mai portato a termine un accordo con i palestinesi: non c’è motivo di pensare che inizierà ora
• – Redazione
Di Shirin Ebadi, Taghi Rahmani*, La Stampa Le prigioniere politiche iraniane stanno subendo una repressione brutale nella sezione femminile del carcere di Evin. Come attiviste e...
• – Redazione
Kamala punta sulla promessa di risollevare la classe media con un maggiore interventismo dello Stato. Donald sul rafforzamento del capitalismo libertario e sul malessere, per conquistare voti
• – Redazione
Si è spento nella sua casa di Douchy, circondato dai tre figli e dal resto della sua famiglia: aveva 88 anni
• – Redazione
In Thailandia eletta premier la terza esponente della potente famiglia, che ricoprirà il ruolo di capo del governo dopo il padre Thaksin e la zia Yingluck, entrambi rovesciati da un colpo di Stato
• – Loretta Dalpozzo
Intervista al sociologo Edgardo Lander. «Il pianeta è letto con lo schema della guerra fredda e l'imperialismo si identifica con gli Stati Uniti. Ogni governo che sembra opporsi agli Usa sarebbe antimperialista»
• – Redazione
Di Enrico Vallaperta, La Stampa Che valore dareste a una stampella? Una di quelle semplici, ortopediche, usate dai pazienti come ausilio per camminare. A Gaza, oggi, è un bene...
• – Redazione
L’analisi. Lo Zar vuole sfondare in Ucraina ma dopo le enormi perdite degli ultimi 2 anni non ha rimpiazzi: a Kursk punta a logorare gli ucraini
• – Redazione
Senza il lavoro spesso ripetitivo e alienante degli esseri umani l’IA non sarebbe in grado di interpretare i dati che le vengono sottoposti
Di Laura Melissari, Internazionale
Come fa oggi un sito di commercio online a restituirci tutti i risultati che corrispondono a “maglia verde in seta” che stavamo cercando? Come fa un’auto che si guida da sola a riconoscere un pedone e a non investirlo? Come può Facebook capire che un certo contenuto è violento o pedopornografico e va bloccato? Come si comporta un chatbot per stabilire di quale informazione abbiamo bisogno? In tutti questi casi, la risposta è una: glielo insegna un essere umano.
Un essere umano che guarda, analizza ed etichetta milioni di dati ogni giorno e li fornisce a quella che comunemente chiamiamo intelligenza artificiale (ia). L’intelligenza artificiale, per poter funzionare, ha bisogno di persone che la addestrino. E i suoi istruttori sono i nuovi proletari digitali. Quelli che si occupano delle mansioni più semplici, che si trovano alla base della piramide lavorativa del settore, i cui piani più alti sono occupati da analisti di dati, ingegneri o programmatori specializzati. Per insegnare all’intelligenza artificiale a riconoscere contenuti, e a crearne di nuovi, è necessario etichettare correttamente i dati, descrivere immagini, trascrivere testi, fare piccole traduzioni, identificare segnali stradali o altri elementi all’interno di immagini. I cosiddetti data labeling, gli etichettatori di dati, attraverso lavori spesso ripetitivi e alienanti, permettono l’addestramento dei software. Senza l’intervento umano, l’ia non sarebbe in grado di operare perché non saprebbe come interpretare i dati che le vengono sottoposti.
“Quello che viene venduto come intelligenza artificiale è un tipo di apprendimento automatico, significa che bisogna nutrire la macchina con miliardi di dati, e sulla base di questo la macchina impara”, spiega Antonio Casilli, professore di sociologia al Telecom, l’istituto politecnico di Parigi, in Francia. “Per poter funzionare, che si tratti di creare un piccolo filtro di TikTok o software alla ChatGpt, c’è bisogno di masse enormi di dati, che devono però essere trattati, o meglio preaddestrati”. La “P” di chatGpt, che è l’acronimo di Generative pretrained transformer, significa infatti preaddestrato.
Questo lavoro di preaddestramento è fatto però da persone che non sono quasi mai valorizzate. “Non vengono riconosciuti come i veri autori di questi prodigi tecnologici perché da una parte sono oscurati da professionisti molto più visibili, come i data scientist o gli ingegneri, e dall’altra perché non c’è interesse a far riconoscere l’intelligenza artificiale come una tecnologia labour intensive, cioè che ha bisogno di molto lavoro. L’intelligenza artificiale fa finta di essere una tecnologia che serve ad automatizzare il lavoro, e quindi a risparmiare, mentre invece ne richiede tantissimo”, spiega ancora Casilli.
A sottolineare il concetto è anche Antonio Aloisi, che insegna diritto del lavoro all’università Ie di Madrid, in Spagna. “È sempre più evidente che l’imperfezione, l’incompletezza, l’inaccuratezza dei risultati, ha bisogno di un passaggio umano, che validi i risultati, che corregga gli errori e che faccia una prima verifica. In molte esperienze con i chatbot non c’è nulla di intelligente, ma soprattutto nulla di artificiale. I dati sono goffi, disfunzionali, per questo c’è bisogno di un ‘badante’ umano”.
Quello degli istruttori è un lavoro a suo modo specializzato, ma quella specializzazione non è ben pagata, anzi è pagata malissimo. Non c’è interesse da parte delle aziende che reclutano questi lavoratori a riconoscerne le competenze, perché riconoscerle significherebbe pagarle. Casilli, con il suo gruppo di ricerca Diplab del politecnico di Parigi, uno dei tre al mondo che fa ricerca sul campo su questo tema, ha intervistato più di quattromila persone in venti paesi, soprattutto in quelli a basso reddito come Venezuela, Madagascar o Kenya, e ha raccolto e analizzato le esperienze di lavoro delle persone coinvolte.
“Nella nostra ricerca abbiamo incontrato addirittura persone pagate 0,001 dollaro per ogni azione che compiono durante le loro mansioni. Sono reclutate in paesi talmente a basso reddito che per loro, purtroppo, diventa economicamente interessante svolgere questi compiti pagati male. In Venezuela, dove l’80 per cento della popolazione vive sotto la soglia di povertà e il salario medio è di sei-otto dollari al mese, arrivare a guadagnarne un po’ di più facendo microtask (traduzioni, descrizioni, tagging, sondaggi…) per l’intelligenza artificiale può in effetti rappresentare una prospettiva ed è su questo che fanno leva molte aziende come Google, la OpenAi, la Meta”.
Si tratta di una catena di approvvigionamento molto lunga. Queste aziende subappaltano il lavoro ad altre, che di solito operano all’estero. “La filiera arriva fino in Asia, in Africa o in America Latina, dove ci sono piccole realtà informali, in cui si lavora in nero, spesso a conduzione familiare, e lì diventa difficilissimo, e a volte perfino pericoloso, investigare. Dobbiamo addentrarci in case, in internet point, in luoghi malfamati, per intervistare queste persone”, spiega Casilli.
La ricerca di lavoratori avviene anche attraverso degli annunci online. “Vuoi aiutarci a plasmare il futuro dell’intelligenza artificiale? Abbiamo un lavoro al 100 per cento da remoto per te: non è richiesta alcuna esperienza, ma solo la volontà di imparare e contribuire al campo all’avanguardia dell’intelligenza artificiale. Che tu sia agli inizi o un professionista esperto, la nostra comunità ha un ruolo per te! Avrete l’opportunità di contribuire all’addestramento di applicazioni di ia come ia generativa, modelli linguistici di grandi dimensioni, assistenti virtuali, chatbot, motori di ricerca e molto altro ancora”. Questo è solo uno degli annunci che si trovano sui siti di ricerca lavoro per assumere addestratori di sistemi basati sull’intelligenza artificiale. L’antesignana di queste piattaforme è Amazon turk, nata come una sorta di supporto ad Amazon per mettere ordine tra i tantissimi annunci che comparivano sul sito, al caos delle descrizioni. Una bacheca globale per la ricerca di lavoro, con la possibilità di registrarsi e partecipare a queste microtask.
“Ci siamo imbattuti in situazioni diverse, dall’addestramento dei filtri per la moderazione dei contenuti su Facebook in Kenya allo sviluppo di sindromi post-traumatiche da stress abbastanza forti, a famiglie venezuelane che si organizzano per lavorare senza fermarsi mai”, dice Casilli, raccontando alcune delle testimonianze raccolte sul campo. Certi creano delle piccole fabbriche in casa, dove la mattina lavora il padre, poi è il turno della figlia quando torna da scuola, e la sera la mamma o addirittura la nonna. In Venezuela l’elettricità costa poco, e all’epoca di Chavez era stato lanciato un programma per distribuire computer in tutte le famiglie, quindi oggi un po’ tutti possono lavorare da casa.
Ci sono addirittura casi di false intelligenze artificiali: aziende che vendono videocamere di sorveglianza basata sull’ia a supermercati, e poi si scopre che non c’è alcuna intelligenza artificiale dietro, ma persone in Africa, pagate pochissimo, che fanno sorveglianza in tempo reale. “Abbiamo passato una settimana in una casa in Madagascar trasformata in fabbrica di dati, con lavoratori ovunque in garage, in soffitta. Erano almeno in 120 in una casa sommersa dalla spazzatura e con un bagno solo, pagati pochissimo e impiegati giorno e notte per far finta di essere un sistema di videosorveglianza basato sull’intelligenza artificiale”, racconta Casilli.
La paga bassissima, soprattutto se paragonata ai miliardi che girano nell’indotto delle grandi aziende tecnologiche, non è l’unico dei problemi. Un aspetto sottovalutato è quello dei traumi psicologici a cui sono sottoposti i lavoratori. Si tratta spesso di compiti ripetitivi e alienanti, e in molti casi, come nella moderazione dei contenuti sui social network, si ha a che fare con contenuti tossici, violenti, sessualmente degradanti.
E poi c’è l’instabilità. “Per i data worker uno dei problemi più sentiti, al di là delle paghe basse, è l’ansia di non avere un lavoro costante. Devono essere sempre disponibili. Non hanno alcun controllo sul salario, sul carico e sulle modalità di lavoro. I moderatori sono esposti tutto il giorno a contenuti osceni. Ci possono essere diverse conseguenze psicologiche”, spiega Simone Robutti, cofondatore della sezione berlinese e italiana della Tech workers coalition, un’organizzazione dei lavoratori del settore tecnologico nata per conquistare maggiori diritti e migliori condizioni. Molte di queste persone fanno questo lavoro perché hanno problemi di salute, non possono muoversi da casa. E quindi sono ulteriormente ricattabili, dice Robutti.
Un altro aspetto del problema lo individua Teresa Numerico, professoressa di logica e filosofia della scienza all’università Roma Tre, secondo cui molti lavoratori firmano degli accordi di riservatezza così restrittivi che hanno addirittura paura di chiedere supporto legale o psicologico. “È per questo che si sa pochissimo di questo sottobosco lavorativo”.
Spesso, quando si parla delle conseguenze dell’avvento delle intelligenze artificiali nel mondo del lavoro, si vede il pericolo maggiore nella sostituzione degli esseri umani da parte delle macchine. Ma Numerico sposta lo sguardo. “La conseguenza peggiore di questo processo non è tanto che l’intelligenza artificiale ha cominciato a fare il lavoro degli esseri umani, ma che ha incorporato il lavoro umano in modo tale da averlo reso invisibile. Questo produce maggiore potenziale di sfruttamento”.
Stiamo assistendo da qualche anno alla cosiddetta piattaformizzazione del lavoro, cioè l’utilizzo delle piattaforme digitali e delle app per far incontrare domanda e offerta di lavoro. E sulle piattaforme sono impiegate persone che sono solo un’appendice delle macchine. “Questo li rende oggetto di sfruttamento. In un certo senso sono in competizione con le macchine. Si tratta di lavoratori intercambiabili. I rider sono ‘l’aristocrazia’ di questo processo, perché quantomeno si vedono”, dice Numerico.
Nel gennaio 2023 Time ha pubblicato un’inchiesta sugli addestratori della OpenAi che guadagnavano meno di due dollari all’ora. L’azienda a cui la OpenAi aveva esternalizzato questo lavoro era la Sama di San Francisco, negli Stati Uniti, che impiega persone in Kenya, Uganda, India e altri paesi a basso reddito. Anche Google, la Meta e la Microsoft fanno così. Quelli assunti dalla Sama per conto della OpenAi erano pagati tra 1,32 e 2 dollari all’ora, a seconda dell’anzianità e delle prestazioni. Si legge nell’inchiesta: “Un lavoratore della Sama incaricato di leggere e analizzare il testo per la OpenAi ha raccontato di aver sofferto di disturbi ossessivi dopo aver letto la descrizione di un uomo che faceva sesso con un cane davanti a un bambino. ‘È stata una tortura’, ha detto”. Gli etichettatori di dati più giovani ricevevano uno stipendio di 21mila scellini kenioti (170 dollari) al mese.
Come si vede dal racconto di Time, quando si parla di proletariato digitale esiste una divisione tra nord e sud del mondo. “Le grandi aziende che sviluppano e usano queste tecnologie hanno sede nei paesi ricchi. Ma chi completa manualmente queste attività è quasi sempre in Africa, in India. Anche perché le barriere all’ingresso sono poche: basta avere una connessione e una padronanza della lingua inglese”, spiega Aloisi. Numerico è d’accordo: c’è un tema di colonizzazione e razzializzazione.
Israele ha sempre individuato nel regime iraniano l’unico nemico mortale, Hamas è il minuscolo vassallo armato ma l’esca a Nord è Hezbollah
È dal confronto con i fatti, con le evidenze, con le prove, che il nostro modo di vedere il mondo può cambiare, anche uscendone rafforzato. Ridurre al silenzio Julian Assange...