AI

  • L’intelligenza artificiale si nutre di schiavi umani

    In un articolo pubblicato già nel 2023 Chiara Zappa ha messo in luce la faccia oscura dell’intelligenza artificiale. Ecco cosa ha scritto.

    ‘Una recente inchiesta di Time ha rivelato che OpenAI ha sfruttato, per perfezionare il suo prodotto, la manodopera dei dipendenti di una società kenyana, pagati con stipendi da fame per sottoporsi a ore di lavoro psicologicamente usurante. L’acronimo “Gpt”, infatti, sta per “Generative pretrained transformer”, letteralmente “Trasformatore preaddestrato generativo”: in pratica, queste “menti digitali”, per funzionare, devono appunto essere prima addestrate, e per la precisione nutrite di enormi quantità di testi reperiti a caso nella grande rete di internet, vasto deposito di linguaggio umano. Ma poiché molti di questi contenuti sono “tossici” – ovvero violenti, razzisti e pieni di pregiudizi – dai primi test è emerso come l’intelligenza artificiale assorbisse questa tossicità e la riproponesse poi nei colloqui con gli utenti. Come ovviare all’inconveniente? Siccome anche un team di centinaia di umani avrebbe impiegato decenni per esaminare e “ripulire” manualmente tutti i set di dati da dare in pasto ai software, era necessario costruire un ulteriore sistema di intelligenza artificiale in grado di rilevare un linguaggio tossico, per esempio l’incitamento all’odio, per poi rimuoverlo dalle piattaforme. In pratica, bisognava alimentare un’AI con esempi etichettati di violenza, pregiudizi, abusi sessuali, per insegnarle a riconoscerli da sola e, una volta integrata nel chatbot, a filtrare le risposte all’utente, rendendole eticamente più ortodosse. Così – ha rivelato Time – dal novembre 2021 OpenAI ha inviato decine di migliaia di frammenti di testo, che per i suoi contenuti raccapriccianti «sembravano usciti dai recessi più oscuri di internet», a una società di outsourcing in Kenya, dove alcune decine di etichettatori di dati leggevano e catalogavano centinaia di brani, su turni di nove ore, per un compenso compreso tra circa 1,32 e 2 dollari all’ora. Alcuni di loro hanno dichiarato di essere rimasti mentalmente segnati dalla mansione, con traumi e visioni ricorrenti legate ai contenuti esaminati. Mesi dopo, queste criticità avrebbero portato alla chiusura anticipata dei rapporti tra OpenAI e Sama, l’azienda appaltatrice, che ha sede in California ma impiega lavoratori anche in Uganda e India per clienti della Silicon Valley come Google, Meta e Microsoft. Nel frattempo, però, nel febbraio dell’anno scorso Sama aveva fatto partire un altro progetto pilota per OpenAI: raccogliere immagini sessuali e violente, alcune delle quali illegali per la legge statunitense, da etichettare e consegnare al committente. D’altra parte – ha dichiarato poi un portavoce di OpenAI – questo è «un passo necessario» per rendere più sicuri i suoi strumenti di intelligenza artificiale (tra cui figurano appunto quelli per la generazione di immagini). Alla fine, la natura traumatica del lavoro ha spinto Sama a cancellare tutti i suoi contratti con il colosso di San Francisco otto mesi prima del previsto. Ma la vicenda ha rappresentato un campanello d’allarme sul rovescio della medaglia di una tecnologia all’apparenza sinonimo di progresso per tutti e che invece, in alcune aree del mondo, va a braccetto con le più reiterate forme di sfruttamento. «Nonostante il ruolo fondamentale svolto da questi professionisti dell’arricchimento dei dati, un numero crescente di ricerche rivela le precarie condizioni di lavoro che essi devono affrontare», ha ammesso la Partnership on AI, rete di organizzazioni che operano nel settore. A Nairobi, dove un altro recente scandalo ha rivelato il caso dei locali moderatori di contenuti per Facebook, pagati un dollaro e mezzo all’ora per visualizzare scene di esecuzioni, stupri e abusi, l’analista politica Nanjala Nyabola è stata ancora più diretta: «Dovrebbe essere ormai chiaro che il nostro attuale paradigma di digitalizzazione ha un problema di lavoro – ha dichiarato -. Stiamo passando dall’ideale di un internet costruito attorno a comunità di interessi condivisi, a uno dominato dalle prerogative commerciali di una manciata di aziende situate in specifiche aree geografiche». Per Nyabola, autrice tra l’altro del libro “Digital Democracy, Analogue Politics” (Zed Books), «una massa critica di manodopera sottopagata viene reclutata nelle condizioni legalmente più deboli per sostenere l’illusione di un internet migliore. Ma questo modello lascia miliardi di persone vulnerabili a una miriade di forme di sfruttamento sociale ed economico, il cui impatto non comprendiamo ancora appieno». Una studiosa che queste dinamiche le ha, invece, ben chiare già da un po’ è Timnit Gebru, ingegnera informatica che nel dicembre 2020 è stata al centro di un caso per la sua improvvisa uscita da Google a Mountain View, dove lavorava come co-responsabile del gruppo di studio sull’etica dell’intelligenza artificiale. Gebru, che due anni prima aveva anche collaborato a uno storico studio sui pregiudizi razziali e di genere nel software di riconoscimento facciale, aveva infatti stilato un documento che evidenziava rischi e pregiudizi nei modelli linguistici di grandi dimensioni. Di fronte al suo rifiuto di ritirare il testo prima della pubblicazione, Google la licenziò in tronco. Oggi, la tenace scienziata 39enne ha deciso di provare a cambiare il settore nel suo nuovo ruolo di fondatrice del Dair, Distributed Artificial Intelligence Research Institute, che opera con ricercatori esperti di AI in tutto il mondo. «Le mansioni di etichettatura dei dati vengono spesso svolte lontano dal quartier generale della Silicon Valley: dal Venezuela, dove i lavoratori visionano immagini per migliorare l’efficienza dei veicoli a guida autonoma, alla Bulgaria, dove i rifugiati siriani alimentano i sistemi di riconoscimento facciale con i selfie classificati in base a razza, sesso e categorie di età. Questi compiti sono spesso affidati a lavoratori precari in Paesi come l’India, il Kenya, le Filippine o il Messico», rivela Gebru in un recente saggio scritto per la rivista Noema insieme ad Adrienne Williams e Milagros Miceli, che ha operato a stretto contatto con gli annotatori di dati in Siria, Bulgaria e Argentina. «Le aziende tecnologiche – denunciano le tre ricercatrici – si assicurano di assumere soggetti provenienti da comunità povere e svantaggiate, come rifugiati, carcerati e altre persone con poche opzioni di lavoro, spesso assumendole tramite aziende terze». Per cambiare rotta è necessario finanziare la ricerca sull’AI «sia come causa sia come prodotto di condizioni di lavoro ingiuste». I guru della tecnologia, ma anche i media, hanno oggi la responsabilità di mettere in luce il lavoro sfruttato dietro l’illusione di macchine sempre più simili agli esseri umani. Perché «queste macchine sono costruite da eserciti di lavoratori sottopagati in tutto il mondo». Che hanno il diritto di essere tutelati’.

  • La Commissione avvia una consultazione per elaborare orientamenti e un codice di buone pratiche su sistemi di IA trasparenti

    La Commissione europea aiuterà i deployer e i fornitori di sistemi di intelligenza artificiale (IA) generativa a rilevare ed etichettare i contenuti generati o manipolati dall’IA. Ciò contribuirà a garantire che gli utenti siano informati quando interagiscono con un sistema di IA. A tal fine la Commissione ha avviato una consultazione per elaborare orientamenti e un codice di buone pratiche sugli obblighi di trasparenza in materia di IA, sulla base delle disposizioni del regolamento sull’intelligenza artificiale.

    Il regolamento sull’IA obbliga i deployer e i fornitori di IA generativa a informare le persone quando interagiscono con un sistema di IA o sono esposte a sistemi di riconoscimento delle emozioni o di categorizzazione biometrica e a contenuti generati o manipolati da un sistema di IA.

    La Commissione invita i fornitori e i deployer di modelli e sistemi di IA interattivi e generativi e di sistemi di categorizzazione biometrica e di riconoscimento delle emozioni, le organizzazioni del settore pubblico e privato, gli esperti del mondo accademico e della ricerca, i rappresentanti della società civile, le autorità di controllo e i cittadini a condividere le loro opinioni entro il 2 ottobre 2025.

    La consultazione è accompagnata da un invito a manifestare interesse aperto fino al 2 ottobre, affinché le parti interessate partecipino all’elaborazione del codice di buone pratiche.

    Il regolamento sull’IA, entrato in vigore il 1° agosto 2024, promuoverà lo sviluppo e la diffusione dell’IA nell’UE in obblighi di trasparenza si applicheranno a decorrere dal 2 agosto 2026.

  • Il 29% dei viaggiatori italiani utilizza l’IA per prenotare le vacanze

    Adyen, piattaforma tecnologico finanziaria scelta da molte aziende leader a livello globale, ha pubblicato il suo Hospitality & Travel Report 2025. L’indagine mette in evidenza il ruolo trasformativo che l’IA sta avendo sul comportamento e sulle abitudini d’acquisto dei viaggiatori. Una delle tendenze principali emerse è la crescente richiesta da parte dei consumatori affinché le aziende del settore hospitality integrino funzionalità di ricerca prodotti e di transazione direttamente nelle loro piattaforme di prenotazione.

    Nonostante la crescente adozione dell’IA da parte dei consumatori, molte aziende italiane del settore hospitality si trovano ad affrontare diverse sfide legate alla frammentazione dei sistemi di pagamento, con il 62% dei merchant che indica come la presenza di sistemi frammentati per i pagamenti online e in loco renda complesso per gli hotel snellire le operazioni ed effettuare la riconciliazione in modo efficiente. Adyen sta aiutando le aziende a rispondere a questi cambiamenti sviluppando soluzioni che supportano sia i merchant che gli ospiti con tecnologie di transazione senza frizioni.

    Con l’inizio delle vacanze estive, l’IA sta ridisegnando il modo in cui i viaggiatori pianificano e prenotano i loro viaggi. Nel sondaggio condotto su 40.000 consumatori in 27 Paesi, il 29% degli italiani dichiara di aver utilizzato l’IA per scoprire le destinazioni, con un aumento del 77% rispetto al 2024. In Italia, la Generazione Z (52%) e i Millennial (40%) sono gli utenti più attivi, ma la crescita maggiore si registra nella fascia dei Boomer (in aumento del 111%) e della Generazione X (in aumento dell’85%).

    Il 57% dei Boomer italiani che utilizza l’IA per organizzare e prenotare i propri viaggi ha dichiarato che l’IA li ha aiutati a filtrare le informazioni superflue, evidenziando come l’uso di questa tecnologia si stia diffondendo tra tutte le generazioni. I social media sono una fonte di frustrazione per il 66% dei viaggiatori, scoraggiati da piattaforme piene di pubblicità, sponsorizzazioni e contenuti di influencer. L’IA aiuta a eliminare questo “rumore”, fornendo ispirazione più rapidamente di qualsiasi altro metodo (70%).

    “La tecnologia AI è diventata incredibilmente importante per gli ospiti che cercano ispirazione sulle destinazioni e itinerari rapidi, divertenti e personalizzati, specialmente con l’arrivo delle vacanze estive”, ha dichiarato Phil Crawford, Global Head of Hospitality di Adyen. “Gli ospiti utilizzano sempre più l’IA per rendere i loro viaggi più fluidi e, di conseguenza, le aziende del settore hospitality stanno valutando nuovi investimenti per soddisfare questa crescente domanda”.

    L’Hospitality & Travel Report 2025 di Adyen evidenzia come gli ospiti si aspettino sempre più che gli operatori adottino la tecnologia AI per supportare meglio gli acquisti nel settore travel e hospitality. Le aziende italiane sono consapevoli del cambiamento di tendenza dei consumatori: quasi la metà (43%) afferma che gli strumenti di ricerca basati sull’IA che supportano gli ospiti nelle decisioni di prenotazione rimodelleranno il settore nel 2025. Una percentuale simile (36%) ritiene che l’automazione guidata dall’IA, volta a personalizzare l’esperienza degli ospiti, trasformerà il comparto.

    I pagamenti costituiscono il collegamento fondamentale tra la scoperta resa possibile dall’IA e l’esperienza completa dell’ospite — dalla prenotazione di una camera al check-out dell’hotel. Crawford prosegue: “Le aziende del settore hospitality stanno integrando sempre più funzionalità di intelligenza artificiale nelle proprie piattaforme per offrire agli ospiti un’esperienza di pagamento più fluida».

    Le frodi continuano a rappresentare una sfida operativa importante: il 35% delle strutture ricettive italiane segnala un aumento significativo dei tentativi di frode nei pagamenti nell’ultimo anno. In questo contesto, Adyen Uplift si distingue grazie all’integrazione di Protect, un modulo di prevenzione delle frodi basato sull’IA che riduce dell’86% i casi di falsi positivi e garantisce agli ospiti reali la possibilità di prenotare senza difficoltà.

    La ricerca è stata condotta da Censuswide su un campione di 40.000 consumatori rappresentativi a livello nazionale in Australia, Francia, Germania, Giappone, Italia, Spagna, Svezia, Regno Unito, Brasile, Messico, Canada, USA, Paesi Bassi, Hong Kong, Malesia, Singapore, Repubblica Ceca, Danimarca, Estonia, Irlanda, Lettonia, Lituania, Norvegia, Polonia, Portogallo, Emirati Arabi Uniti e Belgio (di età superiore ai 18 anni). I dati sono stati raccolti tra il 16 aprile e l’8 maggio 2025.

  • La Commissione traccia la rotta per la leadership europea in materia di IA con un ambizioso piano d’azione

    Diventare un leader globale nell’intelligenza artificiale (IA) è l’obiettivo del piano d’azione per il continente dell’IA lanciato oggi. Come indicato dalla presidente von der Leyen al vertice d’azione sull’IA del febbraio 2025 a Parigi, questa ambiziosa iniziativa è destinata a trasformare le forti industrie tradizionali europee e il suo eccezionale bacino di talenti in potenti motori di innovazione e accelerazione dell’IA. Il piano d’azione per il continente dell’IA rafforzerà le capacità di innovazione dell’Unione europea in materia di IA attraverso azioni e politiche incentrate su cinque pilastri fondamentali:

    La Commissione rafforzerà l’infrastruttura europea per l’IA e il supercalcolo con una rete di fabbriche di IA. 13 di queste fabbriche sono già installate nei principali supercomputer europei a livello mondiale. Sosterranno le start-up, l’industria e i ricercatori dell’UE nel campo dell’IA nello sviluppo di modelli e applicazioni di IA.

    L’UE contribuirà anche alla creazione di Gigafabbriche di IA. Si tratterà di strutture su larga scala dotate di circa 100.000 chip che guideranno la prossima ondata di modelli di IA di frontiera e manterranno l’autonomia strategica dell’UE nei settori industriali e scientifici critici, richiedendo investimenti pubblici e privati.

    Per stimolare gli investimenti del settore privato nella capacità del cloud e nei centri dati, la Commissione proporrà anche una legge sullo sviluppo del cloud e dell’IA. L’obiettivo è almeno triplicare la capacità dei data center dell’UE nei prossimi cinque-sette anni, dando priorità ai data center altamente sostenibili.

    Rafforzare l’innovazione dell’IA richiede anche l’accesso a grandi volumi di dati di alta qualità. Un elemento importante del piano d’azione è la creazione di laboratori di dati, che riuniscono e curano grandi volumi di dati di alta qualità provenienti da diverse fonti nelle fabbriche di IA. Nel 2025 sarà avviata una strategia globale per l’Unione dei dati al fine di creare un vero mercato interno dei dati in grado di potenziare le soluzioni di IA.

    Nonostante il potenziale dell’IA, solo il 13,5 % delle imprese dell’UE ha adottato l’IA. Per sviluppare soluzioni di IA su misura, promuoverne l’uso industriale e la piena adozione nei settori pubblici e privati strategici dell’UE, nei prossimi mesi la Commissione lancerà la strategia “Applicare l’IA.

    Per soddisfare la crescente domanda di talenti dell’IA, la Commissione agevolerà il reclutamento internazionale di esperti e ricercatori altamente qualificati nel settore dell’IA attraverso iniziative quali il bacino di talenti, l’azione Marie Skłodowska-Curie “MSCA Choose Europe” e i programmi di borse di studio per l’IA offerti dalla prossima Accademia per le competenze in materia di IA.

    La Commissione lancerà inoltre il Service Desk della legge sull’IA per aiutare le imprese a conformarsi alla legge sull’IA.

    Con questo piano d’azione la Commissione avvia due consultazioni pubbliche, che si protrarranno fino al 4 giugno 2025, per dare ulteriore forma a queste iniziative del piano d’azione per il continente dell’IA. Una terza consultazione pubblica sulla strategia per l’Unione dei dati sarà avviata a maggio.

    Parallelamente, la Commissione organizzerà dialoghi con i rappresentanti dell’industria e del settore pubblico per contribuire a definire la strategia “Applicare l’IA”.

  • L’intelligenza artificiale sarà il genio del male uscito dal vaso di Pandora?

    Di esempi di governi stupidi e dannosi in forza del libero voto delle masse è piena la storia, anche quella di questi giorni. Ma lo storico e accademico Yuval Noah Harari, nel suo ultimo saggio ‘Nexus: A Brief History of Information Networks from the Stone Age to Ai’, paventa che attraverso l’intelligenza artificiale l’uomo potrebbe aver dato vita a un’entità, un potere, una divinità quasi, in grado di sovvertire la democrazia e ridurre l’uomo stesso in servitù.

    Harari presenta l’IA non come uno strumento passivo, ma come una forza autonoma che sfugge al controllo umano: “L’IA rappresenta una minaccia senza precedenti per l’umanità perché è la prima tecnologia nella storia in grado di prendere decisioni e creare nuove idee autonomamente. Tutte le invenzioni umane precedenti hanno potenziato gli esseri umani, poiché, per quanto potente fosse il nuovo strumento, le decisioni sul suo utilizzo sono rimaste nelle nostre mani. Le bombe nucleari non decidono da sole chi uccidere, né possono migliorarsi o inventare bombe ancora più potenti. Al contrario, i droni autonomi possono decidere autonomamente chi uccidere, e le IA possono creare nuovi progetti di bombe, strategie militari senza precedenti e IA più avanzate. L’IA non è uno strumento, ma un agente. La maggiore minaccia dell’IA è che stiamo evocando sulla Terra innumerevoli nuovi potenti agenti, potenzialmente più intelligenti e immaginativi di noi, che non comprendiamo né controlliamo completamente”. Questo concetto viene esemplificato dal recente caso di Amazon Q. Come ha spiegato il ceo Andy Jassy, Amazon Q è in grado di ridurre i tempi di aggiornamento software da settimane a poche ore, risparmiando migliaia di ore di lavoro umano. Tuttavia, sebbene l’efficienza sia notevole, resta la domanda su cosa accadrebbe se questa apparecchiatura iniziasse a prendere decisioni in modi non previsti dai suoi creatori.

    Harari sottolinea che il problema non risiede solo nell’arroganza umana, ma nella struttura dei network di potere e cooperazione. “La nostra tendenza a evocare poteri che non possiamo controllare – scrive – non deriva dalla psicologia individuale, ma dal modo unico in cui la nostra specie coopera in gran numero. L’umanità acquista un enorme potere costruendo vaste reti di cooperazione, ma il modo in cui queste reti sono strutturate ci predispone a usare il potere in modo scellerato. La maggior parte delle nostre reti è stata costruita e mantenuta diffondendo storie, fantasie e illusioni collettive che spaziano dalle bacchette magiche ai sistemi finanziari. Il nostro problema, quindi, è un problema di rete. Specificamente, è un problema di informazione. L’informazione è la colla che tiene insieme le reti, e quando le persone ricevono informazioni errate, è probabile che prendano decisioni sbagliate, indipendentemente da quanto saggi e benevoli possano essere personalmente”.

    Sottolinea ancora Harari che “tradizionalmente, il termine “IAC è stato usato come acronimo di intelligenza artificiale. Ma forse è meglio considerarlo come acronimo di intelligenza aliena. Man mano che l’IA evolve, diventa sempre meno artificiale (nel senso di dipendere dai progetti umani) e sempre più aliena. Anche nel momento attuale, nella fase embrionale della rivoluzione dell’IA, i computer prendono già decisioni su di noi, che si tratti di concederci un mutuo, assumerci per un lavoro o spedirci in prigione. Nei prossimi decenni, è probabile che acquisisca la capacità di creare anche nuove forme di vita, sia scrivendo codice genetico sia inventando un codice inorganico per animare entità inorganiche. L’IA potrebbe quindi alterare non solo il corso della storia della nostra specie, ma anche l’evoluzione di tutte le forme di vita”.  Ecco allora che, secondo Harari, “L’ascesa dell’intelligenza aliena rappresenta una minaccia per tutti gli esseri umani, e una minaccia particolare per la democrazia”.

  • Sempre più startup cinesi legate all’intelligenza artificiale si stanno stabilendo a Singapore

    Singapore sta diventando sempre più la destinazione preferita per le startup cinesi di intelligenza artificiale che cercano di entrare un circuito globale.

    Sebbene la città-stato attiri da tempo aziende dalla Cina, in particolare gli imprenditori dell’intelligenza artificiale stanno accelerando il cambiamento perché le sanzioni commerciali imposte dagli Stati Uniti sulla loro patria bloccano il loro accesso alle tecnologie più recenti.

    Qian Yiming, co-fondatore e chief technology officer della startup AI Climind, afferma che oltre all’affinità culturale e linguistica, Singapore è attraente perché il suo governo offre aiuto, compreso il sostegno finanziario e il supporto tecnico.

    Una base a Singapore è anche un modo per le aziende di prendere le distanze dalle loro origini cinesi, una mossa spesso chiamata “Singapore-washing” che però non sempre funziona.

  • Gelato ricoperto di bacon e crocchette: negli USA McDonald’s sospende l’uso dell’intelligenza artificiale per gli ordini

    McDonald’s sta rimuovendo la tecnologia di ordinazione basata sull’intelligenza artificiale (AI) dai suoi ristoranti drive-through negli Stati Uniti dopo che i clienti hanno condiviso on line alcuni incidenti letteralmente comici.

    Nel 2019 è stata annunciata una prova del sistema, sviluppato da IBM, che utilizza un software di riconoscimento vocale per elaborare gli ordini, il quale però non si è dimostrato del tutto affidabile, dando vita a video virali di bizzarri ordini interpretati erroneamente, che vanno dal gelato ricoperto di pancetta alle crocchette di pollo del valore di centinaia di dollari.

    McDonald’s ha fatto sapere ad IBM che rimuoverà la tecnologia dagli oltre 100 ristoranti in cui la sta testando entro la fine di luglio anche se, ha aggiunto, di essere fiducioso che la tecnologia sarà ancora “parte del futuro dei suoi ristoranti”.

    L’applicazione della tecnologia è stata controversa fin dall’inizio, anche se le preoccupazioni erano incentrate sulla possibilità di rendere obsoleti i posti di lavoro delle persone. Tuttavia, è diventato evidente che sostituire i lavoratori umani dei ristoranti potrebbe non essere così semplice come si temeva inizialmente – e come speravano i sostenitori del sistema.

    Gli incidenti dell’addetto all’ordine dell’IA sono stati documentati online. In un video che ha 360.000 visualizzazioni, ad esempio, una persona afferma che il suo ordine è stato confuso con quello effettuato da qualcun altro, con il risultato che nove ordini di tè sono stati aggiunti al suo conto.

    Un altro video popolare mostra due persone che ridono mentre vengono aggiunte al loro ordine crocchette di pollo per un valore di centinaia di dollari, mentre il New York Post ha riferito che ad un’altra persona l’addetto agli ordini dell’AI aveva aggiunto pancetta al gelato per errore.

    IBM ha comunicato che continuerà a lavorare con McDonald’s in futuro, poiché “questa tecnologia ha dimostrato di avere alcune delle capacità più complete del settore, veloce e precisa in alcune delle condizioni più impegnative”.

Pulsante per tornare all'inizio