AI

  • L’ambientalismo della Ue rende l’Europa un habitat ostile per l’intelligenza artificiale

    I chip usati dalle aziende italiane – dalle automobili alle armi, dai droni agli elettrodomestici intelligenti – arrivano in larga parte da Taiwan, Corea del Sud, Cina. Sono loro i fornitori degli elementi diventati indispensabili per l’economia attuale, soprattutto con l’arrivo dell’intelligenza artificiale, la cui produzione è però ad alto impatto ambientale e ora, in vista dell’entrata in vigore due nuove direttive Ue, ad alto impatto anche sui costi per le imprese acquirenti del Vecchio Continente.

    I conti dell’inquinamento li ha fatti Greenpeace Asia nel report appena pubblicato ‘Chip Supply Chain’ che ha misurato l’impronta ambientale reale di dieci giganti americani del settore, considerando sia le emissioni prodotte dal gruppo, sia quelle appannaggio della sua catena di fornitura. Sono finite sotto la lente Microsoft, Apple, Amazon, Google, Meta, Nvidia, Broadcom, Advanced Micro Devices (AMD), Qualcomm e Intel.

    Lo studio racconta che buona parte delle emissioni complessive prodotte da queste dieci compagnie viene dall’Asia. Il rapporto va da un minimo del 33% per Amazon, la meno dipendente, ai picchi di Amd e Nvidia, le cui catene di forniture asiatiche producono rispettivamente l’84% e il 97% delle emissioni complessive dei due gruppi. La faccenda ha tre ragioni. La prima è che Taiwan, Cina e Corea del Sud sono sedi delle fabbriche di alcuni dei principali produttori al mondo di componenti usati per l’Ia. Il 90% dei server viene costruito a Taiwan. La Corea del Sud ha il 60% del mercato globale dei chip di memoria. Il problema è che queste fabbriche sono alimentate da centrali molto inquinanti, perché in Asia Orientale il 70-75% dell’energia proviene da fonti fossili.

    I vari processi di litografia Euv e incisione (etching) richiedono inoltre un sacco di elettricità. Data la domanda in grande aumento per il settore, Greenpeace stima che entro il 2030 la sola industria dei chip prodotti per l’intelligenza artificiale crescerà di 170 volte, arrivando a consumare 37.238 Gwh in un anno. Equivale più o meno all’elettricità consumata nel 2023 da un Paese come l’Irlanda. La terza ragione dipende invece dai colossi americani dell’intelligenza artificiale.

    Dal 2 agosto 2026 l’AI Act, direttiva voluta dalla Commissione europea, prevederà codici volontari per la sostenibilità delle aziende del settore e, nel frattempo, la Commissione europea sta studiando un piano per misurare quanto prima e in maniera più completa possibile l’impatto ambientale dei sistemi di intelligenza artificiale. Questa novità potrebbe tradursi anche in multe fino a 15 milioni di euro o al 3% del fatturato annuo globale per le azioni non conformi alle disposizioni energetiche dell’AI Act.

    L’Italia sarà uno dei primi Paesi europei ad affrontare il problema, dato che la sua “dipendenza da chip asiatici” è più accentuata rispetto ad altri Paesi: la Germania produce internamente circa il 15% dei chip che utilizza, la Francia il 12%, l’Italia solo il 5%.

  • Hormuz e il caro-energia mandano in sofferenza l’intelligenza artificiale

    L’intelligenza artificiale promette guadagni di produttività senza precedenti. Ma a quale costo fisico ed economico? È un dibattito aperto tra economisti ed esperti di IA, che assume sempre più importanza considerato lo shock energetico derivante dalla guerra nel Golfo Persico, che ha già fatto salire il prezzo del barile ai livelli più alti degli ultimi anni e riaperto il dibattito sulla dipendenza digitale dai combustibili fossili.

    Secondo il rapporto Energy and AI dell’Agenzia internazionale per l’energia (Iea), i data center hanno consumato circa 415 Terawattora di elettricità nel 2024, un’energia che equivale a circa l’1,5 per cento del totale mondiale; la proiezione al 2030 sale a 945 Terwattora, ossia il consumo annuale di una potenza industriale come il Giappone. Goldman Sachs Research stima una crescita ancora più accentuata fino al +165 per cento della domanda globale di energia dei data center tra il 2023 e il 2030, con un tasso composto annuo del 17 per cento fino al 2028; l’Electric Power Research Institute statunitense calcola che i data center potrebbero arrivare fino al 9,1 per cento dell’elettricità nazionale entro il 2030 nello scenario di adozione più accelerata, rispetto all’attuale 1,5 per cento. Inoltre, alla voce energia bisogna aggiungere il costo idrico.

    Secondo Digiconomist, nel 2025 i sistemi IA hanno consumato circa 765 miliardi di litri d’acqua per il raffreddamento delle infrastrutture. Il World Economic Forum ha identificato la sicurezza energetica come priorità nazionale sistemica nell’era dell’IA, sottolineando come la carenza di turbine e i colli di bottiglia nelle reti di trasmissione rischiano di limitare l’intera traiettoria di crescita del settore. Il dibattito tra gli economisti è tutt’altro che risolto. La Brookings Institution ha segnalato che le innovazioni nei modelli come DeepSeek riducono il costo energetico per singolo token generato, ma non invertono la traiettoria complessiva.

    L’effetto rebound – o paradosso di Jevons – spiega il fenomeno per cui un aumento dell’efficienza nell’uso di una risorsa non riduce il consumo complessivo, ma lo aumenta: il minor costo unitario stimola una domanda aggregata molto più alta, annullando i guadagni di efficienza. Sul fronte della produttività gli economisti sono cauti: secondo la Brookings Institution, i guadagni delle tecnologie general purpose tendono a manifestarsi con ritardi di un decennio o più rispetto alla diffusione iniziale, e l’IA nel 2025 non ha ancora mostrato un impatto dominante sui dati aggregati di Pil. Il Center for Strategic and International Studies identifica nell’approvvigionamento elettrico il principale collo di bottiglia alla supremazia IA statunitense, al pari dei semiconduttori; senza una rete energetica adeguata, la corsa all’IA rischia di incepparsi per vincoli fisici prima ancora che economici.

    L’Agenzia internazionale per l’energia prevede che la crescita delle emissioni legate ai data center resti comunque sotto l’1,5 per cento del totale globale del settore energetico e potrebbe essere compensata, nel medio periodo, dai guadagni di efficienza che l’IA stessa abilita in altri comparti, dalle batterie al fotovoltaico. L’Unione europea e gli Stati Uniti incarnano due filosofie in direzione opposta. La direttiva europea sull’efficienza energetica obbliga i data center sopra i 500 kilowatt a rendicontare annualmente consumi di energia e acqua in un database centralizzato; la Germania ha abbassato la soglia a 300 kilowatt, con obbligo di transizione al 100 per cento di rinnovabili entro il 2027. La Commissione europea sta finalizzando un Data Center Energy Efficiency Package e un Cloud and AI Development Act che integreranno la dimensione energetica nell’AI Act già in vigore, puntando alla neutralità carbonica del settore entro il 2030.

    L’amministrazione Trump è agli antipodi, avendo imboccato la strada della deregolamentazione. Il piano Winning the Race: America’s AI Action Plan (23 luglio 2025) ha semplificato i permessi ambientali per data center e infrastrutture energetiche; più di recente, le principali aziende tech americane hanno firmato un impegno volontario ad autoprodurre l’energia necessaria, su pressione della Casa Bianca preoccupata per l’aumento delle bollette elettriche (+8 per cento nel 2025) in vista delle elezioni di midterm. Per coprire il fabbisogno, sia Google sia Microsoft stanno investendo massicciamente nel nucleare, inclusi i reattori modulari di piccola taglia (Smr), la cui prima ondata è attesa dal 2030. Il divario regolatorio transatlantico rischia così di diventare un nuovo terreno di competizione strategica: non solo chi produce i modelli migliori, ma chi riesce ad alimentarli in modo più sostenibile e meno dipendente dai combustibili fossili potrebbe detenere un vantaggio strutturale nel decennio a venire. Un altro capitolo del confronto tra Washington e Bruxelles.

  • L’intelligenza artificiale diventa avvocato

    Si chiama Budda Law e sta rivoluzionando il mondo del diritto. È una startup tech legal nata a gennaio 2025 da un’idea di tre avvocati tra Roma e Viterbo e già operativa da luglio dello scorso anno. L’obiettivo è ambizioso: rendere l’assistenza legale semplice, chiara e accessibile, grazie all’integrazione tra intelligenza artificiale e le competenze giuridiche del team che opera con headquarter a Roma e uffici dedicati alla ricerca e sviluppo a Villorba, nel Trevigiano.

    Il modello di business è definito. Budda Law è una piattaforma online che esegue compiti e attività nel settore legale: risponde a quesiti, genera contratti personalizzati e fornisce pareri basati su riferimenti normativi e giurisprudenziali. Oggi con Budda Law si possono ottenere risposte chiare e affidabili in pochi minuti, a costi contenuti, pagando anche per una singola interrogazione del sistema: si paga a “crediti”, non sono necessari abbonamenti e questo democratizza ulteriormente l’accessibilità al mondo del diritto.

    Alla base di Budda Law c’è un imponente database proprietario di centinaia di GB, che comprende sentenze, norme, modelli di atti giudiziari e contratti. In tutto, si tratta di circa due milioni di sentenze selezionate dal 2019 ad oggi e provenienti da tutte le giurisdizioni: dalle Corti di merito alla Cassazione, dalla giurisprudenza tributaria fino ai provvedimenti del garante della privacy. Nelle prossime settimane, inoltre, è in arrivo la giurisprudenza amministrativa. La raccolta è iniziata nel 2019 con dati provenienti da fonti ufficiali e dal know how giuridico acquisito dal founder Roberto Alma, avvocato romano che ha scelto come seconda laurea quella in informatica, nonché dagli altri co-founder, quarantenni come lui e avvocati, Daniele Costa (sempre di Roma) e Matteo Moscioni (originario di Viterbo). I dati, ossia normativa, sentenze, modelli di atti giudiziari e contratti sono classificati per materia e vengono continuamente aggiornati.

    Questo patrimonio consente al sistema di fornire risposte argomentate e coerenti, basate su giurisprudenza reale. In pochi mesi di attività la piattaforma ha già raggiunto obiettivi notevoli: oltre 1.500 utenti attivi, con una media di 200 nuovi utenti al mese e circa 2.500 interrogazioni mensili. In tutto, nei primi mesi di lavoro, sono stati generati più di diecimila pareri legali. Dati che confermano una crescita rapida e costante, con l’interesse crescente da parte di studi legali e aziende.

    La seconda edizione del Rapporto Legal Tech & AI, realizzata da 4cLegal in collaborazione con il Gruppo 24 ORE, offre una mappa aggiornata delle soluzioni attive in Italia: il mercato italiano del Legal Tech ha superato i 30 milioni di euro di fatturato, con circa 89 operatori tra startup e grandi brand consolidati. Ma è sul fronte dell’adozione di tali strumenti che i dati diventano ancora più significativi: il 63% delle grandi imprese ha già implementato o sta implementando soluzioni di intelligenza artificiale per la gestione della compliance.

    Entrando nel concreto, il risparmio di tempo e di lavoro per gli avvocati è enorme: prima dovevano informarsi su database dove si cercavano solo le parole chiave, adesso c’è una vera e propria intelligenza artificiale formata sul diritto a venir in loro aiuto. Una AI che propone direttamente delle vie legali da seguire, con tanto di semafori gialli, verdi e rossi in base alla difficoltà o alla possibilità di esito che potrebbe avere un percorso giudiziario rispetto ad un altro. Con la sua interfaccia conversazionale, Budda Law permette di interagire con l’intelligenza artificiale come se si parlasse con un collega esperto.

    Per il mondo dei professionisti operativi solo indirettamente nel settore legale (ad esempio consulenti del lavoro, commercialisti), Budda Law al contempo offre strumenti avanzati di ricerca giuridica, analisi automatica di contratti e redazione di atti, in modo da ridurre i tempi di lavoro e migliorare la precisione delle pratiche. Il target? Sono i professionisti (le figure cardine sono quelle dell’avvocato, del commercialista, del notaio e del consulente del lavoro) e imprese (indipendentemente dalla dimensione, quindi dal singolo imprenditore alla ditta individuale, fino alla grande azienda).

  • Italia insieme a Kenya e India per promuover l’intelligenza artificiale in Africa

    Un accordo di collaborazione strategica trilaterale è stato concluso 19 febbraio a Nuova Delhi tra l’Italia, l’India e il Kenya per sviluppare il dispiegamento di infrastrutture di intelligenza artificiale in Africa. L’accordo si inserisce nel quadro del Polo per l’intelligenza artificiale per lo sviluppo sostenibile, promosso dal ministero delle Imprese e del Made in Italy (Mimit) in partenariato con il Programma delle Nazioni Unite per lo sviluppo (Undp), e in continuità con il Piano Mattei. L’intesa, che fa parte del Piano d’azione strategico India-Italia 2025-2029, è stata ufficializzata oggi a margine del Vertice sull’impatto dell’intelligenza artificiale dal ministro delle Imprese e del Made in Italy, Adolfo Urso – in rappresentanza della presidente del Consiglio Giorgia Meloni – alla presenza del ministro indiano dell’Elettronica e delle tecnologie dell’informazione, Ashwini Vaishnaw, e del ministro keniota dell’Informazione, delle comunicazioni e dell’economia digitale, William Kabogo Gitau.

    “Questo accordo consolida la collaborazione tra Italia, India e Kenya per sviluppare l’intelligenza artificiale nel continente africano, in linea con gli obiettivi del nostro Piano Mattei”, ha dichiarato il ministro Urso. “L’India, partner chiave dell’Italia e attore essenziale per le nostre imprese nello sviluppo dell’Ia e dell’innovazione, svolgerà un ruolo centrale accanto al Polo Ia promosso dal Mimit durante la presidenza italiana del G7. Insieme trasformeremo questa cooperazione in progetti concreti al servizio dello sviluppo sostenibile in Africa”, ha aggiunto. L’accordo mira a strutturare l’adozione dell’intelligenza artificiale avviando, già dal 2026, quindici casi d’uso prioritari ad alto impatto e contribuendo all’obiettivo di creare un centinaio di canali di diffusione dell’Ia nei Paesi del Sud del mondo. Oltre al Polo Ia del Mimit, sono coinvolti anche la Fondazione EkStep / People+Ai per l’India e la Direzione dell’economia digitale e delle tecnologie emergenti del governo keniota. La collaborazione rafforzerà le infrastrutture, i modelli operativi e le competenze necessarie per accompagnare le soluzioni di Ia dalla fase pilota alla diffusione su larga scala. Particolare attenzione sarà dedicata allo sviluppo di soluzioni di Ia vocale nelle lingue africane, al fine di ampliare l’accesso ai servizi digitali e ridurre le barriere linguistiche. Sarà inoltre istituito un gruppo di lavoro trilaterale Italia-India-Kenya per orientare e monitorare i primi quindici casi d’uso, in coordinamento con le strategie nazionali. La lettera d’intenti, di natura non vincolante, conferma l’impegno comune per un dispiegamento dell’Ia inclusivo, trasparente e rispettoso della sovranità dei dati.

    Con questa firma, l’Italia rafforza il proprio ruolo di ponte tra gli ecosistemi dell’innovazione e di promotore di un approccio multilaterale orientato a un impatto concreto sullo sviluppo economico e sociale. “Si tratta della prima collaborazione trilaterale tra Europa, Africa e Asia nel campo dell’Ia”, ha commentato Urso a margine del vertice indiano. “Dobbiamo condividere linee guida per orientare lo sviluppo dell’intelligenza artificiale, pienamente consapevoli che nessuno deve essere lasciato indietro”, ha aggiunto, definendo l’accordo “un passo avanti significativo verso una maggiore consapevolezza in questo settore”. Per il ministro italiano “tutti, Nord e Sud (del mondo), devono beneficiare dell’intelligenza artificiale. L’Italia è pronta a collaborare con tutti”. Urso ha richiamato anche le parole della presidente del Consiglio Giorgia Meloni, che sostiene la necessità di meccanismi di governance globale “rispettosi delle diverse sensibilità e realtà”. Ha inoltre sottolineato l’impegno precoce dell’Italia nell’adozione dell’Ia, per allineare la propria azione alla normativa europea in materia, “alla cui elaborazione abbiamo contribuito”, fondata su una visione “che pone la persona al centro, con responsabilità e trasparenza”. “La nostra strategia”, ha ribadito il ministro, “si basa su un’infrastruttura di eccellenza: siamo il terzo Paese al mondo per supercalcolatori – dopo Stati Uniti e Cina, ndr. – forti di una solida tradizione universitaria nella meccanica quantistica”.

    Impegnata fin dagli anni Duemila nella realizzazione di una vasta infrastruttura digitale pubblica, con il Vertice sull’impatto dell’intelligenza artificiale Nuova Delhi ha inteso mettere al centro del dibattito la convergenza tra la rete informatica statale e l’impiego dell’Ia. In particolare, la combinazione di servizi di identità digitale, pagamenti interoperabili ed altri strumenti digitali di base viene proposta come la base per un’adozione più ampia e inclusiva dell’Ia, sia in India che in altri Paesi in via di sviluppo. Sul tema è stato esplicito il primo ministro indiano Narendra Modi: “Dobbiamo democratizzare l’Ia, farne uno strumento di inclusione ed empowerment, soprattutto nel Sud del mondo”, ha detto nel suo discorso inaugurale, sottolineando che se “alcuni Paesi considerano l’Ia un ‘asset strategico’ da sviluppare in modo riservato, l’India la pensa diversamente”: “riteniamo che una tecnologia come l’Ia sarà davvero benefica per il mondo solo se condivisa, con codici aperti e accessibili, affinché milioni di giovani menti possano migliorarla e renderla più sicura”. “Impegniamoci quindi a sviluppare l’Ia come un bene comune globale”, ha detto Modi, per il quale come “la decisione finale sulla direzione da prendere spetta a noi, così il futuro dipenderà dalla direzione che oggi daremo all’Ia”. Parole di elogio per l’infrastruttura pubblica digitale indiana sono state spese a Nuova Delhi anche dal presidente francese Emmanuel Macron, che l’ha definita “una conquista di civiltà”. L’India “ha costruito qualcosa che nessun altro Paese ha mai costruito: un’identità digitale per 1,4 miliardi di persone”, ha detto, citando una rete digitale indiana che va da un sistema di pagamenti in grado di elaborare 20 miliardi di transazioni al mese, a 500 milioni di Id sanitari digitali emessi, delineando quella che ha definito “un’Ia sovrana, aperta e interoperabile”.

    L’accordo di collaborazione firmato oggi a Nuova Delhi fra Italia, Kenya e India si inserisce nella continuità degli annunci fatti la scorsa settimana a Nairobi durante il Forum sull’intelligenza artificiale, al quale ha partecipato la ministra dell’Università e della ricerca, Anna Maria Bernini. In Kenya – nell’ambito dell’Ai Hub per lo sviluppo sostenibile lanciato a giugno scorso a Roma – l’Italia sta lavorando al lancio di un programma di accelerazione destinato alle start-up africane, sostenuto da un fondo di venture capital iniziale di 50 milioni di euro, promosso da Primo Capital e Harmonic Innovation Group. Il lancio è previsto nei prossimi due o tre mesi. L’iniziativa prevede inoltre la creazione del primo incubatore italiano in Africa, focalizzato su tecnologie climatiche, sistemi alimentari e infrastrutture pubbliche digitali, nonché l’attivazione di un corridoio dell’innovazione che collegherà l’Italia, Nairobi, l’India e San Francisco, con il supporto del Centro finanziario internazionale di Nairobi per la strutturazione degli investimenti. Per chiudere il cerchio a marzo si terrà a San Francisco il salone Ai for Future, un percorso di iniziative organizzato da We Make Future (Wmf) con il supporto di Ice – Agenzia per la promozione all’estero e l’internazionalizzazione delle imprese italiane che culminerà con un salone su innovazione digitale, intelligenza artificiale e robotica in programma a BolognaFiere dal 24 al 26 giugno.

  • I data center per l’intelligenza artificiale consumano sempre più territorio e acqua

    La costruzione di data center per l’intelligenza artificiale sta portando a un forte consumo di territorio, oltre che di risorse per fornire energia alla stessa intelligenza.

    Meta ha realizzato 24 di queste strutture solo negli Stati Uniti e ne ha in programma o in costruzione altrettanti. Ha anche tre centri in Europa (in Danimarca a Odense, in Irlanda a Clonee e in Svezia a Luleå) e uno in Asia, a Singapore. Confermando le voci sul primo centro da oltre un gigawatt — l’equivalente dell’energia consumata da un milione di case — a luglio scorso Mark Zuckerberg ha presentato Hyperion, il primo di tanti conglomerati che sarà grande quanto «la maggior parte dell’area di Manhattan». E che un giorno potrebbe arrivare anche a cinque gigawatt di potenza di calcolo.
    A Cheyenne, la capitale dello stato del Wyoming, opera dal 2012 un data. Il Wyoming è un luogo strategico per le Big Tech: tenendo in considerazione solo i combustibili fossili, produce circa dodici volte più energia di quanta ne consuma e, secondo i dati del Dipartimento dell’energia, esporta quasi i tre quinti di quella che produce.

    I data center consumano inoltre enormi quantità d’acqua per raffreddare le proprie apparecchiature e anche se l’acqua viene poi rilasciata una parte di essa evapora nell’aria nel processo di raffreddamento. L’Environmental and Energy Study Institute stima che il consumo idrico possa già ammontare a venti milioni di litri al giorno, l’equivalente di quanto viene usato da una città popolata da decine di migliaia di persone, ma non esistono dati esatti perché le aziende della tecnologia non sono obbligate a divulgare questi dati. Si sa però, lo ha attestato Mike Hopkins, direttore esecutivo della Newton County Water and Sewerage Authority, l’ente che gestisce le risorse idriche locali, che nella contea di Newton in Georgia, il data center Stanton Springs consuma circa il 10% del fabbisogno idrico giornaliero totale della contea.  In Virginia, dove si trova la più grande concentrazione di data center al mondo, con strutture anche di Amazon, Google e Microsoft: negli ultimi 4 anni il consumo d’acqua è aumentato del 63,7%.

    L’amministrazione Trump a fine luglio scorso ha emanato un ordine esecutivo (ciò che consente alla Casa Bianca di bypassare il Congresso) per accelerare il rilascio di autorizzazioni per la costruzione di data center ad alto consumo energetico. E nell’ultimo anno, come è stato rivelato nel rapporto sui risultati del secondo trimestre, Microsoft ha speso 88 miliardi di dollari per costruirne di nuove. Google, invece, ha annunciato l’intenzione di investire 25 miliardi per realizzare nuove infrastrutture. E, mentre l’azienda di Elon Musk xAI sta guardando all’Arabia Saudita per costruire un data center che superi il traguardo di almeno un gigawatt di potenza di calcolo, OpenAI ha annunciato una partnership con Oracle per realizzarne una da 4,5 GW. Un piano che si inserisce nel contesto del progetto governativo Stargate, presentato da Donald Trump all’indomani del suo insediamento a gennaio 2025.

    Il Financial Times riferisce intanto che l’Unione europea intensificherà nel 2026 l’applicazione delle norme sui mercati e i servizi digitali (Dma e Dsa) contro i colossi statunitensi della tecnologia, tra cui Google, Meta, Apple e la piattaforma X di Elon Musk. Il nuovo approccio, definito “misurato ma risoluto”, ha già portato a multe – come quella da 120 milioni di euro inflitta a dicembre a X per violazione delle regole sulla trasparenza – e modifiche dei modelli di business da parte di Apple e Meta. Parallelamente, sono state avviate nuove indagini su possibili pratiche anticoncorrenziali, come l’accesso di fornitori rivali di intelligenza artificiale a WhatsApp, l’uso di contenuti online da parte di Google per l’addestramento di modelli IA, e la concorrenza nel settore del cloud. Secondo Damien Geradin, avvocato esperto di antitrust interpellato dal quotidiano britannico, “l’applicazione delle normative è diventata più difficile a causa della linea aggressiva adottata da Washington”. Apple ha chiesto l’abolizione del Dma, Meta accusa Bruxelles di penalizzare le aziende statunitensi, mentre Google parla di “rischio di soffocare l’innovazione”. Nonostante queste pressioni, i parlamentari europei spingono per un’azione più incisiva, in particolare su contenuti illegali, interferenze elettorali legate a TikTok e concorrenza nell’intelligenza artificiale. “Stiamo affrontando un attacco alla nostra democrazia da parte degli oligarchi tecnologici”, ha avvertito l’eurodeputata Alexandra Geese.

  • La Commissione avvia un’indagine su una possibile condotta anticoncorrenziale da parte di Google nell’utilizzo di contenuti online per scopi di intelligenza artificiale

    La Commissione europea ha avviato un’indagine antitrust formale per valutare se Google abbia violato le norme UE sulla concorrenza utilizzando i contenuti degli editori web, nonché i contenuti caricati sulla piattaforma di condivisione video online YouTube, per scopi di intelligenza artificiale (“IA”). L’indagine esaminerà in particolare se Google stia distorcendo la concorrenza imponendo termini e condizioni iniqui a editori e creatori di contenuti, o concedendosi un accesso privilegiato a tali contenuti, svantaggiando così gli sviluppatori di modelli di IA concorrenti.

    La Commissione teme che Google possa aver utilizzato i contenuti degli editori web per fornire servizi basati sull’IA generativa sulle sue pagine dei risultati di ricerca senza un adeguato compenso per gli editori e senza offrire loro la possibilità di rifiutare tale utilizzo dei loro contenuti. Le Panoramiche AI ​​mostrano riepiloghi generati dall’IA in risposta alla query di ricerca di un utente sopra i risultati organici, mentre la Modalità AI è una scheda di ricerca simile a un chatbot che risponde alle query degli utenti in stile conversazionale. La stessa preoccupazione è estesa anche ai video e altri contenuti caricati su YouTube. Google non remunera i creatori di contenuti YouTube per i loro contenuti, né consente loro di caricare i loro contenuti su YouTube senza consentire a Google di utilizzare tali dati. Allo stesso tempo, le politiche di YouTube impediscono agli sviluppatori concorrenti di modelli di intelligenza artificiale di utilizzare i contenuti di YouTube per addestrare i propri modelli di intelligenza artificiale.

    Se dimostrate, le pratiche oggetto di indagine potrebbero violare le norme dell’UE sulla concorrenza che vietano l’abuso di posizione dominante (articolo 102 del Trattato sul funzionamento dell’Unione europea e l’articolo 54 dell’Accordo sullo Spazio economico europeo.

  • Nuove leve ancora impreparate, ma capiscono che l’intelligenza artificiale aiuterà a rendere il lavoro più produttivo

    Il 70 % dei lavoratori della GenZ, i cosiddetti nativi digitali cresciuti completamente in un mondo tecnologico e sempre connessi a Internet, è convinta che l’intelligenza artificiale rivoluzionerà il mondo del lavoro entro un anno. Secondo Deloitte Gen Z & Millennial Survey 2025, però, la maggior parte dei manager ammette di non avere ancora gli strumenti per affrontare questa trasformazione. Per il 65% la cultura aziendale italiana è “in evoluzione ma con molta strada da fare”, mentre il 62% considera l’IA un potenziatore umano. Ad attestarlo, l’instant survey elaborata da HReboot, un format/evento italiano dedicato al futuro del lavoro e al dialogo intergenerazionale tra manager, giovani talenti, imprenditori, creator, atleti e rappresentanti delle istituzioni. Non è un semplice convegno, ma un “Real Talk”, momenti di confronto autentico e diretto, pensato per creare spazi di ascolto, contaminazione e costruzione di una nuova cultura del lavoro, dove si uniscono competenze umane e tecnologiche.

    Il 65% dei partecipanti a Hreboot ha definito la cultura aziendale italiana “in evoluzione ma con molta strada da fare”, mentre nessuno l’ha percepita come già orientata alle persone. Un segnale chiaro: la spinta verso un modello più umano è partita, ma non ha ancora radici profonde. Nel Deloitte Gen Z Global 2024 la seconda parola più citata accanto a “carriera” è “varietà”. I lavoratori appartenenti alla Generazione Zeta, non vogliono scalare: vogliono attraversare funzioni e problemi. La retention si gioca sul senso, non sulla scala. La Gen Z, protagonista del cambiamento, non cerca benefit o gerarchie, ma fiducia, crescita e senso. Per oltre la metà dei rispondenti (54%) la chiave per attrarre e trattenere talenti è offrire percorsi di sviluppo personalizzati, mentre il 42% individua nei leader autentici, capaci di ascoltare e ispirare, la leva decisiva per far evolvere le organizzazioni.

    “Il vero problema non è il divario generazionale, ma quello culturale” ha commentato Giacomo Marchiori, founder di Talentware e tra gli organizzatori dell’evento Hreboot. “In un mondo che cambia più in fretta dei job title, l’adattabilità è la vera competenza del futuro. Non basta imparare nuovi strumenti: serve imparare a reimparare, ogni giorno. Questo è il punto: l’evoluzione delle competenze tecniche ha senso solo se procede insieme a una evoluzione culturale. E vale anche per il dibattito hard vs soft skills: pensiero critico, ascolto, capacità di attraversare l’incertezza sono fondamentali, certo. Ma avete mai visto un’azienda manifatturiera, o moda, o IT prosperare senza competenze tecniche all’avanguardia? È la somma che crea valore: cultura che cambia + nuove skill che entrano nel sistema. Le aziende che sapranno coltivare questa mentalità evolutiva diventeranno organismi vivi, capaci di crescere insieme alle persone, non sopra di loro”

    Secondo l’European Skills Index 2024 l’Italia è 24sima in Europa per “skills matching”: le competenze non mancano, ma non sono nel posto giusto. È un problema organizzativo e culturale, prima che di pipeline.

    Uno dei dati più sorprendenti dell’indagine di Hreboot riguarda proprio l’intelligenza artificiale: il 62% dei partecipanti la considera un potenziatore delle competenze umane, non un rischio per l’occupazione.
    Un risultato che ribalta molti luoghi comuni e dimostra come la tecnologia, se gestita con consapevolezza, possa diventare terreno d’incontro tra generazioni, non di scontro.

    “Il futuro del lavoro non è una sfida tra umanità e tecnologia, ma un dialogo tra le due. HReboot non è un evento, ma, anzi un format che è piaciuto molto è che si deve replicare. Nasce dalla convinzione che oggi, in un’epoca in cui il lavoro è attraversato da trasformazioni profonde legate alla tecnologia e all’intelligenza artificiale, serva ripartire dal dialogo vero: non dai grandi palchi monodirezionali o dai social, ma da confronti reali tra persone, generazioni e competenze diverse. HReboot rimette al centro le persone, manager e giovani che si ascoltano, si contaminano e costruiscono insieme una nuova cultura del cambiamento, fondata su fiducia, autenticità e curiosità reciproca. Perché solo così la tecnologia, e l’intelligenza artificiale in particolare, possono diventare un potenziatore dell’intelligenza umana ed emotiva, e non il loro sostituto. HReboot nasce proprio per questo: creare spazi di confronto autentico dove manager e Gen Z possano incontrarsi e dare vita, insieme, a un nuovo linguaggio del lavoro, più umano e consapevole.” — ha spiegato Alessandro Castelli.

  • Oltre metà degli italiani rischia seriamente di cascare in una truffa online

    Il fenomeno delle frodi digitali è ormai in crescita da molti anni su scala globale. Infatti, il 2025 ha visto un salto di quantità e di qualità delle tipologie di truffe ai danni delle famiglie e delle imprese che, anche grazie all’utilizzo dell’Intelligenza Artificiale – come deepfake vocali e chatbot ingannevoli – diventano sempre più iperrealistiche e difficili da rilevare. Questi reati rappresentano ormai una minaccia capace di erodere la fiducia nel settore dei servizi finanziari, poiché i truffatori sfruttano la vulnerabilità del consumatore attraverso azioni sempre più complesse – come il phishing, il vishing e il social engineering – colpendo le persone con tecniche sempre più evolute.

    Per comprendere meglio il rischio di esposizione delle persone a questi fenomeni criminali, CRIF, SDA Bocconi e Assofin hanno intrapreso uno studio sviluppato attorno all’Indicatore di Protezione dalle Frodi (IPF), uno strumento che aiuta a misurare quanto i consumatori siano preparati e “resilienti” di fronte ai tentativi di truffa online.  I risultati della ricerca, presentati in occasione dell’evento Tomorrow Speaks 2025 di CRIF, hanno evidenziato come oltre un quarto degli intervistati (27%) abbia dichiarato di aver già subito frodi digitali, come ad esempio il furto di dati, credenziali bancarie, segno evidente di una diffusa esposizione al rischio.

    Parallelamente, il 54% del campione ha presentato una protezione parziale o fragile, insufficiente a garantire una difesa adeguata. In altri termini, oltre la metà degli utenti si trova attualmente in condizioni di rischio con lacune specifiche in alcuni comportamenti che lasciano ampie vulnerabilità sfruttabili da minacce sofisticate, generate sempre più spesso dall’utilizzo fraudolento dell’intelligenza artificiale (es. social engineering o frodi AI-driven).

    Più della metà delle persone, quindi, si trova in una condizione di potenziale rischio, ma che può essere migliorata. Infatti, chi ha subito un primo tentativo di frode tende a rientrare più spesso nella fascia intermedia di rischio, mentre i livelli più alti di resilienza si osservano tra chi ha un’istruzione più elevata o un reddito maggiore.

    Da quest’ultimo dato si evince come la resilienza antifrode è il risultato dell’incontro tra tecnologia, conoscenza e responsabilità personale: dove le persone più consapevoli, cioè quelle che imparano a riconoscere i segnali di rischio e a gestire con prudenza i propri strumenti digitali, sono anche quelle più difficili da colpire.

    Più le persone sono consapevoli e formate sul piano finanziario, più adottano comportamenti cauti e responsabili, non solo dal punto di vista tecnico, ma anche psicologico e con attenzione ai presidi normativi. L’educazione finanziaria si comporta da vero “moltiplicatore di protezione” e risulta quindi un motore trasversale della resilienza antifrode.

    Gli istituti finanziari e di credito sono quindi chiamati a potenziare la capacità di difesa preventiva del sistema combinando soluzioni tecnologiche avanzate e sviluppo delle competenze umane. Infatti, se da un lato occorre investire in strumenti di analisi avanzata (Intelligenza Artificiale per rilevare anomalie, monitoraggio real-time delle transazioni, presidi biometrici e soluzioni di analisi comportamentale) capaci di identificare tempestivamente tentativi di frode sofisticati, dall’altro rimane fondamentale innalzare il livello di educazione finanziaria e digitale degli utenti attraverso programmi formativi diffusi, campagne informative e simulazioni di attacco che possono rendere i consumatori più consapevoli e preparati di fronte alle minacce.

    La posta in gioco è molto elevata, poiché è fondamentale proteggere utenti, imprese e operatori dai costi finanziari e reputazionali delle frodi, rafforzando al contempo la resilienza complessiva del sistema finanziario digitale in un momento storico in cui l’innovazione tecnologica procede a grandi passi ma anche nuove tecniche fraudolente vengono sviluppate in modo continuo.

  • La Commissione vara lo strumento di segnalazione (whistleblower tool) per il regolamento sull’IA

    La Commissione europea ha varato uno strumento di segnalazione (whistleblower tool) per il regolamento sull’intelligenza artificiale (IA). Lo strumento fornirà alle persone un canale sicuro e riservato per segnalare presunte violazioni del regolamento sull’IA direttamente all’ufficio dell’UE per l’IA, il centro di competenze in materia di IA della Commissione.

    Gli informatori possono fornire informazioni pertinenti in qualsiasi lingua ufficiale dell’UE e in qualsiasi formato pertinente. Lo strumento offre un modo sicuro per segnalare potenziali violazioni della legge che potrebbero pregiudicare i diritti fondamentali, la salute o la fiducia dei cittadini. Il massimo livello di riservatezza e protezione dei dati è garantito attraverso meccanismi di cifratura certificati. Tale sistema consente di dar seguito alle segnalazioni in maniera sicura, permettendo agli informatori di ricevere aggiornamenti sullo stato di avanzamento della loro segnalazione e sulla possibilità di rispondere a ulteriori domande dell’ufficio per l’IA, senza comprometterne l’anonimato.

    Il regolamento dell’UE sull’IA mira a promuovere l’innovazione e l’adozione dell’IA nell’UE, affrontando al tempo stesso i potenziali rischi per la salute, la sicurezza e i diritti fondamentali delle persone e salvaguardando la democrazia e lo Stato di diritto. Segnalando le informazioni sulle violazioni, gli informatori possono aiutare l’ufficio per l’IA a individuarle precocemente, contribuendo in tal modo allo sviluppo sicuro e trasparente delle tecnologie di IA.

  • L’intelligenza artificiale si nutre di schiavi umani

    In un articolo pubblicato già nel 2023 Chiara Zappa ha messo in luce la faccia oscura dell’intelligenza artificiale. Ecco cosa ha scritto.

    ‘Una recente inchiesta di Time ha rivelato che OpenAI ha sfruttato, per perfezionare il suo prodotto, la manodopera dei dipendenti di una società kenyana, pagati con stipendi da fame per sottoporsi a ore di lavoro psicologicamente usurante. L’acronimo “Gpt”, infatti, sta per “Generative pretrained transformer”, letteralmente “Trasformatore preaddestrato generativo”: in pratica, queste “menti digitali”, per funzionare, devono appunto essere prima addestrate, e per la precisione nutrite di enormi quantità di testi reperiti a caso nella grande rete di internet, vasto deposito di linguaggio umano. Ma poiché molti di questi contenuti sono “tossici” – ovvero violenti, razzisti e pieni di pregiudizi – dai primi test è emerso come l’intelligenza artificiale assorbisse questa tossicità e la riproponesse poi nei colloqui con gli utenti. Come ovviare all’inconveniente? Siccome anche un team di centinaia di umani avrebbe impiegato decenni per esaminare e “ripulire” manualmente tutti i set di dati da dare in pasto ai software, era necessario costruire un ulteriore sistema di intelligenza artificiale in grado di rilevare un linguaggio tossico, per esempio l’incitamento all’odio, per poi rimuoverlo dalle piattaforme. In pratica, bisognava alimentare un’AI con esempi etichettati di violenza, pregiudizi, abusi sessuali, per insegnarle a riconoscerli da sola e, una volta integrata nel chatbot, a filtrare le risposte all’utente, rendendole eticamente più ortodosse. Così – ha rivelato Time – dal novembre 2021 OpenAI ha inviato decine di migliaia di frammenti di testo, che per i suoi contenuti raccapriccianti «sembravano usciti dai recessi più oscuri di internet», a una società di outsourcing in Kenya, dove alcune decine di etichettatori di dati leggevano e catalogavano centinaia di brani, su turni di nove ore, per un compenso compreso tra circa 1,32 e 2 dollari all’ora. Alcuni di loro hanno dichiarato di essere rimasti mentalmente segnati dalla mansione, con traumi e visioni ricorrenti legate ai contenuti esaminati. Mesi dopo, queste criticità avrebbero portato alla chiusura anticipata dei rapporti tra OpenAI e Sama, l’azienda appaltatrice, che ha sede in California ma impiega lavoratori anche in Uganda e India per clienti della Silicon Valley come Google, Meta e Microsoft. Nel frattempo, però, nel febbraio dell’anno scorso Sama aveva fatto partire un altro progetto pilota per OpenAI: raccogliere immagini sessuali e violente, alcune delle quali illegali per la legge statunitense, da etichettare e consegnare al committente. D’altra parte – ha dichiarato poi un portavoce di OpenAI – questo è «un passo necessario» per rendere più sicuri i suoi strumenti di intelligenza artificiale (tra cui figurano appunto quelli per la generazione di immagini). Alla fine, la natura traumatica del lavoro ha spinto Sama a cancellare tutti i suoi contratti con il colosso di San Francisco otto mesi prima del previsto. Ma la vicenda ha rappresentato un campanello d’allarme sul rovescio della medaglia di una tecnologia all’apparenza sinonimo di progresso per tutti e che invece, in alcune aree del mondo, va a braccetto con le più reiterate forme di sfruttamento. «Nonostante il ruolo fondamentale svolto da questi professionisti dell’arricchimento dei dati, un numero crescente di ricerche rivela le precarie condizioni di lavoro che essi devono affrontare», ha ammesso la Partnership on AI, rete di organizzazioni che operano nel settore. A Nairobi, dove un altro recente scandalo ha rivelato il caso dei locali moderatori di contenuti per Facebook, pagati un dollaro e mezzo all’ora per visualizzare scene di esecuzioni, stupri e abusi, l’analista politica Nanjala Nyabola è stata ancora più diretta: «Dovrebbe essere ormai chiaro che il nostro attuale paradigma di digitalizzazione ha un problema di lavoro – ha dichiarato -. Stiamo passando dall’ideale di un internet costruito attorno a comunità di interessi condivisi, a uno dominato dalle prerogative commerciali di una manciata di aziende situate in specifiche aree geografiche». Per Nyabola, autrice tra l’altro del libro “Digital Democracy, Analogue Politics” (Zed Books), «una massa critica di manodopera sottopagata viene reclutata nelle condizioni legalmente più deboli per sostenere l’illusione di un internet migliore. Ma questo modello lascia miliardi di persone vulnerabili a una miriade di forme di sfruttamento sociale ed economico, il cui impatto non comprendiamo ancora appieno». Una studiosa che queste dinamiche le ha, invece, ben chiare già da un po’ è Timnit Gebru, ingegnera informatica che nel dicembre 2020 è stata al centro di un caso per la sua improvvisa uscita da Google a Mountain View, dove lavorava come co-responsabile del gruppo di studio sull’etica dell’intelligenza artificiale. Gebru, che due anni prima aveva anche collaborato a uno storico studio sui pregiudizi razziali e di genere nel software di riconoscimento facciale, aveva infatti stilato un documento che evidenziava rischi e pregiudizi nei modelli linguistici di grandi dimensioni. Di fronte al suo rifiuto di ritirare il testo prima della pubblicazione, Google la licenziò in tronco. Oggi, la tenace scienziata 39enne ha deciso di provare a cambiare il settore nel suo nuovo ruolo di fondatrice del Dair, Distributed Artificial Intelligence Research Institute, che opera con ricercatori esperti di AI in tutto il mondo. «Le mansioni di etichettatura dei dati vengono spesso svolte lontano dal quartier generale della Silicon Valley: dal Venezuela, dove i lavoratori visionano immagini per migliorare l’efficienza dei veicoli a guida autonoma, alla Bulgaria, dove i rifugiati siriani alimentano i sistemi di riconoscimento facciale con i selfie classificati in base a razza, sesso e categorie di età. Questi compiti sono spesso affidati a lavoratori precari in Paesi come l’India, il Kenya, le Filippine o il Messico», rivela Gebru in un recente saggio scritto per la rivista Noema insieme ad Adrienne Williams e Milagros Miceli, che ha operato a stretto contatto con gli annotatori di dati in Siria, Bulgaria e Argentina. «Le aziende tecnologiche – denunciano le tre ricercatrici – si assicurano di assumere soggetti provenienti da comunità povere e svantaggiate, come rifugiati, carcerati e altre persone con poche opzioni di lavoro, spesso assumendole tramite aziende terze». Per cambiare rotta è necessario finanziare la ricerca sull’AI «sia come causa sia come prodotto di condizioni di lavoro ingiuste». I guru della tecnologia, ma anche i media, hanno oggi la responsabilità di mettere in luce il lavoro sfruttato dietro l’illusione di macchine sempre più simili agli esseri umani. Perché «queste macchine sono costruite da eserciti di lavoratori sottopagati in tutto il mondo». Che hanno il diritto di essere tutelati’.

Pulsante per tornare all'inizio