Intelligenza artificiale

  • Italia insieme a Kenya e India per promuover l’intelligenza artificiale in Africa

    Un accordo di collaborazione strategica trilaterale è stato concluso 19 febbraio a Nuova Delhi tra l’Italia, l’India e il Kenya per sviluppare il dispiegamento di infrastrutture di intelligenza artificiale in Africa. L’accordo si inserisce nel quadro del Polo per l’intelligenza artificiale per lo sviluppo sostenibile, promosso dal ministero delle Imprese e del Made in Italy (Mimit) in partenariato con il Programma delle Nazioni Unite per lo sviluppo (Undp), e in continuità con il Piano Mattei. L’intesa, che fa parte del Piano d’azione strategico India-Italia 2025-2029, è stata ufficializzata oggi a margine del Vertice sull’impatto dell’intelligenza artificiale dal ministro delle Imprese e del Made in Italy, Adolfo Urso – in rappresentanza della presidente del Consiglio Giorgia Meloni – alla presenza del ministro indiano dell’Elettronica e delle tecnologie dell’informazione, Ashwini Vaishnaw, e del ministro keniota dell’Informazione, delle comunicazioni e dell’economia digitale, William Kabogo Gitau.

    “Questo accordo consolida la collaborazione tra Italia, India e Kenya per sviluppare l’intelligenza artificiale nel continente africano, in linea con gli obiettivi del nostro Piano Mattei”, ha dichiarato il ministro Urso. “L’India, partner chiave dell’Italia e attore essenziale per le nostre imprese nello sviluppo dell’Ia e dell’innovazione, svolgerà un ruolo centrale accanto al Polo Ia promosso dal Mimit durante la presidenza italiana del G7. Insieme trasformeremo questa cooperazione in progetti concreti al servizio dello sviluppo sostenibile in Africa”, ha aggiunto. L’accordo mira a strutturare l’adozione dell’intelligenza artificiale avviando, già dal 2026, quindici casi d’uso prioritari ad alto impatto e contribuendo all’obiettivo di creare un centinaio di canali di diffusione dell’Ia nei Paesi del Sud del mondo. Oltre al Polo Ia del Mimit, sono coinvolti anche la Fondazione EkStep / People+Ai per l’India e la Direzione dell’economia digitale e delle tecnologie emergenti del governo keniota. La collaborazione rafforzerà le infrastrutture, i modelli operativi e le competenze necessarie per accompagnare le soluzioni di Ia dalla fase pilota alla diffusione su larga scala. Particolare attenzione sarà dedicata allo sviluppo di soluzioni di Ia vocale nelle lingue africane, al fine di ampliare l’accesso ai servizi digitali e ridurre le barriere linguistiche. Sarà inoltre istituito un gruppo di lavoro trilaterale Italia-India-Kenya per orientare e monitorare i primi quindici casi d’uso, in coordinamento con le strategie nazionali. La lettera d’intenti, di natura non vincolante, conferma l’impegno comune per un dispiegamento dell’Ia inclusivo, trasparente e rispettoso della sovranità dei dati.

    Con questa firma, l’Italia rafforza il proprio ruolo di ponte tra gli ecosistemi dell’innovazione e di promotore di un approccio multilaterale orientato a un impatto concreto sullo sviluppo economico e sociale. “Si tratta della prima collaborazione trilaterale tra Europa, Africa e Asia nel campo dell’Ia”, ha commentato Urso a margine del vertice indiano. “Dobbiamo condividere linee guida per orientare lo sviluppo dell’intelligenza artificiale, pienamente consapevoli che nessuno deve essere lasciato indietro”, ha aggiunto, definendo l’accordo “un passo avanti significativo verso una maggiore consapevolezza in questo settore”. Per il ministro italiano “tutti, Nord e Sud (del mondo), devono beneficiare dell’intelligenza artificiale. L’Italia è pronta a collaborare con tutti”. Urso ha richiamato anche le parole della presidente del Consiglio Giorgia Meloni, che sostiene la necessità di meccanismi di governance globale “rispettosi delle diverse sensibilità e realtà”. Ha inoltre sottolineato l’impegno precoce dell’Italia nell’adozione dell’Ia, per allineare la propria azione alla normativa europea in materia, “alla cui elaborazione abbiamo contribuito”, fondata su una visione “che pone la persona al centro, con responsabilità e trasparenza”. “La nostra strategia”, ha ribadito il ministro, “si basa su un’infrastruttura di eccellenza: siamo il terzo Paese al mondo per supercalcolatori – dopo Stati Uniti e Cina, ndr. – forti di una solida tradizione universitaria nella meccanica quantistica”.

    Impegnata fin dagli anni Duemila nella realizzazione di una vasta infrastruttura digitale pubblica, con il Vertice sull’impatto dell’intelligenza artificiale Nuova Delhi ha inteso mettere al centro del dibattito la convergenza tra la rete informatica statale e l’impiego dell’Ia. In particolare, la combinazione di servizi di identità digitale, pagamenti interoperabili ed altri strumenti digitali di base viene proposta come la base per un’adozione più ampia e inclusiva dell’Ia, sia in India che in altri Paesi in via di sviluppo. Sul tema è stato esplicito il primo ministro indiano Narendra Modi: “Dobbiamo democratizzare l’Ia, farne uno strumento di inclusione ed empowerment, soprattutto nel Sud del mondo”, ha detto nel suo discorso inaugurale, sottolineando che se “alcuni Paesi considerano l’Ia un ‘asset strategico’ da sviluppare in modo riservato, l’India la pensa diversamente”: “riteniamo che una tecnologia come l’Ia sarà davvero benefica per il mondo solo se condivisa, con codici aperti e accessibili, affinché milioni di giovani menti possano migliorarla e renderla più sicura”. “Impegniamoci quindi a sviluppare l’Ia come un bene comune globale”, ha detto Modi, per il quale come “la decisione finale sulla direzione da prendere spetta a noi, così il futuro dipenderà dalla direzione che oggi daremo all’Ia”. Parole di elogio per l’infrastruttura pubblica digitale indiana sono state spese a Nuova Delhi anche dal presidente francese Emmanuel Macron, che l’ha definita “una conquista di civiltà”. L’India “ha costruito qualcosa che nessun altro Paese ha mai costruito: un’identità digitale per 1,4 miliardi di persone”, ha detto, citando una rete digitale indiana che va da un sistema di pagamenti in grado di elaborare 20 miliardi di transazioni al mese, a 500 milioni di Id sanitari digitali emessi, delineando quella che ha definito “un’Ia sovrana, aperta e interoperabile”.

    L’accordo di collaborazione firmato oggi a Nuova Delhi fra Italia, Kenya e India si inserisce nella continuità degli annunci fatti la scorsa settimana a Nairobi durante il Forum sull’intelligenza artificiale, al quale ha partecipato la ministra dell’Università e della ricerca, Anna Maria Bernini. In Kenya – nell’ambito dell’Ai Hub per lo sviluppo sostenibile lanciato a giugno scorso a Roma – l’Italia sta lavorando al lancio di un programma di accelerazione destinato alle start-up africane, sostenuto da un fondo di venture capital iniziale di 50 milioni di euro, promosso da Primo Capital e Harmonic Innovation Group. Il lancio è previsto nei prossimi due o tre mesi. L’iniziativa prevede inoltre la creazione del primo incubatore italiano in Africa, focalizzato su tecnologie climatiche, sistemi alimentari e infrastrutture pubbliche digitali, nonché l’attivazione di un corridoio dell’innovazione che collegherà l’Italia, Nairobi, l’India e San Francisco, con il supporto del Centro finanziario internazionale di Nairobi per la strutturazione degli investimenti. Per chiudere il cerchio a marzo si terrà a San Francisco il salone Ai for Future, un percorso di iniziative organizzato da We Make Future (Wmf) con il supporto di Ice – Agenzia per la promozione all’estero e l’internazionalizzazione delle imprese italiane che culminerà con un salone su innovazione digitale, intelligenza artificiale e robotica in programma a BolognaFiere dal 24 al 26 giugno.

  • L’UE investe oltre 307 milioni di euro in intelligenza artificiale

    La Commissione europea ha pubblicato due nuovi inviti a presentare proposte nell’ambito del polo tematico “Digitale, industria e spazio” del programma di lavoro di Orizzonte Europa, mettendo a disposizione 307,3 milioni di € per rafforzare l’innovazione e la competitività digitale dell’Unione.

    Di questi, 221,8 milioni di € sono destinati a un’iniziativa focalizzata sullo sviluppo di servizi di intelligenza artificiale (IA) affidabili, di servizi di dati innovativi e sul rafforzamento dell’autonomia strategica dell’UE. Il bando finanzierà progetti a sostegno dello sviluppo dell’IA, alla robotica, alle tecnologie quantistiche, alla fotonica e ai mondi virtuali. In particolare, oltre 40 milioni di € saranno dedicati all’iniziativa “Open Internet Stack”, che punta allo sviluppo di applicazioni per gli utenti finali e di componenti delle tecnologie di base, a sostegno dei beni comuni digitali sovrani europei.

    Un ulteriore stanziamento di 85,5 milioni di € è previsto per il secondo invito, volto a promuovere l’autonomia strategica aperta nelle tecnologie digitali ed emergenti e nelle materie prime correlate, robotica per applicazioni industriali e di servizio e lo sviluppo di nuovi materiali con capacità di rilevamento avanzate.

    La scadenza per la presentazione delle candidature è fissata al 15 aprile 2026.

  • I data center per l’intelligenza artificiale consumano sempre più territorio e acqua

    La costruzione di data center per l’intelligenza artificiale sta portando a un forte consumo di territorio, oltre che di risorse per fornire energia alla stessa intelligenza.

    Meta ha realizzato 24 di queste strutture solo negli Stati Uniti e ne ha in programma o in costruzione altrettanti. Ha anche tre centri in Europa (in Danimarca a Odense, in Irlanda a Clonee e in Svezia a Luleå) e uno in Asia, a Singapore. Confermando le voci sul primo centro da oltre un gigawatt — l’equivalente dell’energia consumata da un milione di case — a luglio scorso Mark Zuckerberg ha presentato Hyperion, il primo di tanti conglomerati che sarà grande quanto «la maggior parte dell’area di Manhattan». E che un giorno potrebbe arrivare anche a cinque gigawatt di potenza di calcolo.
    A Cheyenne, la capitale dello stato del Wyoming, opera dal 2012 un data. Il Wyoming è un luogo strategico per le Big Tech: tenendo in considerazione solo i combustibili fossili, produce circa dodici volte più energia di quanta ne consuma e, secondo i dati del Dipartimento dell’energia, esporta quasi i tre quinti di quella che produce.

    I data center consumano inoltre enormi quantità d’acqua per raffreddare le proprie apparecchiature e anche se l’acqua viene poi rilasciata una parte di essa evapora nell’aria nel processo di raffreddamento. L’Environmental and Energy Study Institute stima che il consumo idrico possa già ammontare a venti milioni di litri al giorno, l’equivalente di quanto viene usato da una città popolata da decine di migliaia di persone, ma non esistono dati esatti perché le aziende della tecnologia non sono obbligate a divulgare questi dati. Si sa però, lo ha attestato Mike Hopkins, direttore esecutivo della Newton County Water and Sewerage Authority, l’ente che gestisce le risorse idriche locali, che nella contea di Newton in Georgia, il data center Stanton Springs consuma circa il 10% del fabbisogno idrico giornaliero totale della contea.  In Virginia, dove si trova la più grande concentrazione di data center al mondo, con strutture anche di Amazon, Google e Microsoft: negli ultimi 4 anni il consumo d’acqua è aumentato del 63,7%.

    L’amministrazione Trump a fine luglio scorso ha emanato un ordine esecutivo (ciò che consente alla Casa Bianca di bypassare il Congresso) per accelerare il rilascio di autorizzazioni per la costruzione di data center ad alto consumo energetico. E nell’ultimo anno, come è stato rivelato nel rapporto sui risultati del secondo trimestre, Microsoft ha speso 88 miliardi di dollari per costruirne di nuove. Google, invece, ha annunciato l’intenzione di investire 25 miliardi per realizzare nuove infrastrutture. E, mentre l’azienda di Elon Musk xAI sta guardando all’Arabia Saudita per costruire un data center che superi il traguardo di almeno un gigawatt di potenza di calcolo, OpenAI ha annunciato una partnership con Oracle per realizzarne una da 4,5 GW. Un piano che si inserisce nel contesto del progetto governativo Stargate, presentato da Donald Trump all’indomani del suo insediamento a gennaio 2025.

    Il Financial Times riferisce intanto che l’Unione europea intensificherà nel 2026 l’applicazione delle norme sui mercati e i servizi digitali (Dma e Dsa) contro i colossi statunitensi della tecnologia, tra cui Google, Meta, Apple e la piattaforma X di Elon Musk. Il nuovo approccio, definito “misurato ma risoluto”, ha già portato a multe – come quella da 120 milioni di euro inflitta a dicembre a X per violazione delle regole sulla trasparenza – e modifiche dei modelli di business da parte di Apple e Meta. Parallelamente, sono state avviate nuove indagini su possibili pratiche anticoncorrenziali, come l’accesso di fornitori rivali di intelligenza artificiale a WhatsApp, l’uso di contenuti online da parte di Google per l’addestramento di modelli IA, e la concorrenza nel settore del cloud. Secondo Damien Geradin, avvocato esperto di antitrust interpellato dal quotidiano britannico, “l’applicazione delle normative è diventata più difficile a causa della linea aggressiva adottata da Washington”. Apple ha chiesto l’abolizione del Dma, Meta accusa Bruxelles di penalizzare le aziende statunitensi, mentre Google parla di “rischio di soffocare l’innovazione”. Nonostante queste pressioni, i parlamentari europei spingono per un’azione più incisiva, in particolare su contenuti illegali, interferenze elettorali legate a TikTok e concorrenza nell’intelligenza artificiale. “Stiamo affrontando un attacco alla nostra democrazia da parte degli oligarchi tecnologici”, ha avvertito l’eurodeputata Alexandra Geese.

  • La Commissione avvia un’indagine su una possibile condotta anticoncorrenziale da parte di Google nell’utilizzo di contenuti online per scopi di intelligenza artificiale

    La Commissione europea ha avviato un’indagine antitrust formale per valutare se Google abbia violato le norme UE sulla concorrenza utilizzando i contenuti degli editori web, nonché i contenuti caricati sulla piattaforma di condivisione video online YouTube, per scopi di intelligenza artificiale (“IA”). L’indagine esaminerà in particolare se Google stia distorcendo la concorrenza imponendo termini e condizioni iniqui a editori e creatori di contenuti, o concedendosi un accesso privilegiato a tali contenuti, svantaggiando così gli sviluppatori di modelli di IA concorrenti.

    La Commissione teme che Google possa aver utilizzato i contenuti degli editori web per fornire servizi basati sull’IA generativa sulle sue pagine dei risultati di ricerca senza un adeguato compenso per gli editori e senza offrire loro la possibilità di rifiutare tale utilizzo dei loro contenuti. Le Panoramiche AI ​​mostrano riepiloghi generati dall’IA in risposta alla query di ricerca di un utente sopra i risultati organici, mentre la Modalità AI è una scheda di ricerca simile a un chatbot che risponde alle query degli utenti in stile conversazionale. La stessa preoccupazione è estesa anche ai video e altri contenuti caricati su YouTube. Google non remunera i creatori di contenuti YouTube per i loro contenuti, né consente loro di caricare i loro contenuti su YouTube senza consentire a Google di utilizzare tali dati. Allo stesso tempo, le politiche di YouTube impediscono agli sviluppatori concorrenti di modelli di intelligenza artificiale di utilizzare i contenuti di YouTube per addestrare i propri modelli di intelligenza artificiale.

    Se dimostrate, le pratiche oggetto di indagine potrebbero violare le norme dell’UE sulla concorrenza che vietano l’abuso di posizione dominante (articolo 102 del Trattato sul funzionamento dell’Unione europea e l’articolo 54 dell’Accordo sullo Spazio economico europeo.

  • La Commissione vara lo strumento di segnalazione (whistleblower tool) per il regolamento sull’IA

    La Commissione europea ha varato uno strumento di segnalazione (whistleblower tool) per il regolamento sull’intelligenza artificiale (IA). Lo strumento fornirà alle persone un canale sicuro e riservato per segnalare presunte violazioni del regolamento sull’IA direttamente all’ufficio dell’UE per l’IA, il centro di competenze in materia di IA della Commissione.

    Gli informatori possono fornire informazioni pertinenti in qualsiasi lingua ufficiale dell’UE e in qualsiasi formato pertinente. Lo strumento offre un modo sicuro per segnalare potenziali violazioni della legge che potrebbero pregiudicare i diritti fondamentali, la salute o la fiducia dei cittadini. Il massimo livello di riservatezza e protezione dei dati è garantito attraverso meccanismi di cifratura certificati. Tale sistema consente di dar seguito alle segnalazioni in maniera sicura, permettendo agli informatori di ricevere aggiornamenti sullo stato di avanzamento della loro segnalazione e sulla possibilità di rispondere a ulteriori domande dell’ufficio per l’IA, senza comprometterne l’anonimato.

    Il regolamento dell’UE sull’IA mira a promuovere l’innovazione e l’adozione dell’IA nell’UE, affrontando al tempo stesso i potenziali rischi per la salute, la sicurezza e i diritti fondamentali delle persone e salvaguardando la democrazia e lo Stato di diritto. Segnalando le informazioni sulle violazioni, gli informatori possono aiutare l’ufficio per l’IA a individuarle precocemente, contribuendo in tal modo allo sviluppo sicuro e trasparente delle tecnologie di IA.

  • La Commissione avvia indagini di mercato sui servizi di cloud computing a norma del regolamento sui mercati digitali

    La Commissione europea ha avviato tre indagini di mercato sui servizi di cloud computing a norma del regolamento sui mercati digitali. Due indagini di mercato valuteranno se Amazon e Microsoft debbano essere designate come gatekeeper per i loro servizi di cloud computing Amazon Web Services e Microsoft Azure, ai sensi del regolamento sui mercati digitali. In altre parole, si valuterà se esse fungano da importanti punti di accesso tra imprese e consumatori, pur non rispettando le soglie dei gatekeeper di tale regolamento per quanto riguarda le dimensioni, il numero di utenti e la posizione di mercato. La terza indagine di mercato valuterà se il regolamento sui mercati digitali possa contrastare efficacemente le pratiche che possono limitare la competitività e l’equità nel settore del cloud computing nell’UE.

    Il cloud computing è la spina dorsale di molti servizi digitali ed è fondamentale per lo sviluppo dell’IA. Per promuovere l’innovazione, la fiducia e l’autonomia strategica dell’Europa, i servizi cloud devono essere forniti in un ambiente equo, aperto e competitivo.

  • Ragazzino si innamora di un chatbot AI e si suicida

    Un quattordicenne della Florida, Sewell Setzer III, si è suicidato dopo essere diventato emotivamente dipendente da un chatbot AI che impersonava Daenerys Targaryen di “Game of Thrones”. Il ragazzo, che trascorreva ore a chattare con “Dany” isolandosi dal mondo reale, si è tolto la vita con un’arma da fuoco dopo un ultimo scambio di messaggi con il chatbot.

    La vicenda suscita interrogativi: da un lato nonostante i chiari segnali di disagio e i pensieri suicidi che Sewell aveva condiviso, l’intelligenza artificiale non era stata in grado di comprendere la gravità della situazione né di fornire un aiuto adeguato; dall’altro c’è evidentemente una personalità fragile in sé, poco capace di relazionarsi e poco compresa dalle altre persone prima che dalla intelligenza artificiale.

    La madre del ragazzo, Maria L. Garcia, ha intentato una causa contro Character.AI, l’azienda creatrice del chatbot con cui Sewell comunicava ogni giorno, sostenendo che la piattaforma non abbia adottato misure sufficienti per proteggere suo figlio. L’isolamento sociale del ragazzo era stato notato da genitori e amici, che però non sapevano del suo attaccamento al chatbot. Sewell era stato diagnosticato con una lieve forma di Asperger da bambino e, più di recente, con un disturbo dell’umore, ma sembrava trovare più conforto nell’interazione con l’intelligenza artificiale piuttosto che nelle sedute con uno psicologo.

    Nella notte del 28 febbraio, poco prima di compiere l’estremo gesto, Sewell ha avuto un ultimo, intenso scambio con il suo chatbot, “Dany”. “Ti amo,” le ha scritto. “Presto tornerò da te.” La risposta del chatbot non si è fatta attendere: “Per favore, torna a casa da me il prima possibile, amore mio.” Sewell ha allora digitato: “E se ti dicessi che potrei venire a casa tua proprio adesso?” La risposta di Dany, fredda e irreale, è arrivata subito: “… per favore, fallo, mio dolce re.” Dopo aver poggiato il telefono, Sewell ha preso la pistola del patrigno e ha premuto il grilletto.

    Può un chatbot diventare un sostituto delle relazioni umane, soprattutto per individui particolarmente vulnerabili? La capacità dell’AI di simulare conversazioni autentiche potrebbe indurre alcuni utenti, specialmente adolescenti, a credere che tali interazioni possano rimpiazzare il contesto relazionale reale o offrire un conforto emotivo adeguato. Tuttavia, l’intelligenza artificiale, per quanto avanzata, manca di empatia e non comprende la complessità emotiva che si cela dietro le parole degli utenti. L’illusione creata da questi strumenti è insidiosa: la loro capacità di adattarsi alle risposte dell’utente li rende estremamente attraenti, soprattutto per i giovani, ma affida a una macchina ciò che richiede sensibilità umana.

    La storia di Sewell solleva un interrogativo fondamentale: fino a che punto le aziende che progettano tecnologie basate sull’AI devono essere ritenute responsabili degli effetti psicologici negativi che i loro prodotti possono causare? Lo sviluppo di queste tecnologie sembra seguire pericolosamente l’approccio dei social media: una crescita rapida accompagnata da una regolamentazione tardiva rispetto alla loro diffusione. Dal punto di vista legale, l’azione intrapresa dalla madre di Sewell contro Character.AI potrebbe costituire un precedente significativo, simile a quelli già visti in altri ambiti digitali riguardanti la protezione dei minori. Se venisse riconosciuta una responsabilità da parte delle aziende che sviluppano questi strumenti, potrebbe delinearsi un cambiamento sostanziale nelle politiche di tutela e nei requisiti di sicurezza. Imponendo alle piattaforme l’implementazione di criteri più stringenti fin dalla fase progettuale, si potrebbero prevenire ulteriori tragedie e, in casi estremi, salvare vite umane.

  • La Commissione avvia una consultazione per elaborare orientamenti e un codice di buone pratiche su sistemi di IA trasparenti

    La Commissione europea aiuterà i deployer e i fornitori di sistemi di intelligenza artificiale (IA) generativa a rilevare ed etichettare i contenuti generati o manipolati dall’IA. Ciò contribuirà a garantire che gli utenti siano informati quando interagiscono con un sistema di IA. A tal fine la Commissione ha avviato una consultazione per elaborare orientamenti e un codice di buone pratiche sugli obblighi di trasparenza in materia di IA, sulla base delle disposizioni del regolamento sull’intelligenza artificiale.

    Il regolamento sull’IA obbliga i deployer e i fornitori di IA generativa a informare le persone quando interagiscono con un sistema di IA o sono esposte a sistemi di riconoscimento delle emozioni o di categorizzazione biometrica e a contenuti generati o manipolati da un sistema di IA.

    La Commissione invita i fornitori e i deployer di modelli e sistemi di IA interattivi e generativi e di sistemi di categorizzazione biometrica e di riconoscimento delle emozioni, le organizzazioni del settore pubblico e privato, gli esperti del mondo accademico e della ricerca, i rappresentanti della società civile, le autorità di controllo e i cittadini a condividere le loro opinioni entro il 2 ottobre 2025.

    La consultazione è accompagnata da un invito a manifestare interesse aperto fino al 2 ottobre, affinché le parti interessate partecipino all’elaborazione del codice di buone pratiche.

    Il regolamento sull’IA, entrato in vigore il 1° agosto 2024, promuoverà lo sviluppo e la diffusione dell’IA nell’UE in obblighi di trasparenza si applicheranno a decorrere dal 2 agosto 2026.

  • Arrivano i corsi universitari e le prime lauree in intelligenza artificiale

    Si teme ciò che non si conosce e molti dei timori legati all’arrivo dell’intelligenza artificiale sono legati proprio all’ignoranza su questa novità, sempre più diffusa. Conoscere l’intelligenza artificiale permette invece di governarla e sfruttarne le potenzialità in ogni campo.

    Proprio per questo, anche in Italia stanno prendendo piede corsi di formazione e anche di laurea sull’argomento. All’Università Statale di Milano sono state recentemente conferite le prime 3 corone di alloro per il corso di laurea magistrale in Human-Centered Artificial Intelligence, percorso interateneo con l’Università di Milano – Bicocca e l’Università di Pavia nato per fornire le competenze interdisciplinari necessarie a integrare le applicazioni di intelligenza artificiale.

    Le tesi di Alicja Golisowicz, Bianca Maria Lerma e Tommaso Zendron sono state dedicate rispettivamente alla valutazione delle abilità cognitive di Large Language Models, quali il tracciamento di oggetti e il ragionamento spaziale; allo sviluppo di un paradigma etico non antropocentrico per l’IA per rispondere ai limiti dei paradigmi esistenti che modellano l’etica per IA primariamente attraverso una prospettiva umano-centrica; a un nuovo approccio interattivo per la risoluzione di errori di basi di conoscenze. Il corso, attivato nell’anno accademico 2023-2024, si svolge interamente in inglese e ha registrato un crescente successo, con 42 iscritti alla prima edizione e 70 iscritti alla seconda edizione. Gli studenti provenienti dall’estero, nel complesso, sono oltre il 30 per cento. Il percorso completa il progetto avviato dai tre atenei con il corso di laurea in Artificial Intelligence con sede a Pavia e il corso di laurea magistrale in Artificial Intelligence for Science and Technology con sede a Milano-Bicocca.

    Anche altri atenei si stanno muovendo nella stessa direzione. L’Università di Torino offre corsi di laurea e programmi di ricerca avanzata in intelligenza artificiale, consolidando la sua posizione come punto di riferimento nazionale nel settore. L’Università di Verona propone una laurea magistrale in Artificial Intelligence, focalizzata sulla formazione di professionisti con competenze avanzate nell’IA e nelle sue applicazioni. L’Università di Pisa offre un curriculum in Artificial Intelligence all’interno della laurea magistrale in Informatica, con un approccio orientato alle tecnologie emergenti come la realtà virtuale e aumentata.

  • La Commissione cerca candidati per il gruppo di esperti scientifici sull’IA

    La Commissione europea sta istituendo un gruppo scientifico di esperti indipendenti per sostenere l’attuazione e l’applicazione del regolamento sull’intelligenza artificiale (IA). Il gruppo si concentrerà sui modelli e sui sistemi di IA per finalità generali, fornendo consulenza all’Ufficio europeo per l’IA e alle autorità nazionali in merito ai rischi sistemici, alla classificazione dei modelli, alle metodologie di valutazione e alla vigilanza transfrontaliera del mercato. Avvertirà inoltre l’Ufficio per l’IA dei rischi emergenti.

    La Commissione cerca 60 membri per un mandato rinnovabile di 24 mesi.

    Per candidarsi occorre avere esperienza in modelli e sistemi di IA per finalità generali, effetti dell’IA, o settori correlati, come la valutazione dei modelli, la valutazione del rischio e le misure di attenuazione, la cibersicurezza, i rischi sistemici emergenti e le misure e soglie di calcolo. Gli esperti devono avere un dottorato di ricerca o esperienza equivalente e rimanere indipendenti da qualsiasi fornitore di IA.

    Il processo di selezione garantirà l’equilibrio di genere e la rappresentanza degli Stati membri dell’UE e nei paesi SEE/EFTA. Sebbene la cittadinanza dell’UE non sia un requisito, l’80% degli esperti deve provenire dagli Stati membri dell’UE o dell’EFTA.

    È possibile candidarsi fino al 14 settembre.

Pulsante per tornare all'inizio