Primo incontro Partner Strategici 2025

 

Pollenzo, 28 febbraio 2025


Oggi si è svolto il primo incontro annuale dei Partner Strategici dell’Università di Scienze Gastronomiche di Pollenzo, un importante momento dedicato a rafforzare la relazione tra l’UNISG e il suo network e fornire nuovi spunti di riflessione sul futuro.

La novità di quest’anno è stata rappresentata da una stimolante tavola rotonda voluta e promossa dal Rettore Nicola Perullo, dedicata ad uno dei temi più attuali e per un certo verso controversi dei nostri tempi, dal titolo “Intelligenze artificiali e futuro dell’umanità”.

 

La giornata si è aperta con il saluto di Silvio Barbero, componente del Consiglio di Amministrazione UNISG e di Oscar Farinetti, Presidente dell’Associazione Amici dell’UNISG.

Barbero ha ricordato a tutti i presenti due date importanti per il 2025: quella del 22 maggio in occasione della Giornata mondiale della Biodiversità, in cui verrà organizzata la prima edizione del Forum dedicato alla biodiversità, che renderà Pollenzo una piattaforma internazionale di pensiero, riflessione e di scambio di buone pratiche in questo ambito, e quindi  il 26 giugno, quando si terrà l’11ᵅ  edizione del Food Industry Monitor.

Quindi ha dato il benvenuto al un nuovo Partner Strategico, l’azienda Ponti, il cui presidente Giacomo Ponti è intervenuto brevemente presentandone l’attività e rimarcando positivamente la collaborazione con l’Università di Pollenzo, soprattutto sulla parte di ricerca e sviluppo dei prodotti e sull’ispirazione che l’ateneo, con la sua dimensione internazionale e interdisciplinare, può apportare all’azienda.

Introducendo il tema della Tavola Rotonda, e in riferimento a The New Gastronome, magazine UNISG il cui numero speciale realizzato in modo sperimentale utilizzando l’intelligenza artificiale è stato distribuito a tutti gli intervenuti, Barbero ha dato la parola a Aaron Gomez Figueroa, responsabile dell’ufficio Marketing & Comunicazione dell’ateneo.

“Questo numero è stato realizzato nel 2023 con un intento di sperimentazione. Tutti i contenuti sono totalmente fatti dall’intelligenza artificiale: siamo contenti di aver fatto questo esperimento e lo abbiamo prodotto in un tempo record. Questo numero resterà unico nel suo genere perché  per noi è molto importante collaborare con la nostra rete di studenti ed ex studenti”.

Successivamente, prima dell’inizio della tavola rotonda, ha preso la parola il Rettore Nicola Perullo, per un intervento istituzionale e introduttivo.

“Era necessario, anche a Pollenzo, entrare nel merito di questo grande dibattito sull’intelligenza artificiale. L’intelligenza artificiale è emersa come una tecnologia dalle potenzialità ovviamente pervasive che ridefinisce processi, mercati, società, relazioni. Vi è uno scenario globale in cui grandi potenze come gli Stati Uniti e la Cina accelerano su questi investimenti e c’è l’Europa che si interroga sul suo ruolo all’interno di tutto questo sviluppo economico. Si tratta di un dibattito che non tocca solo questioni di regolamento e di competitività, ma implica fortemente anche l’ambito dell’educazione, della cultura, delle competenze, della sostenibilità e dell’inclusione. Tutto questo quindi ha a che fare con l’importanza che può avere per il tessuto economico e produttivo. Così come l’ambito sanitario è uno dei settori in cui l’intelligenza artificiale è fortemente presente e viene considerata molto utile. Ecco perché oggi a Pollenzo abbiamo voluto portare vari punti di vista, che ci possono aiutare a stimolare un dibattito più approfondito. Avremo il punto di vista della storia della filosofia, della riflessione del diritto, della regolamentazione dell’etica e dell’imprenditoria.

Si dice che l’intelligenza artificiale è una rivoluzione, si dice che niente sarà più come prima. Siamo proprio sicuri che sia proprio così? Ci può aiutare a studiare la storia degli ultimi secoli, per interpretare quello che sta avvenendo oggi in un modo diverso. Noi oggi abbiamo una situazione dove quello che è stato viene chiamato eterno presente, tempo accelerato, dove le cose succedono e sembrano sempre delle grandi novità. Poi però sul tempo lungo vengono ridefinite e ridiscusse. Tutti ricordiamo come negli anni ‘60 e ‘70 si parlava di viaggi spaziali e di come avremmo viaggiato su altri pianeti. Ci dicevano negli anni ‘60 e ‘70 avremmo mangiato pillole al posto del cibo. Ma oggi la stragrande maggioranza dell’umanità non mangia pillole, così come non va su Marte. Con un’analisi più lucida e più complessiva spero che tutto questo venga fuori da questi interventi e dal dibattito”.

Alice Tondella, membro del Consiglio di Amministrazione UNISG ha quindi introdotto e presentato, volta per volta, i vari relatori della Tavola Rotonda.

Il panel era composto dal rettore, seguito da Don Andrea Ciucci, della Pontificia Accademia per la Vita, Ash Fontana, scrittore, investitore e imprenditore, Lorenzo Bairati, dell’Università di Pollenzo, Matteo Pasquinelli, dell’Università Ca’ Foscari Venezia.

 

Gli interventi della tavola Rotonda


Nicola Perullo (Rettore Università di Pollenzo)Intelligenza Artigianale: per un pensiero qualitativo 

“Se noi cambiamo il sostantivo da intelligenza a intellettuale cominciamo a fare un esperimento mentale  perché si potrebbe dire che ci sarà una differenza tra una persona artificiale e un intellettuale di un altro tipo.

Il filosofo Floridi definisce l’intelligenza artificiale come una delle più grandi rivoluzioni per l’umanità. Secondo lui, il tema delle macchine che sostituiscono l’umano è una questione molto più antica di quanto pensiamo, come spiegherà anche il professor Pasquinelli, esperto di storia sociale dell’IA. L’idea di una “rivoluzione” che ci porterà a non essere più umani, attraverso concetti come il post-umano e il transumanesimo, è un tema centrale, legato a come l’intelligenza artificiale potrebbe trasformare radicalmente la nostra esistenza.

Qualche mese fa sono stato a Praga a un workshop su come l’intelligenza artificiale stia sostituendo il lavoro umano in cucina con robot cuochi sempre più sofisticati. Ho chiesto dove venivano venduti questi robot e mi è stato risposto che l’80% delle vendite avviene nella Silicon Valley, mentre il 20% in Nord Europa (Germania e paesi nordici). Sebbene il fenomeno non sia ancora globale, l’idea di fondo è che i robot in cucina, più veloci e facili da usare, potrebbero un giorno sostituire i cuochi umani.

Già da questo esempio, abbastanza semplice, emerge che i robot potrebbero sostituire alcuni lavori umani, permettendo alle persone di dedicarsi ad altro. Ma cosa farebbero le persone se non cucinassero? Abbiamo parlato spesso di questo tema: non cucinare dovrebbe essere visto come un valore, non in sé, ma come un valore legato alla relazione con il cibo e alle materie prime.

L’idea di creare una macchina che sostituisce queste attività porta con sé una serie di implicazioni e conseguenze. Non è detto che queste macchine siano utili allo stesso modo in cui l’intelligenza artificiale può essere utile in altri ambiti, come nella diagnostica medica, come accennato all’inizio. La stessa logica può essere applicata al cucinare, camminare o scrivere, ma il passaggio da un uso limitato a uno generalizzato non è sempre positivo. Questa strategia di marketing cerca di farci credere che le macchine possano sostituire qualsiasi attività, ma non è scontato che sia vantaggioso.

Ad esempio, mi è stato raccontato che in un bar a Praga un robot preparava cocktail. Inizialmente suscitava molta curiosità, ma dopo qualche mese la gente ha smesso di andarci. Il vantaggio del robot era che era veloce e non richiedeva interazioni con le persone. Ma io mi chiedo: se si va in un bar, non è proprio per interagire con gli altri? Forse è utile in alcune situazioni, come quando si ha bisogno di un caffè veloce in autostrada, ma portare questo modello in altri contesti non ha molto senso.

L’intelligenza artificiale potrebbe farci diventare simili a macchine, in cui non facciamo più nulla e dipendiamo completamente dal robot. Tuttavia, c’è una differenza fondamentale tra le macchine, che non hanno corpo biologico, emozioni o relazioni, e gli esseri umani, che vivono in una rete affettiva. Le macchine, per quanto potenti e veloci, non possono avere relazioni come gli esseri umani. Anche se alcuni sperano che in futuro le macchine possano sviluppare queste capacità, al momento non è così. Un computer di oggi, pur essendo molto più performante, non è più “intelligente” di uno di cinquant’anni fa, perché non ha maggiore capacità relazionale.

L’intelligenza artificiale imita solo una parte dell’intelligenza umana, quella computazionale e algoritmica, ma non ha la capacità di creare relazioni umane, che sono basate sulla socialità e l’affetto. Le macchine imitano ciò che gli esseri umani hanno sviluppato in passato, in particolare la parte meccanica e algoritmica del lavoro, ma questo non significa che abbiano la stessa mente o le stesse capacità relazionali. L’intelligenza umana è tecnologica, evolutasi con l’uso di strumenti. Gli esseri umani sono animali tecnologici che usano più tecnologia di tutti gli altri animali, ma mantenendo la socialità.

L’intelligenza dovrebbe essere vista come una co-evoluzione tra il modello artigianale della mente, che implica creatività, visione complessiva e capacità di affrontare l’imprevisto, e il modello industriale, che è più frammentato, algoritmico e specializzato. Per evitare che l’intelligenza artificiale diventi pericolosa, è necessario mantenere un equilibrio tra questi due modelli: uno non può esistere senza l’altro. La sfida odierna è ribilanciare questi due aspetti, integrando la parte computazionale e quella analogica, in modo che possano coesistere e arricchirsi reciprocamente, con un’attenzione particolare all’educazione e alla cultura.


Don Andrea Ciucci (Pontificia Accademia per la Vita) – Uno stupore non ingenuo 

Parlando di Ai è emersa con forza la parola etica. Oggi infatti abbiamo bisogno di paletti per non uscire fuori strada. E quandanche si riconosce la bontà di alcuni risultati di questa tecnologia, emerge il tema dei rischi. Io credo che i paletti senza una strada siano assolutamente inutili perchè la vera domanda che ci è posta è invece che strada vogliamo prendere?

Occorre porsi nuovamente la domanda sul futuro che vogliamo. E in questo senso mi piace collegare quello che stiamo vivendo oggi a uno degli ambienti culturali in cui è nata la trasformazione digitale in atto cioè Berkley nel ‘68. Una tecnologia è nata per offrire maggiori spazi di libertà, di democrazia, di partecipazione, di uguaglianza, di pace. E invece si sta trasformando e rivelando come potente strumento per il controllo potente e per l’arricchimento solo di una parte e così via. Quella che è stata intuita come una bontà si sta invece mostrando come foriera e portatrice di non pochi problemi e rischi.

Mi offre uno spunto Hiroshi Ishiguro, importante ingegnere robotico giapponese famoso perché ha costruito il suo clone robot. Perché mi piace questa immagine? Perché credo che possiamo rispondere alle domande poste dentro una rinnovata riflessione sul rapporto tra umanità e tecnologia.
Vi do tre spunti. Il primo è che stiamo vedendo un grande rischio. Per secoli abbiamo pensato la tecnologia come uno strumento di miglioramento della vita umana e della società. Oggi paradossalmente, siamo invece percepito come un rischio.
Dietro questa cosa c’è un tema più complesso: assistiamo a una riduzione tecnologica dell’esperienza umana. Stiamo passando dalla domanda ‘chi è l’uomo?’ a che cos’è l’uomo?’ Perché l’approccio alla fine è quello dei dati, dei modelli che possiamo costruire, della replicabilità di alcune funzioni.
E oggi si è arrivati a dire che noi crediamo alla scienza. Sono un prete, ed è già complicato credere al Padreterno adesso ci manca credere alla scienza. Mi preoccupa un atteggiamento fideistico davanti a questa cosa: la questione del rapporto della tecnica e dell’uomo chiede una rivisitazione e credo che l’ambito della nutrizione e dell’alimentazione sia un tema particolarmente significativo in questo campo.

A me colpisce quando si affronta il tema del cibo naturale. Il cibo naturale non esiste, cioè gli unici che hanno mangiato in maniera naturale erano i raccoglitori di bacche. Ma nel momento stesso che abbiamo introdotto fuoco, caccia, agricoltura, abbiamo introdotto un elemento tecnologico nella nostra alimentazione.
L’altro spunto è la questione della domanda etica sull’intelligenza artificiale: abbiamo uno strumento particolarmente efficace, potente.
Possiamo decidere di usarlo bene o di usarlo male: questo presuppone che le tecnologie siano neutre. Ciò non è vero perché le tecnologie non sono mai neutre perché sono frutto di una cultura, di logiche, di un modo di pensare.
E questo ci pone un altro problema. Pascale Fung, una delle massime esperte di intelligenza artificiale del Politecnico di Hong Kong ha creato una tabella dove ha provato a mettere in parallelo quelli che sono i valori etici dell’intelligenza artificiale nel mondo cinese con quelli europei.
Pur trovando una certa corrispondenza in questa tabella, le parole sono diverse e questo significa che c’è una differenza nell’approccio a questa tecnologia. L’intelligenza artificiale può essere considerata una delle grandi opportunità per ripensare un’umanità che vive su un pianeta diventato piccolo. Più il pianeta diventa piccolo, più le responsabilità diventano grandi. Questo oggetto tecnologico torna a imporre nuovamente un’idea globale, anche in un tempo in cui invece questo globale risulta particolarmente faticoso. E non c’è approccio autarchico che permetterà di uscire da questa cosa.

L’ultimo punto riguarda l’importanza di un approccio transdisciplinare. Il futuro dei fenomeni così globali richiede un approccio transdisciplinare, cioè dove approcci scientifici e approcci umanistici possano lavorare insieme. Le scienze del futuro saranno quelle che saranno capaci di mettere insieme saperi diversi per saper riconoscere dove andare e come costruire, pur nella complessità, talvolta nell’iper complessità di una situazione come questa. 


Ash Fontana (scrittore, investitore e imprenditore)IA e la produzione alimentare: presente e prospettive future 

“Ci sono molte idee su come l’IA potrebbe aiutarci a coltivare il cibo in modo più efficace, ma le tecnologie non hanno ancora raggiunto questo obiettivo. Al contrario, le opportunità si stanno ampliando in direzioni inaspettate: modificare i nostri gusti e la percezione dei nostri bisogni.

Dopo di aver analizzato più di 50.000 startup nel mondo dell’IA, penso di aver visto l’opportunità giusta per applicare l’IA al nostro mondo del cibo…e non è quello che ci si potrebbe aspettare.

Tanti pensano che l’IA possa sostituire i lavoratori, automatizzare il raccolto, uccidere insetti, ed altro, ma non è così.

Semplicemente: è troppo difficile mettere l’IA a fare qualcosa nel mondo fisico.

L’applicazione corretta ed efficace dell’IA è quella pensata per creare la novità percepito da noi, sviluppata totalmente in laboratorio. 

Potremmo creare nuovi prodotti, gusti, confezioni, prodotti chimici e trattamenti per la terra. Semplicemente: l’applicazione inizia sempre nel mondo virtuale e ci serve per gli esperimenti.

C’è anche una nuova minaccia, ovvero che l’IA che possa influenzare il nostro gusto.

Vi porto l’esempio non riuscito di start up del settore agritech che, nonostante importanti investimenti, non hanno portato risultati sperati. Quindi l’opportunità di applicare software all’agricoltura non esiste come negli altri settori.

La tecnologia ‘agtech’ non genera profitto perché ci vogliono tanti soldi per costruire un computer fisico, cioè un robot; non fa risparmiare perché non capisce le complessità del clima; non ci informa perché un database è utile solo se si inseriscono i data e i lavoratori che lavorano in compagna non possono gestire, toccare o tenere bene i dispositivi.

La tecnologia non può esistere nel mondo fisico e dinamico con umani ben evoluti.

Il mondo fisico non accetta le cose inventate, finte, aliene. Il mondo fisico integra solo le cose evolute.

Le opportunità ci sono, però, e riguardano l’aiuto per creare nuovi:

prodotti, gusti, confezioni (packaging), prodotti chimici; e trattamenti per la terra.

Infatti le grandi aziende usano l’IA per scoprire le nuove formule”.


Lorenzo Bairati (Università di Pollenzo) – Intelligenza artificiale e sostenibilità: opportunità, rischi e valori in gioco 

Oggi esploriamo i benefici e i rischi legati all’intelligenza artificiale (IA) attraverso una serie di documenti europei che hanno portato a iniziative concrete, in particolare un regolamento approvato l’anno scorso, oggetto di dibattito a livello globale. Il tema principale riguarda la governance globale dell’IA, con i vari sistemi giuridici che devono decidere quale direzione intraprendere. Un esempio di questo dibattito è l’AI Act, che ha suscitato un ampio confronto internazionale.

I benefici dell’IA, secondo i documenti istituzionali del Parlamento europeo, comprendono il risparmio di risorse, l’aumento della produttività, la creazione di nuovi prodotti e servizi più efficienti e sicuri, nonché un migliore accesso all’informazione, all’istruzione e alla protezione dei consumatori. Tuttavia, emergono anche dei rischi significativi. Un primo punto critico riguarda la definizione di IA, necessaria per creare un terreno comune in un’Unione Europea composta da 27 Stati membri con diverse culture giuridiche e interessi. Definire con precisione cosa sia l’IA è fondamentale, poiché il diritto si basa anche su definizioni che spesso sono costruite ad hoc.

Inoltre, l’introduzione di un nuovo regolamento non avviene in un vuoto giuridico, ma si inserisce in un contesto già esistente, il che può portare a sovrapposizioni o contraddizioni tra le normative, generando incertezza. Tra i rischi individuati vi sono la discriminazione algoritmica, quando le decisioni dell’IA sono influenzate da criteri legati a caratteristiche personali, e la manipolazione delle opinioni, sia politiche che dei consumatori. Un altro tema fondamentale è la trasparenza. L’opacità dei sistemi di IA è un problema: gli utenti non sempre sono consapevoli di come un sistema giunga a determinate conclusioni, sollevando interrogativi sulla consapevolezza e sulla necessità di regolamentare la trasparenza, ben oltre le normative sulla privacy.

Un altro aspetto importante riguarda l’allocazione della responsabilità per i danni causati da sistemi di IA. Quando una soluzione suggerita dall’IA provoca danni, è difficile stabilire chi sia responsabile. Inoltre, esiste il rischio di un’over-regulation, che potrebbe soffocare l’innovazione nel settore. Il trattamento dei dati, spesso di natura personale, e la profilazione degli utenti sono altre preoccupazioni che devono essere affrontate.

Il legislatore europeo dovrà distinguere tra i vari tipi di IA, applicando un principio basato sul rischio: maggiore è il rischio, più rigide saranno le normative. La regolazione del rischio è un tema ricorrente in questi contesti. Recentemente, a febbraio, si è tenuto a Parigi l’Action Summit, dove i Capi di Stato e di Governo hanno discusso la sostenibilità e l’equità dei sistemi di IA. Un fatto rilevante è che gli Stati Uniti non hanno firmato il documento finale, sottolineando le divergenze globali su come regolare l’IA.

Gli attori istituzionali continueranno a lavorare per creare un quadro giuridico globale, auspicabilmente condiviso. Le imprese, in particolare quelle che utilizzano ampiamente l’IA, dovranno mappare i rischi all’interno delle loro strutture e adattarsi ai cambiamenti in corso. Nel nostro Ateneo, è fondamentale sottolineare che la questione non riguarda solo i rischi legati all’IA, ma anche l’impatto ambientale. Gli strumenti di IA, ad esempio i data center, richiedono enormi risorse energetiche e acqua per il raffreddamento. L’inutilizzo di applicazioni IA può comportare danni ambientali, e bisogna sempre considerare il rapporto tra i benefici e i costi, sia ambientali che umani.

Infine, è essenziale proseguire nell’alfabetizzazione digitale, educando i nostri studenti a comprendere e applicare l’IA con una visione critica e sostenibile, tenendo conto delle implicazioni ecologiche e sociali di queste tecnologie.


Matteo Pasquinelli (Università Ca’ Foscari Venezia) – La vita non è un test di Turing. Contro l’IA come nuova metrica sociale 

Oggi abbiamo bisogno di un paradigma multidisciplinare: molto simile dal punto di vista culturale al paradigma ecologico e al paradigma dell’Antropocene. Abbiamo la collaborazione di tantissime discipline. Questo sta accadendo anche all’interno dell’intelligenza artificiale ma perché? Perché nella storia della tecnologia umana abbiamo a che fare con un fenomeno nuovo che è una fortissima omogeneizzazione della tecnica.

Abbiamo uno strumento di modello statistico di ampie dimensioni per fare tantissime cose: per tentare di automatizzare la guida dei veicoli, per fare l’analisi dei dati e questo questa omogeneizzazione è  un problema che dovremmo discutere.

alla fine se guardiamo in maniera molto materialista come si usa questo strumento vediamo un fenomeno di atomizzazione sociale immensa se noi guardiamo come interagiamo con questi sistemi abbiamo una massa una moltitudine di utenti mondiale che si collega ad un data center nello Utah per quanto riguarda CPT e ad un data center in Cina. è una orchestrazione mai vista ma altamente centralizzata e soprattutto socialmente alienante perché è un’intelligenza molto automatizzata, atomizzata: e si arriva a quanto ho affermato nel mio libro che l’Ai è nata come imitazione dell’intelligenza biologica e neppure come imitazione del pensiero umano, ma è nata semplicemente dall’imitazione delle relazioni sociali, della divisione del lavoro.

E questa non è una mia tesi mia strampalata: se guardiamo alla rivoluzione industriale e alle teorie dell’automazione che si avevano a quei tempi ed è interessante vedere che tre economisti di orientamento politico completamente diverso come Adam Smith, Charles Babbage, Karl Marx avevano la stessa idea dell’automazione ossia imitazione  della forma della divisione del lavoro.

C’è questo libro di Stephen Jay Gould, che mostra come le pseudoscienze misurassero il quoziente intellettivo basandosi sulle proporzioni del cranio. Questa era eugenetica razzista: il progetto fallì, ma questo portò comunque all’invenzione del test, nel test psico attitudinale e nella psicometria, che è una branca secondo me controversa, perché tenta di misurare le nostre capacità intellettive in maniera quantitativa.

Però quello a cui vorrei portarvi io è una discussione, cambiando appunto l’angolo di approccio sul fatto che l’intelligenza artificiale sì, è una forma di automazione, ma io vorrei invitarvi a vederla come una forma di misura e come una tecnologia come tutte le tecnologie che partono dal problema della misura.

L’economista polacco Witold Kula è stato uno storico della metrologia e ha cominciato a studiare come la pratica delle unità di misura è sorta e come le unità di misura si siano standardizzate e abbiano origini economiche (ad esempio il kg) risalenti ai tempi del feudalesimo.

Pertanto, quello che l’intelligenza artificiale oggi fra l’altro è una nuova unità di misura di cosa? Delle nostre capacità cognitive e forse delle nostre capacità di lavoro.

Per questo motivo, ChatGPT e Deeseek CPT sono implicitamente misure metriche dell’umano e stabiliscono quello che è uno studente o un lavoratore può e non può fare e quindi c’è una implicita nuova gerarchia sociale che emerge già dalla presenza e dall’uso di questi di questi sistemi.

Pensiamo a quanto reputavamo dell’automazione: pensavamo che l’automazione venisse a rimpiazzare solo gli operai, i colletti blu con questa idea del robot antropomorfico, oggi invece sono i colletti bianchi nel lavoro intellettuali, i traduttori ad esempio, ad essere sostituiti. Ma anche i manager oggi ad essere sostituiti da questi algoritmi e non gli operai.

C’è un’altra cosa importante che dovremo anche discutere e che negli anni 90 ci siamo battuti per i commons culturali, per il copyleft, per la costruzione di depositi online della nostra cultura aperte a tutti: è stata appunto una battaglia anche per quanto riguarda la liberazione della conoscenza contro i monopoli. E perciò abbiamo contribuito in maniera implicita ed esplicita ad enormi biblioteche di libri piratati che si usano anche in università. Gli studenti le usano continuamente. Era una utopia digitale molto libertaria tipica degli anni 90 ma nessuno allora si sarebbe immaginato che questi archivi online aperti free potessero diventare appunto invece la sorgente con cui questi monopoli hanno costruito i loro modelli.

Quindi ci troviamo in una contraddizione lampante: una terza cosa è una sorta di nemesi anche della democrazia digitale: prima si faceva riferimento a movimenti di Berkeley e a una sorta di utopismo californiano e nessuno si sarebbe aspettato mai che anche all’interno della comunità scientifica dei ricercatori si finisse nelle mani di monopoli para fascisti come quelli di Elon Musk e Peter Thiel, capo di Palantir. Quindi? Cioè viviamo in un momento abbastanza crudo ed è chiaro che non si può considerare questo nuovo problema dei monopoli senza appunto pensare a un ruolo della politica nei confronti di queste tecnologie

 

Il Dibattito


La tavola rotonda ha stimolato un dibattito intenso e articolato, con interventi provenienti da settori diversi – dal mondo accademico e imprenditoriale alla riflessione etica e ambientale.

Illy ha sollevato il tema della perdita di controllo da parte dell’uomo rispetto all’AI, mettendo in evidenza il rischio che questa tecnologia possa generare risultati falsati, soprattutto nella gestione delle informazioni online. Ha poi sottolineato un fenomeno poco discusso: la scomparsa di circa il 30% delle pagine web dopo la diffusione di ChatGPT, segnale di un cambiamento nel modo in cui le imprese proteggono i propri dati nel panorama digitale.
Di segno diverso l’intervento di Silvio Greco, che ha portato una prospettiva critica dal punto di vista ambientale. Ha evidenziato come l’intelligenza artificiale, pur considerata una tecnologia “immateriale”, abbia un impatto ecologico significativo, tra consumo energetico, estrazione di risorse minerarie e crisi climatica. “Ogni email inviata consuma mezzo litro d’acqua, e se milioni di persone usassero l’AI quotidianamente, nel giro di dieci anni avremmo creato una nuova bomba climatica.”

Sul ruolo delle aziende nell’adozione dell’AI, Myriam Finocchiaro di Granarolo ha ribadito l’importanza di garantire un accesso equo alle infrastrutture digitali, evidenziando il ruolo chiave dell’Europa nella regolamentazione della tecnologia. Ha inoltre presentato due progetti di Granarolo che utilizzano l’intelligenza artificiale: una piattaforma predittiva per allevatori, sviluppata con XFarm, e un sistema per ottimizzare la gestione della domanda e ridurre gli sprechi alimentari.

Anche Andrea Sorbello di Barilla ha posto una domanda strategica a Ash Fontana, investitore esperto di AI applicata all’agricoltura, chiedendo come l’intelligenza artificiale possa migliorare la comprensione dei bisogni dei consumatori e il loro rapporto con il cibo. Fontana ha risposto sottolineando che, sebbene l’AI sia efficace nel rilevare tendenze di mercato, la sua vera forza sta nell’innovare il sistema alimentare, piuttosto che limitarsi a interpretarlo.

Un altro tema emerso nel dibattito è stato il rischio esistenziale dell’AI, sollevato da Pasquinelli, che ha messo in evidenza il legame tra il progresso tecnologico e lo sfruttamento delle risorse energetiche. Silvio Barbero ha poi posto una domanda chiave: chi decide quali dati vengono utilizzati per addestrare l’intelligenza artificiale? La neutralità dei dati, ha osservato, è spesso un’illusione, poiché dietro ogni selezione c’è un’intenzione umana o algoritmica.

Infine, il Presidente UNISG Carlo Petrini ha offerto una riflessione conclusiva sull’impatto sociale ed economico dell’AI. Ha evidenziato il pericolo di una crescente disuguaglianza, in cui i benefici delle nuove tecnologie rimangono concentrati nelle mani di pochi, mentre la maggior parte della popolazione paga il prezzo delle trasformazioni economiche. “Ancora una volta ci troviamo davanti a una narrazione che cerca di screditare chi difende l’ambiente e la sostenibilità, presentandolo come un ostacolo all’economia. Ma non possiamo rinnegare quello in cui crediamo.”