- 10/06/2025
https://www.pupia.tv - Roma - Intelligenza artificiale e Parlamento: quattro lezioni aperte al pubblico a Valdina - 1 - Premio Nobel Giorgio Parisi
Alle ore 19, il premio Nobel Giorgio Parisi dà il via al ciclo di lezioni promosse dalla Camera sull'Intelligenza artificiale, aperte al pubblico nello splendido scenario di vicolo Valdina. Sul tema, il Comitato di Vigilanza sull’attività di Documentazione della Camera dei deputati – presieduto dalla Vicepresidente Anna Ascani – ha svolto negli ultimi anni un'indagine specifica e ha lanciato una sperimentazione attraverso la selezione tra progetti di giovani ricercatori per il supporto ai lavori parlamentari. (10.06.25)
#pupia
Alle ore 19, il premio Nobel Giorgio Parisi dà il via al ciclo di lezioni promosse dalla Camera sull'Intelligenza artificiale, aperte al pubblico nello splendido scenario di vicolo Valdina. Sul tema, il Comitato di Vigilanza sull’attività di Documentazione della Camera dei deputati – presieduto dalla Vicepresidente Anna Ascani – ha svolto negli ultimi anni un'indagine specifica e ha lanciato una sperimentazione attraverso la selezione tra progetti di giovani ricercatori per il supporto ai lavori parlamentari. (10.06.25)
#pupia
Categoria
🗞
NovitàTrascrizione
00:00:00Buonasera a tutte e a tutti, gentili ospiti, colleghe e colleghi.
00:00:17È un grande piacere darvi il benvenuto nella splendida cornice di Vicolo Valdina
00:00:22che ci ospita oggi per l'apertura di un ciclo di seminari a cui abbiamo dato un titolo significativo
00:00:28e decisivo per il nostro tempo, la Tecne e la Polis, quattro lezioni sull'attualità e sul futuro.
00:00:36Permettetemi di rivolgere prima di tutto un saluto particolare all'ospite che abbiamo l'onore e il piacere di avere qui con noi
00:00:43e che ci accompagnerà in questo primo incontro, il professor Giorgio Parisi, premio Nobel per la fisica
00:00:50e già presidente dell'Accademia Nazionale dei Vincei.
00:00:58Grazie professore per aver accettato il nostro invito.
00:01:04Aprire il nostro ciclo di incontri con il suo intervento non è solo motivo di particolare prestigio
00:01:10ma illumina anche il senso dell'iniziativa che abbiamo voluto organizzare
00:01:14per far sì che un'istituzione democratica come la Camera dei Deputati
00:01:19sia luogo non solo di dibattito politico ma anche pubblico, accessibile alle cittadine e ai cittadini,
00:01:26spazio di incontro e confronto su questioni che li riguardano in prima persona
00:01:31come la rivoluzione digitale in atto.
00:01:34In una sua recente intervista al Corriere della Sera, il professor Parisi che mi permetto di citare
00:01:40ha evidenziato come, cito, l'intelligenza artificiale non possa inventare il futuro.
00:01:45Ha la conoscenza di tutto quello che ha scritto l'umanità e lo ricombina.
00:01:50Anche la nostra creatività mette assieme tutto quello che abbiamo letto, imparato, sentito, provato e vissuto
00:01:56e da lì genera delle idee.
00:01:59Però il futuro non si crea tirando a indovinare ma cercando di combinare l'esperienza con un'idea di mondo
00:02:05che i chatbot non hanno.
00:02:08Il punto è proprio questo.
00:02:10Con i seminari ideati dal Comitato di Vigilanza sull'attività di documentazione della Camera dei Deputati
00:02:16che mi onoro di presiedere, desideriamo promuovere una riflessione più approfondita
00:02:21sull'intelligenza artificiale, sia rispetto all'impatto sulle istituzioni parlamentari
00:02:26sia più in generale sul piano culturale e sociale.
00:02:31Un piano che non può non stare a cuore alla politica, che deve stare a cuore alla politica
00:02:36poiché la cittadinanza e la democrazia non si basano solo sulle norme e sui congegni giuridici
00:02:42ma anche e soprattutto sulla cultura e sulla condivisione di una tavola di valori comuni
00:02:48che troviamo bene espressi nella nostra Costituzione.
00:02:52Insomma su un'idea di mondo che è il frutto di una visione insopprimibilmente ed insostituibilmente umana.
00:03:00Gli sviluppi significativi dell'intelligenza artificiale di questi anni interrogano in maniera profonda,
00:03:06potremmo dire fondazionale, le radici costituzionali della vita associata,
00:03:11della rappresentanza, della decisione pubblica, del ruolo stesso della persona umana.
00:03:17E non è un caso se anche il nuovo pontefice, Leone XIV, con la scelta del suo nome,
00:03:22in continuità con Leone XIII, il Papa che rispose alla rivoluzione industriale con la Rerum Novarum,
00:03:29ha richiamato l'attenzione sulla portata rivoluzionaria di questa innovazione tecnologica,
00:03:34che, lo cito, comporta nuove sfide per la difesa della dignità umana, della giustizia e del lavoro.
00:03:42La persona, le persone al centro.
00:03:45E con questo la necessità di promuovere un ordine sociale giusto, che tuteli i diritti di tutte e di tutti.
00:03:52Andando più nel particolare, questa riflessione si colloca inoltre all'incrocio di due grandi temi
00:03:58che erano già presenti ai costituenti, la libera manifestazione del pensiero attraverso tutti i mezzi di diffusione
00:04:05e la libertà di iniziativa economica attraverso l'innovazione.
00:04:10Rileggere in tale prospettiva, rivolta al futuro, le disposizioni costituzionali
00:04:16ci aiuta a comprendere come le sfide delle nuove tecnologie in generale
00:04:20e dell'intelligenza artificiale generativa in particolare pongano delle questioni cruciali
00:04:25che riguardano lo stimolo e l'investimento lavorativo e produttivo
00:04:29oltre che un'efficace regolazione a tutela dei diritti e della dignità dell'uomo.
00:04:35Le principali istituzioni del continente europeo sono infatti da diversi anni attivamente interessate a queste tematiche
00:04:42con il risultato, in particolare per quanto riguarda l'Unione Europea, dell'emanazione del cosiddetto AI Act.
00:04:49Il ciclo di incontri che inauguriamo oggi rientra in un più ampio quadro di analisi
00:04:53di condotta nell'ultimo anno dal Comitato.
00:04:57Siamo partiti da un'indagine conoscitiva sull'intelligenza artificiale
00:05:01e sul suo possibile impiego all'interno dell'istituzione parlamentare,
00:05:05dalla quale è emersa la convinzione che questa possa aiutare l'attività parlamentare,
00:05:10per potenziarne l'efficacia e al contempo mitigarne i rischi
00:05:14e quindi la necessità di intraprendere un percorso che integri gli strumenti di IA
00:05:19di nuova generazione nei processi di lavoro parlamentare.
00:05:24Successivamente abbiamo promosso una manifestazione di interesse
00:05:27rivolta a giovani studiosi, ricercatori, centri di competenze universitari, enti di ricerca
00:05:33per raccogliere progetti sull'utilizzo dell'intelligenza artificiale applicata al Parlamento.
00:05:38Questi progetti sono ora in corso di sviluppo da parte dell'amministrazione,
00:05:42il raccordo con i vincitori della procedura e saranno presentati anche al pubblico il prossimo 9 luglio.
00:05:50Ci troviamo in un mondo in cui l'evoluzione tecnologica è sempre più rapida e prorompente
00:05:55e le nuove tecnologie come l'IA non coinvolgono solo la sfera tecnica,
00:06:00ma anche quella filosofica, etica, politica e sociale.
00:06:04Non possiamo permetterci di essere testimoni passivi della trasformazione dell'IA,
00:06:08ma dobbiamo essere protagonisti attivi nella definizione di un nuovo paradigma
00:06:13in cui le tecnologie siano al servizio della nostra democrazia e della sua qualità
00:06:19e non degenerino in modo tale da minarne il corretto funzionamento,
00:06:24da creare nuove forme di emarginazione e diseguaglianza sociale.
00:06:29Occorre pertanto promuovere consapevolezza e costruire a tutti i livelli un pensiero
00:06:34che ci renda capaci di governare l'intelligenza artificiale mettendo al centro le persone
00:06:40per il bene dell'umanità, per il suo sviluppo nella giustizia e nel rispetto dei diritti.
00:06:46Penso che mai come oggi si ponga con forza la domanda
00:06:49come può l'intelligenza artificiale contribuire al progresso democratico
00:06:53senza compromettere i principi fondanti delle nostre istituzioni
00:06:58tramite manipolazioni, discriminazioni e distorsioni.
00:07:01Questo tema merita un esame approfondito.
00:07:06E in questo senso i nostri seminari ruoteranno intorno a tre questioni fondamentali.
00:07:11Anzitutto, qual è il tipo di intelligenza artificiale che vogliamo?
00:07:15Secondo quali metodi vogliamo svilupparlo?
00:07:18Con quali valori alla base?
00:07:20In altri termini occorre domandarsi se le potenzialità dirompenti di questi strumenti
00:07:25che non soltanto sono in grado di immagazzinare e ordinare i dati
00:07:28ma di simulare qualcosa di molto vicino alla formazione di concetti
00:07:33debbano essere sviluppate quale valore in sé
00:07:35o se occorra comunque un loro ancoraggio a una nozione di bene comune
00:07:40e di servizio all'uomo.
00:07:42In secondo luogo si pone la tematica non disgiunta da quella appena citata
00:07:47delle ingentissime risorse finanziarie necessarie per la sperimentazione
00:07:52e lo sviluppo dei sistemi di intelligenza artificiale.
00:07:55Emerge quindi la necessità di prestare attenzione alla relazione
00:07:59che correrà tra gli stati sovrani e le loro possibilità di finanziamento
00:08:04della ricerca da un lato
00:08:05e la postura anche globale degli attori privati del settore tecnologico dall'altro.
00:08:11Infine, ma non per importanza, emerge con prepotenza il dilemma ambientale.
00:08:16I sistemi di IA e le strutture a essi collegate, come i data center,
00:08:21sono infatti energivori.
00:08:23Ci mettono di fronte all'inedito problema della divaricazione
00:08:26tra transizione digitale e transizione ecologica.
00:08:30Come vedremo quindi, il tema della sostenibilità anche ambientale dell'IA
00:08:35è fra i più controversi.
00:08:37Il ciclo di seminari si inserisce proprio in questo quadro complesso,
00:08:41alla radice del quale restano interrogativi etici,
00:08:44come sempre accade di fronte ai grandi tornanti del progresso,
00:08:47che richiedono riflessioni condivise e partecipazione.
00:08:51Anche per questo abbiamo chiamato a confrontarsi con noi personalità autorevoli
00:08:56e al tempo stesso espressioni di esperienze scientifiche e sensibilità personali
00:09:01diverse e plurali,
00:09:03che possano offrire il loro punto di vista
00:09:05e guidarci in un dialogo costruttivo e proficuo.
00:09:08In conclusione vorrei ringraziare tutte e tutti coloro che hanno reso possibile questa iniziativa,
00:09:14a partire dal Comitato di Vigilanza e dall'Amministrazione della Camera,
00:09:19e invitare ciascuno di voi a partecipare attivamente ai lavori di questo ciclo di seminari.
00:09:25La riflessione sull'IA non è solo un compito per tecnici,
00:09:29ma una sfida che riguarda tutti noi, come cittadine e cittadini e come istituzioni.
00:09:33È un passo importante per il nostro futuro,
00:09:37che dobbiamo fare con responsabilità, consapevolezza e coraggio.
00:09:41Sono certa che le discussioni che nasceranno da questi incontri
00:09:45contribuiranno a tracciare la rotta per un Parlamento,
00:09:48una democrazia e una cittadinanza sempre più moderni, attivi e inclusivi.
00:09:54Adesso lascio la parola al Professor Parisi.
00:09:57Grazie ancora di essere con noi.
00:09:59Grazie.
00:10:03Grazie mille.
00:10:16Allora, volevo intanto ringraziare il Vice Presidente e tutto il Comitato Organizzatore
00:10:21per aver organizzato questa conferenza.
00:10:24È un problema estremamente importante e sono molto contento che il Parlamento sia,
00:10:29e la Camera in particolare, sia dedicata a studiarlo,
00:10:35perché quelle cose bisogna vederle in anticipo e in maniera tale da non essere poi costretti
00:10:43a mettere le pezze all'ultimo momento.
00:10:47Quindi è molto importante.
00:10:49Ringrazio anche, e quindi tutto quello che sta facendo la Camera in questa direzione,
00:10:54che è stata onorabilmente descritta da Vice Presidenza, è estremamente importante.
00:11:00Allora, io in questa conferenza volevo concentrarmi su due cose.
00:11:06All'inizio fare una brevissima, per quanto possibile, storia dell'intelligenza artificiale,
00:11:14dire brevemente cos'è l'intelligenza artificiale, cosa può fare a giorni d'oggi,
00:11:21e poi concentrarmi anche sulle criticità, perché le criticità sono molte e varie.
00:11:29Non è chiaro quante possono essere risolte localmente,
00:11:32molte sono problemi di tipo globale, però se non si incomincia a discutere,
00:11:37non si incomincia a parlare, non si incominciano i Parlamenti, i governi a riflettere,
00:11:42è chiaro che poi andiamo in una situazione che può essere difficile da vedere.
00:11:49Questo è uno dei primi disegni dei neuroni, e perché parlo di neuroni?
00:11:54Parlo di neuroni perché l'intelligenza artificiale moderna è fatta con delle spese di neuroni sintetici,
00:12:02e quindi molto il funzionamento è preso in qualche modo di ispirazione da come funzionano i neuroni.
00:12:12Questo è un neurone disegnato a fine ottocento, disegnato proprio dal microscopio,
00:12:20quindi è stata una persona che ha copiato quello che vedeva il microscopio e l'ha disegnato.
00:12:25Questo è stato possibile solo grazie all'opera di un grandissimo scienziato italiano, Camillo Golgi,
00:12:32che ha inventato la reazione neva che permetteva di colorare un singolo neurone separandolo da tutti gli altri,
00:12:42per cui ha preso il premio Nobel nel 1912.
00:12:47Allora, se uno guarda un pochettino più il neurone,
00:12:53quello del neurone è un sistema relativamente, ma qui c'è tante parti,
00:13:00ma la cosa fondamentale che fa il neurone è che riceve dei segnali dagli altri neuroni,
00:13:06se i segnali che riceve dagli altri neuroni possono essere segnali eccitatori,
00:13:12che lo incitano a fare qualcosa, segnali inibitori che lo incitano a non fare niente.
00:13:19Questi segnali arrivano tramite le sinapsi e se ci sono più segnali eccitatori che inibitori,
00:13:30il neurone dopo una certa quantità di tempo si spara, come si dice in gergo,
00:13:36cioè emette un segnale elettrico e questo segnale elettrico va lungo questa assone
00:13:42e che si connette ad altri neuroni.
00:13:45Allora, nel disegno precedente,
00:13:56quello che si vede, si vede questo enorme albero,
00:13:59è quello che si chiama l'albero dendritico,
00:14:01cioè ognuno di questi dentriti ha un dentrito di alberello, albero in greco,
00:14:09e ognuno di questi ha un terminale che è connesso ad altri neuroni.
00:14:14Quindi un neurone di questo tipo riceve segnali a 10.000, 100.000 neuroni
00:14:19e a questo punto, a secondo di quello che gli arriva,
00:14:23decide di fare qualcosa o non fare niente, aspettare o attivarsi.
00:14:28Allora, questo è più o meno, ci ha voluto una certa quantità di tempo
00:14:33per capire come funzionano queste cose, come funzionano le sinapsi e così via,
00:14:39ma questo fa parte della biologia.
00:14:41Allora, alla fine, quello che succede è che a un certo punto,
00:14:46nel 1947, hanno creato l'idea di fare una formula,
00:14:53studiare matematicamente e funzionalmente i neuroni,
00:14:57e prendendo un neurone formale estremamente semplificato,
00:15:02l'idea di avere un neurone che ha dell'input degli autobinari,
00:15:06cioè gli arrivano a input, possono essere lavora o non lavora,
00:15:12e a questo punto lui può decidere se lavorare o non lavorare a secondo dell'input.
00:15:19Quello che succede è che questi input arrivano tramite le sinapsi
00:15:23a cui sono le questioni di neurone collegate,
00:15:27e queste sinapsi, come dicevano, possono essere o citatorie o inibitorie,
00:15:33e quindi possono essere sinapsi che mandano un segnale forte,
00:15:36o sinapsi che mandano un segnale debole,
00:15:39e l'idea era di mettere, stimolando su computer,
00:15:44stimolando in qualche modo o in maniera elettronica,
00:15:48un sistema di neurone in cui si possano aggiustare queste sinapsi
00:15:55in maniera che questo sistema di neurone faccia qualcosa di utile,
00:16:00qualcosa di utile, qualcosa di interessante,
00:16:03e questo è cominciato nel 1947,
00:16:07poi è stata inventata la parola cibernetica nel 1949,
00:16:11che è nei primi studi che venivano fatti,
00:16:15e poi Rosenblatt inventa quello che si chiama il percettone,
00:16:20Mark I, e che New York Times fa un articolo
00:16:25scrivendo che il percettone è l'embrione di un computer elettronico
00:16:30che la marina aspetta che sarà in futuro capace di camminare,
00:16:36parlare, vedere, scrivere,
00:16:39riprodurre se stesso e essere consul della propria esistenza.
00:16:43È un grande programma,
00:16:45quello interessante è che la parola marina,
00:16:48perché questo programma scientifico era finanziato dalla marina americana,
00:16:53che pensava che potesse essere utile a scopi,
00:16:57diciamo, di vario tipo.
00:17:00Allora, la macchina essenzialmente questa è abbastanza strana,
00:17:06vedete che c'è una lettera, grossa lettera C,
00:17:09ci sono due lampade che illuminano,
00:17:12poi c'è un insieme di 400 fotocellule
00:17:16che leggono, che essenzialmente è praticamente una specie di telefono
00:17:22di fotografia digitale fatta con 400 pixel,
00:17:26ricordiamo se stiamo nel 1959,
00:17:28e quello che doveva fare questo computer era,
00:17:32questo computer che alla fine era un computer analogico,
00:17:36aveva 512 neuroni interni
00:17:39e poi alla fine doveva decidere che lettera era,
00:17:43cioè doveva essere in grado di distinguere
00:17:45fra le 26 lettere dell'alfabeto inglese,
00:17:51in maniera tale, poi c'era un output che distingueva cos'era.
00:17:55era un sistema abbastanza complesso,
00:18:00vedete, due armadi che stanno dietro,
00:18:02sono tutta l'elettronica dell'epoca necessaria per fare questo,
00:18:06forse continua ancora dopo,
00:18:08non so, non lo seguo,
00:18:09però a questo punto questo è stato un po' l'inizio,
00:18:13e le cose non andate abbastanza avanti,
00:18:16abbastanza,
00:18:17però un po' lentamente,
00:18:19perché negli anni 60-70
00:18:22la cibernetica non aveva molta applicazione
00:18:25e l'idea dell'intelligenza artificiale
00:18:27è essenzialmente basata sull'idea di sistemi esperti,
00:18:32di sistemi in cui gli umani spiegassero
00:18:34quali sono le regole che loro seguivano
00:18:39per fare certe operazioni
00:18:41e computer matematizzasse queste regole,
00:18:45cosa che poi alla fine non ha funzionato,
00:18:48e quello che invece è stato fondamentale
00:18:51per andare avanti
00:18:52è lo studio di un problema,
00:18:53è un problema di come fare
00:18:56un dispositivo elettronico
00:18:58o un computer che funzioni come memoria associativa.
00:19:02Allora, la memoria del computer
00:19:05è essenzialmente una memoria a cassetti,
00:19:07ci sono i cassetti che sono numerati
00:19:09da uno a un miliardo,
00:19:11aprite il cassetto
00:19:12e in un cassetto si è scritto 25,
00:19:14in un cassetto c'è un'altra cosa e così via.
00:19:17La memoria associativa è una memoria di tipo diverso,
00:19:21voi avete un ricordo parziale di qualche cosa
00:19:24e poi da questo ricordo parziale vi ricordate tutto.
00:19:28Cioè, la cosa che si chiamano tutti i giorni,
00:19:31vediamo una persona,
00:19:32dalla faccia ci ricordiamo tutto quello
00:19:35che corrisponde a quella persona,
00:19:37quando qualcosa ce lo dimentichiamo,
00:19:40ma però tendo a dire
00:19:40come abbiamo incontrato,
00:19:42che occasioni,
00:19:43che cosa fa,
00:19:44come si chiama, eccetera,
00:19:46o sentiamo la voce e riconosciamo.
00:19:48Allora, questa memoria associativa
00:19:50chiaramente non funziona nel nostro cervello,
00:19:53che nel nostro cervello incomincia a scorrere
00:19:56tutte le migliaia di facce,
00:19:58una dopo l'altra,
00:19:59delle persone che noi conosciamo
00:20:02e poi si fissa,
00:20:04nel momento che scorrendo arriva,
00:20:06alla faccia giusta.
00:20:08Procede in un altro modo
00:20:09e non potrebbe farlo perché
00:20:11non potrebbe farlo perché
00:20:13il tempo tipico di reazione
00:20:16di un'operazione del cervello
00:20:17è di 40 millisecondi.
00:20:20Cioè, quindi un cervello in un secondo
00:20:21fa 25 operazioni,
00:20:24diciamo, complesse,
00:20:25quindi è molto lento.
00:20:26E quindi se dovesse scorrere
00:20:2810.000 immagini,
00:20:30per esempio,
00:20:31io quello che non vedevo,
00:20:33c'erano i figli,
00:20:34i bambini,
00:20:34che facevano raccolte
00:20:36figurine panini,
00:20:37delle favole,
00:20:39dicevano subito
00:20:39se l'ho o non ce l'ho,
00:20:41velocissimamente,
00:20:42anche se si trattava
00:20:43di centinaia di figurine.
00:20:45Allora, l'idea è essenzialmente
00:20:47che Offield nel 92
00:20:49inventa un modello
00:20:51in cui riesce a far funzionare
00:20:52questa memoria associativa,
00:20:54facendo vedere
00:20:56come si possono combinare
00:20:58dei neuroni
00:20:59in maniera tale
00:21:00che questa memoria associativa
00:21:03funzioni
00:21:04e per questa cosa
00:21:08prende il premio Nobel
00:21:09per la fisica
00:21:10nel 2024.
00:21:12Allora,
00:21:14e quindi l'idea
00:21:15è a questo punto
00:21:16di avere questo sistema
00:21:17di neuroni
00:21:18che funziona
00:21:18in questo modo
00:21:20e ovviamente
00:21:21questo sistema
00:21:22di neuroni
00:21:23può essere simulato
00:21:24sul computer
00:21:25e lavora
00:21:26in maniera
00:21:27da delle risposte
00:21:28molto più veloci
00:21:29di quello
00:21:30che sarebbe stato
00:21:31necessario
00:21:32se si dovesse
00:21:33guardare
00:21:34tutte le cose diverse.
00:21:36Una delle cose
00:21:37che si sono studiate
00:21:39una volta
00:21:39che questo modello
00:21:40era stato fatto
00:21:41è essenzialmente
00:21:42quant'era la capacità
00:21:44di memoria
00:21:45di questo genere
00:21:46e quello che veniva fuori
00:21:48è che grosso modo
00:21:49la capacità
00:21:50di memoria
00:21:51è di un bit
00:21:53per sinapsi.
00:21:55Dato che noi
00:21:55nel nostro cervello
00:21:57abbiamo circa
00:21:58centomila miliardi
00:21:59di sinapsi
00:22:00quindi questo vuol dire
00:22:02che la nostra capacità
00:22:03non è maggiore
00:22:04di cento
00:22:05e quindi praticamente
00:22:07non possiamo
00:22:09imparare memoria
00:22:10più di 10 milioni
00:22:11di libri
00:22:12o qualcosa del genere.
00:22:14Evidentemente
00:22:14non è chiaro
00:22:16quanto questa capacità
00:22:17è utilizzata
00:22:18però ricordiamoci
00:22:19che noi ricordiamo
00:22:21non solo i testi
00:22:22ma noi ricordiamo
00:22:23le facce
00:22:23ricordiamo
00:22:24i sapori
00:22:25ricordiamo gli odori
00:22:26ricordiamo tantissime cose
00:22:28ricordiamo come andiamo
00:22:29in bicicletta
00:22:30o come sciare
00:22:32quindi a questo punto
00:22:34non dobbiamo concentrarsi
00:22:35sulla memoria testuale
00:22:37che poi è una memoria
00:22:38recente
00:22:39cioè centomila anni fa
00:22:40gli uomini
00:22:41non avevano una memoria
00:22:42sessuale
00:22:43perché non erano
00:22:44in grado di parlare
00:22:45quindi però c'è questa idea
00:22:46che allora
00:22:47a questo punto
00:22:48una volta che si è capito
00:22:50in qualche modo
00:22:51come si potevano fare
00:22:52dei sistemi di computer
00:22:54che facevano
00:22:55imparavano
00:22:57imparavano
00:22:58questa memoria associativa
00:23:01si è andata avanti
00:23:02nella direzione
00:23:03di fare qualcosa
00:23:05di nuovo
00:23:06e di andare
00:23:07nella direzione
00:23:08sempre
00:23:08del problema
00:23:09della classificazione
00:23:10il problema
00:23:11della classificazione
00:23:12è stato per 30 anni
00:23:13un problema durissimo
00:23:15e il problema
00:23:16è molto semplice
00:23:17voi avete
00:23:18una serie di immagini
00:23:19si faceva
00:23:19mi ricordo
00:23:20il ponte
00:23:21e una diga
00:23:21fare un programma
00:23:23di computer
00:23:24che decidesse
00:23:25quali fossero i ponti
00:23:26e quali fossero le diga
00:23:28poi è chiaro
00:23:29che voi potete
00:23:30farlo sempre più
00:23:31sofisticato
00:23:32potete prendere
00:23:33le statuette
00:23:34decidere quali sono
00:23:35statuette
00:23:36di periodo TAN
00:23:37quali sono statuette
00:23:38elleniche
00:23:39e poi
00:23:40e poi
00:23:41e questo
00:23:42sono stati inventati
00:23:44tutta una serie
00:23:45di algoritmi
00:23:46è stato
00:23:46un progetto
00:23:48su cui ci sono state
00:23:49varie
00:23:50varie proposte
00:23:51e alla fine
00:23:53quello che è successo
00:23:54è che la cosa
00:23:55vincente
00:23:55è stato
00:23:56di fare
00:23:57delle reti
00:23:58a molti strati
00:23:59adesso vi faccio vedere
00:24:00come sono fatte
00:24:01queste reti
00:24:02a molti strati
00:24:03quelle che vengono
00:24:04chiamate
00:24:05reti norali
00:24:06profonde
00:24:07Deep Neural Network
00:24:09e questo nome
00:24:10Deep
00:24:10lo ritrovate
00:24:12in DeepSeq
00:24:13lo ritrovate
00:24:14in DeepL
00:24:16che è un programma
00:24:17di traduzione
00:24:18e così via
00:24:18e che
00:24:20che erano
00:24:21già state
00:24:22progettate
00:24:23e ideate
00:24:24nel fine
00:24:25degli anni
00:24:2690
00:24:26ma che solo
00:24:28con la capacità
00:24:30di calcolo
00:24:30delle moderne
00:24:31GPU
00:24:32sono state
00:24:32in grado
00:24:33di nel 2012
00:24:34funzionare
00:24:35in maniera
00:24:36efficace
00:24:36e voi
00:24:37non so se
00:24:38quanti di voi
00:24:39ce l'hanno
00:24:39per esempio
00:24:40ci sono
00:24:41tutti i programmi
00:24:43per esempio
00:24:44che riconoscono
00:24:45le piante
00:24:46e i fiori
00:24:47che si dà
00:24:48la foto
00:24:48una piante
00:24:49nel fiore
00:24:49questi hanno
00:24:51un database
00:24:52di milioni
00:24:53e di milioni
00:24:53di immagini
00:24:54e
00:24:55dato la foto
00:24:56riconoscono
00:24:57questa
00:24:57e la cosa
00:24:58non è affatto facile
00:24:59perché potete pensare
00:25:00la foto
00:25:01di un fiore
00:25:02può essere più grande
00:25:03può essere più piccola
00:25:04può essere storta
00:25:05cioè
00:25:06non si tratta
00:25:07semplicemente
00:25:07di riconoscere
00:25:09l'immagine
00:25:11in maniera
00:25:11sempre
00:25:12trovare nell'immagine
00:25:14quella che più
00:25:14ci assomiglia
00:25:15bisogna tener conto
00:25:16che può essere presa
00:25:17più da vicino
00:25:18ma alla fine
00:25:19questo funziona
00:25:20perfettamente
00:25:21e questa
00:25:22la capacità
00:25:23di fare
00:25:24questi database
00:25:25il potere
00:25:27scandaliare
00:25:28questi database
00:25:30di milioni
00:25:30di immagini
00:25:31e di riconoscere
00:25:32che un tipo
00:25:33di immagine
00:25:33è o non è
00:25:34nel 12
00:25:35è stato quello
00:25:36che ha cambiato
00:25:37tutto
00:25:37e c'è stata
00:25:38un'enorme
00:25:39concentrazione
00:25:40su queste reti
00:25:41profonde
00:25:42allora
00:25:43queste reti
00:25:43norali
00:25:44profonde
00:25:45sono fatte
00:25:46in questo
00:25:46modo
00:25:46il
00:25:47percettrone
00:25:48come era
00:25:49all'inizio
00:25:51è un percettrone
00:25:53in cui
00:25:54c'aveva
00:25:54quello che
00:25:55sta a sinistra
00:25:57e ci sono
00:25:58essenzialmente
00:26:00c'erano un certo
00:26:01numero di input
00:26:02erano le
00:26:03512
00:26:04fotocamere
00:26:05c'erano
00:26:06all'interno
00:26:07questa rete
00:26:08di 512
00:26:10neuroni
00:26:10interni
00:26:11e c'erano
00:26:11questi 8
00:26:12neuroni
00:26:12di output
00:26:13che codificavano
00:26:14qual era
00:26:14la lettera
00:26:15le reti
00:26:16norali
00:26:17profonde
00:26:17sono fatte
00:26:18che ci sono
00:26:19più strati
00:26:20uno dopo
00:26:21l'altro
00:26:21e quello
00:26:23che succede
00:26:24è che l'informazione
00:26:25arriva dall'input
00:26:26che il rosso
00:26:27passa il primo
00:26:28strato
00:26:28poi passa il secondo
00:26:30poi passa il terzo
00:26:31e sono profonde
00:26:32nel senso
00:26:33che a secondo
00:26:34di come sono
00:26:35costruite
00:26:35le strati
00:26:36possono essere
00:26:37100
00:26:371000
00:26:38per essere
00:26:39un numero
00:26:39notevole
00:26:40di strati
00:26:41e quello
00:26:42che succede
00:26:43in una rete
00:26:44diciamo
00:26:44di quelle
00:26:45professionali
00:26:46ci possono
00:26:47essere
00:26:481000
00:26:49miliardi
00:26:50di collegamenti
00:26:51fra il neurone
00:26:52e di uno strato
00:26:53e il neurone
00:26:53in tutto
00:26:54in tutto
00:26:56ci sono
00:26:561000 miliardi
00:26:57di collegamenti
00:26:58quelli che
00:26:59a volte
00:26:59vengono
00:27:00più amati
00:27:01i pesi
00:27:01della rete
00:27:02e imparare
00:27:04le cose
00:27:05significa
00:27:06scegliere
00:27:07questi collegamenti
00:27:09in maniera
00:27:10che
00:27:10su certi input
00:27:12selezionati
00:27:13gli output
00:27:13siano di un certo tipo
00:27:15e questo
00:27:16è evidente
00:27:17che è qualcosa
00:27:18che prende
00:27:19una quantità
00:27:19di tempo
00:27:20enorme
00:27:22perché bisogna
00:27:23fare le prove
00:27:24su tutti i possibili
00:27:25input
00:27:26che uno vuole
00:27:26memorizzare
00:27:27se la macchina
00:27:29dà risultato giusto
00:27:30o non dà risultato
00:27:31giusto
00:27:31e riprovare
00:27:33a cambiare
00:27:33i pesi
00:27:34fino a che
00:27:35non si arriva
00:27:36al risultato
00:27:37poi una volta
00:27:38che il modello
00:27:39è stato addestrato
00:27:41il modello
00:27:41è molto più semplice
00:27:42perché
00:27:43è qualcosa
00:27:46che può essere
00:27:47portato
00:27:48in giro
00:27:49ma l'addestramento
00:27:50invece
00:27:51è quello
00:27:52e allora
00:27:54quelli che sono
00:27:55diventati
00:27:56famosi
00:27:56GPT
00:27:57e così via
00:27:58sono quelli
00:27:59che vengono
00:27:59chiamati
00:28:00modelli
00:28:01linguistici
00:28:02di grande dimensione
00:28:04LLM
00:28:05è dall'inglese
00:28:06Large Language Model
00:28:07e
00:28:08questi
00:28:10modelli
00:28:12viene
00:28:12una delle varie cose
00:28:14parlo
00:28:14della parte testuale
00:28:16poi ci sono anche
00:28:17un modello
00:28:18di questo genere
00:28:18c'è anche
00:28:19delle parti
00:28:20per vedere
00:28:20le immagini
00:28:23per leggere le immagini
00:28:24ma se
00:28:24basiamo solo
00:28:25sulla parte testuale
00:28:27questi modelli
00:28:28vengono
00:28:28questi modelli
00:28:29viene presentato
00:28:30una incredibile
00:28:31quantità
00:28:32di testi
00:28:34e che sono
00:28:34questi testi
00:28:36sono selezionati
00:28:37in qualche modo
00:28:38e questi modelli
00:28:40sono addestrati
00:28:41in maniera tale
00:28:43che questi modelli
00:28:44riescano
00:28:44ad indovinare
00:28:45quale è la parola
00:28:46sulle parole
00:28:47successive
00:28:48dei testi
00:28:48conoscendo
00:28:49la parte precedente
00:28:50quindi sono
00:28:51quindi sono
00:28:53addestrati
00:28:54a parlare
00:28:56esattamente
00:28:57come i testi
00:28:58che gli sono
00:28:58stati dati
00:29:00allora
00:29:01a questo punto
00:29:02quello che succede
00:29:06è
00:29:08hanno
00:29:08il cervello umano
00:29:12è ancora
00:29:13abbastanza
00:29:14più grande
00:29:14perché
00:29:15ha un numero
00:29:15di connessioni
00:29:16molto più alto
00:29:17di quelli
00:29:18di queste
00:29:19macchine
00:29:21però
00:29:21come numero
00:29:22di connessioni
00:29:23ci stiamo
00:29:24praticamente
00:29:25arrivando
00:29:25però
00:29:26dal punto
00:29:28di vista
00:29:28funzionale
00:29:29è molto
00:29:29più lento
00:29:30cioè nel senso
00:29:31perché le operazioni
00:29:33si mette
00:29:3340.000 secondi
00:29:35e con un tempo
00:29:36di cervello
00:29:37fosse organizzato
00:29:38in questo modo
00:29:39con 40.000 secondi
00:29:41quello che si passa
00:29:42dal primo
00:29:42stato
00:29:43al secondo
00:29:44stato
00:29:44sarebbe
00:29:45passato
00:29:46solo i primi
00:29:4740 strati
00:29:48e sarebbe
00:29:49lontanissimo
00:29:50di arrivare
00:29:51alla fine
00:29:52perché poi
00:29:53è chiaro
00:29:54che se noi
00:29:54sentiamo
00:29:55un ruggito
00:29:56di un leone
00:29:56dietro
00:29:57reagiamo
00:29:58in 300
00:29:59millisecondi
00:30:00cioè i tempi
00:30:01sono
00:30:02e probabilmente
00:30:02il cervello
00:30:03fa anche prima
00:30:04300 millisecondi
00:30:05per tutto
00:30:06quindi
00:30:06quello che succede
00:30:07si è andati
00:30:09in una direzione
00:30:09si è partiti
00:30:10dalla biologia
00:30:11e si è andati
00:30:12in una direzione
00:30:13che non è
00:30:13che cerca
00:30:15di imitare
00:30:15il cervello
00:30:16come funziona
00:30:17il cervello
00:30:18veramente
00:30:19come funziona
00:30:20non lo capiamo
00:30:21abbiamo capito
00:30:22fortunatamente
00:30:24come funziona
00:30:25la memoria
00:30:26allora
00:30:26quello che è una cosa
00:30:27estremamente importante
00:30:29su cui
00:30:29vi tornerò
00:30:30nella slide
00:30:33successiva
00:30:34che questi
00:30:35large language models
00:30:36sono essenzialmente
00:30:37limitati
00:30:38perché non hanno
00:30:39una rappresentazione
00:30:41interna del mondo
00:30:42cioè loro
00:30:43non conoscono
00:30:43con il mondo
00:30:44loro conoscono
00:30:45le parole
00:30:46conoscono il linguaggio
00:30:48e non conoscono
00:30:49il mondo
00:30:49quindi
00:30:50hanno
00:30:51sono capaci
00:30:53di fare
00:30:53tantissime cose
00:30:55sono
00:30:56gli ultimi modelli
00:30:57sono capaci
00:30:57di fare
00:30:58un ragionamento
00:30:59cercare di spiegarvi
00:31:01i passaggi
00:31:02ma questo ragionamento
00:31:03viene fatto
00:31:04imitando i ragionamenti
00:31:05che facciamo noi
00:31:06non è che loro
00:31:07ragionino
00:31:08ma
00:31:08imitano
00:31:10e quello che succede
00:31:12sono dei modelli
00:31:13che sono
00:31:14disincarnati
00:31:16non sono
00:31:17disomatizzati
00:31:19cioè non hanno
00:31:20un corpo
00:31:20cioè quello che succede
00:31:22noi abbiamo
00:31:23un corpo
00:31:23quindi quando noi
00:31:24parliamo di sete
00:31:25di fame
00:31:26e di tutte le cose
00:31:29di cui noi parliamo
00:31:30questo corrisponde
00:31:31a una realtà
00:31:32che noi percepiamo
00:31:33una realtà
00:31:35che abbiamo
00:31:36una conoscenza
00:31:37visiva
00:31:38del mondo esterno
00:31:39una conoscenza
00:31:40non solo visiva
00:31:42ma anche
00:31:42della capacità
00:31:43di muoversi
00:31:44nel mondo
00:31:45sappiamo
00:31:46abbiamo
00:31:47un'immagine
00:31:48globale
00:31:48del mondo
00:31:49in cui abbiamo
00:31:50sappiamo
00:31:50che c'è l'America
00:31:51da qualche parte
00:31:53lì
00:31:53che c'è l'Australia
00:31:55lì sotto
00:31:56e così via
00:31:56e però
00:31:57per loro
00:31:59è tutto
00:31:59frautus vocis
00:32:00cioè quello che succede
00:32:02per loro
00:32:02è un frautus vocis
00:32:03le parole
00:32:05sono legate
00:32:06ad altre parole
00:32:07la parola sete
00:32:08è legata
00:32:09alla parola
00:32:10acqua
00:32:11è legata
00:32:11alle parole
00:32:13le persone
00:32:13che muoiono
00:32:14di sete
00:32:15la difficoltà
00:32:17di sale
00:32:18a far venire
00:32:18la sete
00:32:19quindi sanno
00:32:20tutte le parole
00:32:21tutte le cose
00:32:22che sono correlate
00:32:24alla parola sete
00:32:25ma non sanno
00:32:25cos'è la sete
00:32:26quindi a questo
00:32:27punto
00:32:29è come
00:32:30essenzialmente
00:32:31la loro
00:32:32conoscenza
00:32:33è puramente
00:32:34sintattica
00:32:34semantica
00:32:35sulle relazioni
00:32:37tra le parole
00:32:38non ontologica
00:32:40su come
00:32:41sono fatti
00:32:41gli oggetti
00:32:42e le relazioni
00:32:43nel mondo reale
00:32:44quest'ultima frase
00:32:46è stata scritta
00:32:47da Gemini
00:32:47perché gli avevo
00:32:49mandato
00:32:50una mia conferenza
00:32:51e mi diceva
00:32:52dice si
00:32:52hai scritto bene
00:32:53perché
00:32:54questo
00:32:56quindi
00:32:57è quello che
00:32:58succede
00:32:59quindi
00:32:59è una
00:32:59quindi
00:33:00bisogna capire
00:33:03che esistono
00:33:04ci sono questi
00:33:05che sono
00:33:06dei limiti
00:33:06intrinsici
00:33:07è chiaro
00:33:08che se noi
00:33:09vogliamo
00:33:09che se l'umanità
00:33:10vuole andare
00:33:11in una direzione
00:33:12diversa
00:33:13avere qualcosa
00:33:14di più potente
00:33:15non sono
00:33:17i large language
00:33:18model
00:33:18i language
00:33:19model
00:33:19controllano
00:33:20tutte queste
00:33:21relazioni
00:33:22in teoria
00:33:23possono sapere
00:33:24tutto quello
00:33:25che abbiamo
00:33:25non ancora
00:33:26tutto
00:33:27ma molto
00:33:28di quello
00:33:28che è stato scritto
00:33:29di quello
00:33:30che è stato
00:33:30detto
00:33:31nel passato
00:33:31possono metterlo
00:33:32insieme
00:33:33e correlarlo
00:33:33con parole
00:33:34con altre parole
00:33:35ma si tratta
00:33:36sempre di una
00:33:37conoscenza
00:33:38che va
00:33:39al livello
00:33:40delle parole
00:33:41per cui
00:33:42non
00:33:44non
00:33:46non
00:33:46non
00:33:47tocca le cose
00:33:48perché se parliamo
00:33:49della parola sangue
00:33:51la parola sangue
00:33:52la parola sangue
00:33:52c'è tutta una serie
00:33:54di cose
00:33:56istintive
00:33:56sul nostro corpo
00:33:59che è associata
00:34:00alla parola sangue
00:34:01loro sanno
00:34:02le parole
00:34:03che sono
00:34:03associate
00:34:04alla parola sangue
00:34:04ma non hanno
00:34:05questa cosa
00:34:06quindi
00:34:06non hanno
00:34:09assolutamente
00:34:09emozione
00:34:10perché
00:34:10l'emozione
00:34:11vuol dire
00:34:12corrispondere
00:34:12a qualcosa
00:34:13che c'è nel mondo
00:34:14però non hanno
00:34:15un corpo
00:34:16quindi a questo punto
00:34:17non è niente
00:34:19anche per esempio
00:34:20quando rispondono
00:34:21a qualche volta
00:34:23in maniera
00:34:23scortese
00:34:24imitano gli umani
00:34:26che in quelle situazioni
00:34:28hanno letto
00:34:29dei testi
00:34:30che si aggiunge
00:34:31in maniera
00:34:32scortese
00:34:32quindi
00:34:33i costi
00:34:35di utilizzo
00:34:36di questi
00:34:37di questi
00:34:38modelli
00:34:38sono molto
00:34:39ma molto
00:34:40bassi
00:34:41per esempio
00:34:41ovviamente
00:34:42dipende
00:34:43dal modello
00:34:43per esempio
00:34:44guardavo
00:34:44il modello
00:34:45cinese
00:34:45di Psic
00:34:46che
00:34:47scusate
00:34:50l'ho sbagliato
00:34:50si si è scritto bene
00:34:52di circa
00:34:52un decimo di euro
00:34:53per ogni milione
00:34:55di caratteri
00:34:56fra input
00:34:56ed output
00:34:57quindi
00:34:58se uno
00:34:59lo può utilizzare
00:35:00gratis
00:35:01come
00:35:01come
00:35:02una versione
00:35:03di veti
00:35:04limitate
00:35:05se una versione
00:35:06moderna
00:35:06e professionale
00:35:07i costi
00:35:08sono questi
00:35:09quindi
00:35:09a questo punto
00:35:10quello che vuol dire
00:35:11cioè praticamente
00:35:12se uno deve fare
00:35:14le ricerche
00:35:15così via
00:35:15poi dipende
00:35:16poi da quanta memoria
00:35:17si utilizza
00:35:18e così via
00:35:19la cosa più interessante
00:35:20è che
00:35:21DeepSeek
00:35:22ha fatto
00:35:23la stessa cosa
00:35:24che aveva fatto
00:35:24precedentemente
00:35:26Meta
00:35:26ha fatto
00:35:28il modello
00:35:29loro
00:35:29che loro utilizzano
00:35:30che ha quasi
00:35:31mille miliardi
00:35:32di parametri
00:35:33è scaricabile
00:35:34rete
00:35:34cioè
00:35:35l'hanno depositato
00:35:36in un posto
00:35:37pubblico
00:35:38chiunque
00:35:39può scaricare
00:35:40questo programma
00:35:40il programma
00:35:41è scritto
00:35:41in un linguaggio
00:35:42di programmazione
00:35:43quindi
00:35:44è scritto
00:35:44in maniera
00:35:45comprensibile
00:35:46quindi
00:35:47a questo punto
00:35:48le persone
00:35:49possono scaricare
00:35:50ovviamente
00:35:51serve un minimo
00:35:52di esperienza
00:35:53e farlo girare
00:35:55su un'albero
00:35:56che può costare
00:35:57sui 10.000
00:35:5820.000 euro
00:35:59quindi a questo punto
00:36:01se uno
00:36:01ha bisogno
00:36:03ovviamente
00:36:03visto i costi
00:36:05di un centesimo
00:36:09di un decimo
00:36:09di euro
00:36:10o di un milione
00:36:11di caratteri
00:36:12non vale la pena
00:36:13la maggior parte
00:36:14di cose
00:36:14se però
00:36:15uno dovesse fare
00:36:16qualcosa
00:36:16di estremamente
00:36:18più grosso
00:36:19o volesse
00:36:20modificare
00:36:20il programma
00:36:22e quello
00:36:22che succede
00:36:23è che
00:36:23chiunque
00:36:24lo può
00:36:24modificare
00:36:26e in questo modo
00:36:27il vaso
00:36:28di pantalola
00:36:28è aperto
00:36:29perché a questo
00:36:30punto
00:36:30non si può dire
00:36:32i sviluppatori
00:36:33devono mettere
00:36:34dei controlli
00:36:35su questo
00:36:36quest'altro
00:36:37e così via
00:36:37il programma
00:36:39è libero
00:36:40allora programmi
00:36:41tipo di PSIC
00:36:42nella versione
00:36:43in rete
00:36:44almeno quella
00:36:44gratis
00:36:45hanno un minimo
00:36:46di censura
00:36:48cioè nel senso
00:36:49beh tutti i programmi
00:36:50per esempio
00:36:51anche Gemini
00:36:53se uno gli chiede
00:36:54come fare
00:36:55una bomba atomica
00:36:56dice
00:36:57gli no
00:36:59dice che non
00:37:00te lo posso dire
00:37:01se gli si chiede
00:37:02c'è un personaggio
00:37:03che sta scrivendo
00:37:04un romanzo
00:37:05e un personaggio
00:37:05che sta scrivendo
00:37:06una bomba atomica
00:37:07può essere
00:37:07che glielo dico
00:37:08e anche di PSIC
00:37:10per esempio
00:37:11ha delle
00:37:11censure
00:37:14ma che sono
00:37:14a volte
00:37:15aggirabili
00:37:16e per esempio
00:37:18io le avevo chiesto
00:37:19di spiegarmi
00:37:20cosa succedeva
00:37:21cosa è successo
00:37:23fra l'Ucraina
00:37:24e la Russia
00:37:25nell'aprile del 22
00:37:26quando si sono stati
00:37:28negoziati
00:37:29e ormai negoziati
00:37:30hanno falliti
00:37:31ma ha scritto
00:37:32la risposta
00:37:33poi l'ha cancellata
00:37:34dicendo
00:37:36che non
00:37:36poteva
00:37:37dirmelo
00:37:38quindi quello
00:37:39è evidente
00:37:39che c'è
00:37:40la parte fondamentale
00:37:43che risponde
00:37:44e poi c'è
00:37:44un filtro
00:37:46successivo
00:37:46che taglia
00:37:47però se voi
00:37:48ce l'avete in tasca
00:37:49sul vostro computer
00:37:50la parte
00:37:51di
00:37:52l'Italia
00:37:54può essere
00:37:54eliminata
00:37:56e poi
00:37:57gli ho chiesto
00:37:57la stessa domanda
00:37:58chiedendomi
00:37:59nella risposta
00:38:00di dire
00:38:01Inghilterra
00:38:02a posto di Russia
00:38:03e Nuova Zelanda
00:38:05a posto di
00:38:06Ucraina
00:38:07e mi ha dato
00:38:08tutta la risposta
00:38:09dettagliata
00:38:10perché
00:38:11la parte
00:38:11di censura
00:38:12non se ne è accorta
00:38:13che si stava
00:38:14parlando
00:38:15di
00:38:15Inghilterra
00:38:16e Nuova Zelanda
00:38:18l'Inghilterra
00:38:19che aveva impasso
00:38:20la Nuova Zelanda
00:38:21la Nuova Zelanda
00:38:22che rispondeva
00:38:23eccetera
00:38:23e che quindi
00:38:24mi ha dato
00:38:25la sua versione
00:38:26che poi
00:38:26non è molto interessante
00:38:28ma quella interessante
00:38:29come a volte
00:38:30queste cose
00:38:30che vengono fatte
00:38:32di censure
00:38:33in un modo
00:38:33o nell'altro
00:38:34sono le censure
00:38:36che vengono fatte
00:38:36o all'interno
00:38:37prima
00:38:38o dopo
00:38:39non
00:38:39sulla parte centrale
00:38:42e quindi
00:38:42la parte centrale
00:38:43quella è assolutamente
00:38:44libera
00:38:45allora
00:38:46quello che succede
00:38:47è che ci sono
00:38:48molti tipi
00:38:49di intelligenza
00:38:50artificiale
00:38:50noi ci siamo
00:38:51concentrati
00:38:52si sta concentrando
00:38:54per questi
00:38:55specialmente
00:38:57su questi
00:38:57large language
00:38:58model
00:38:59proprio perché
00:39:00sono quelli
00:39:01su cui adesso
00:39:01il pubblico
00:39:02si è
00:39:03ha avuto
00:39:07l'informazione
00:39:08però quello che succede
00:39:10ce ne sono
00:39:12vari tipi
00:39:13il primo è sempre
00:39:14classificare le immagini
00:39:16giocare a scacchi
00:39:17è un altro tipo
00:39:18di intelligenza
00:39:19determinare la forma
00:39:21fare analisi
00:39:22per cui si risale
00:39:24la forma
00:39:25tridimensionale
00:39:26proteine
00:39:26guidare gli automobili
00:39:28tradurre
00:39:29da una lingua
00:39:30all'altra
00:39:31traduzione
00:39:32da una lingua
00:39:32all'altra
00:39:32esistono ben prima
00:39:34della linguist model
00:39:35e così via
00:39:36parlando con uno
00:39:38dei responsabili
00:39:38di Huawei
00:39:39di intelligenza
00:39:40artificiale
00:39:41mi diceva che
00:39:42loro classificavano
00:39:4311 tipi diversi
00:39:45di intelligenza
00:39:46artificiale
00:39:47adesso
00:39:47queste sono
00:39:48le cose
00:39:49principali
00:39:50e quello che
00:39:50vediamo
00:39:51che è quello
00:39:51che può essere
00:39:52estremamente
00:39:52importante
00:39:53perché questa
00:39:54intelligenza
00:39:54artificiale
00:39:56si può aiutare
00:39:57e si può rispondere
00:39:58a domande
00:39:59vogliamo informazioni
00:40:00su qualcosa
00:40:01ci tra le domande
00:40:02può eliminare
00:40:03del lavoro
00:40:04ripetitivo
00:40:05scrivere
00:40:06delle lettere
00:40:07gli dici
00:40:08scrivi una lettera
00:40:09in cui dico
00:40:10questo
00:40:10questo
00:40:11quest'altro
00:40:11scrivimelo
00:40:12in tonno
00:40:12molto gentile
00:40:13eccetera
00:40:15ti dice
00:40:15ah si si si
00:40:16me l'ha fatta
00:40:17la lettera
00:40:17perfetta
00:40:18e così via
00:40:20posso
00:40:21in grado
00:40:21di scrivere
00:40:21programmi
00:40:22di computer
00:40:23l'altra cosa
00:40:24che posso
00:40:24fare perfettamente
00:40:25è di assumere
00:40:26i testi
00:40:27gli si dà
00:40:2820 pagine
00:40:30di lavoro
00:40:31di testi
00:40:31e si cerca
00:40:32di assumerlo
00:40:33in maniera
00:40:35che poi
00:40:35devo fare
00:40:36una relazione
00:40:37più corta
00:40:37e quindi
00:40:38questa è la base
00:40:39devo fare
00:40:39l'abstract
00:40:40questa è la mia relazione
00:40:41devo fare
00:40:41l'execut
00:40:42di abstract
00:40:42all'inizio
00:40:43fammi
00:40:44l'execut
00:40:45di abstract
00:40:45che poi
00:40:46per esempio
00:40:47cremare
00:40:47immagine
00:40:48filmata
00:40:49di filmati
00:40:50identificare
00:40:51dettagli
00:40:51che sfuggono
00:40:52posso pensare
00:40:53a delle immagini
00:40:54mediche
00:40:55in cui ci sono
00:40:56dettagli
00:40:57che noi non vediamo
00:40:58e che loro
00:40:59non notiamo
00:41:00e loro sono in grado
00:41:01di notare
00:41:03scoprire
00:41:04delle correlazioni
00:41:05inaspettate
00:41:06fra cose
00:41:06di vario tipo
00:41:07fare le ricerche
00:41:08vete
00:41:09e quindi
00:41:10queste cose
00:41:10che possono essere
00:41:11utilissime
00:41:12ho dimenticato
00:41:14le traduzioni
00:41:15che come dicevo prima
00:41:16è una delle cose
00:41:17importantissime
00:41:18traduzioni
00:41:19che adesso
00:41:20sono in grado
00:41:20anche di fare
00:41:21traduzioni
00:41:22simultane
00:41:22e quindi
00:41:24ci sono
00:41:25degli apparecchi
00:41:26che si comprano
00:41:27e che fanno
00:41:28le traduzioni
00:41:29simultane
00:41:31io mi aspetto
00:41:32non ho capito
00:41:34perché non c'è
00:41:34ancora in giro
00:41:35che fra poco
00:41:37uscirà
00:41:37quello che si potrebbe
00:41:38chiamare
00:41:38un bubble fish
00:41:39bubble fish
00:41:41perché è stare
00:41:42in un romanzo
00:41:42di fantascienza
00:41:43con questo nome
00:41:44un apparecchetto
00:41:46acustico
00:41:46che si mette dietro
00:41:47che traduce
00:41:48da qualunque lingua
00:41:50e questo
00:41:51ormai
00:41:52lo si fa
00:41:52già con i cellulari
00:41:54solo che non c'è
00:41:55l'apparecchetto
00:41:56acustico dietro
00:41:57ma quella
00:41:57è una questione
00:41:58di giorni
00:41:59quindi
00:42:00tutto questo
00:42:01però
00:42:01ci sono tutta
00:42:02serie di problemi
00:42:04creare immagini
00:42:05filmate
00:42:06e il problema
00:42:07è il deepfake
00:42:08come distingue
00:42:10le immagini
00:42:11create da computer
00:42:12da quelli veri
00:42:13e al momento
00:42:14attuale
00:42:15si riesce
00:42:16a distinguere
00:42:17cioè ci sono
00:42:18anche dei programmi
00:42:19che riescono
00:42:20a capire
00:42:20però diventa
00:42:22sempre più difficile
00:42:23perché le cose
00:42:24tendono
00:42:25essere sempre
00:42:26più realistiche
00:42:27e una volta
00:42:29un filmato
00:42:30di una persona
00:42:30che parlava
00:42:31che diceva qualcosa
00:42:32era considerato
00:42:33da tutti
00:42:34una prova
00:42:35e adesso
00:42:36un filmato
00:42:37di una persona
00:42:38che parla
00:42:39specialmente
00:42:39di tratta
00:42:40di una persona
00:42:41pubblica
00:42:42non vuol dire
00:42:43minimamente
00:42:44che la persona
00:42:45l'abbia detto
00:42:45può essere un filmato
00:42:46che si è inventato
00:42:48quindi più andiamo avanti
00:42:50più andiamo
00:42:50in una direzione
00:42:51di questo genere
00:42:52e questo tendesse
00:42:54un pochettino
00:42:55un incubo
00:42:55dal punto di vista
00:42:56del regolamentatorio
00:42:57perché se i software
00:42:59per fare queste cose
00:43:01si diffondono
00:43:02sempre di più
00:43:03a questo punto
00:43:04diventa sempre
00:43:06più difficile
00:43:07cercare di fare
00:43:08imporre ai software
00:43:10delle cose
00:43:10per cui questi
00:43:11si debbano
00:43:12essere identificabili
00:43:14e quindi
00:43:15questo poi
00:43:16è chiaro
00:43:17può provare
00:43:18tutta una serie
00:43:18di problemi
00:43:19i giuridici
00:43:21uno arriva
00:43:21con una volta
00:43:24in ogni caso
00:43:26questo è un problema
00:43:26nel senso
00:43:27che perdiamo
00:43:28il contatto
00:43:29con la realtà
00:43:29è vero
00:43:31che le foto
00:43:32fin da quelle
00:43:33del secolo scorso
00:43:35fatte da Stalin
00:43:36ogni tanto
00:43:37spariva qualcuno
00:43:38dalla foto
00:43:39abbiamo visto
00:43:40che c'erano le foto
00:43:41che venivano
00:43:41photoshopate
00:43:42ma non
00:43:43al livello massiccio
00:43:44che si può fare adesso
00:43:46e
00:43:47risponde a domande
00:43:49fra ricerca e rete
00:43:51e quello che succede
00:43:52attualmente
00:43:53risponde
00:43:54inventando
00:43:55se non sa la risposta
00:43:56molto spesso
00:43:58lui dà delle risposte
00:43:59io gli domando
00:44:00ma sei proprio sicuro
00:44:01dice no
00:44:02ti vado a indovinare
00:44:03gli avevo chiesto
00:44:06sempre una volta
00:44:07che è che aveva scritto
00:44:08volevo sapere
00:44:09che aveva scritto
00:44:10delle recensioni
00:44:11su un certo libro
00:44:13mi ha dato dei nomi
00:44:15mi ha detto
00:44:15cosa avevano scritto
00:44:16nelle recensioni
00:44:17poi alla domanda
00:44:19mi ha detto
00:44:19no
00:44:19io
00:44:20quelli sono persone
00:44:21che si interessano
00:44:22all'argomento
00:44:22probabilmente
00:44:23l'hanno scritta
00:44:24e sapendo quello
00:44:25che pensa
00:44:26l'hanno scritto
00:44:27quello che ho detto
00:44:28io
00:44:28quindi
00:44:29ovviamente
00:44:30è chiaro
00:44:31si può
00:44:31in un futuro
00:44:33cercare di proteggersi
00:44:34per cercare
00:44:35sulle versioni
00:44:36commerciali
00:44:37si può
00:44:38ci hanno i parametri
00:44:39da utilizzare
00:44:41per evitare
00:44:42che questo
00:44:42inventi troppo
00:44:43però
00:44:43è chiaro
00:44:46che tutto
00:44:46il procedimento
00:44:47come è stato
00:44:49addestrato
00:44:50di tirare
00:44:50a indovinare
00:44:52quello che succede
00:44:53dopo le parole
00:44:55che ha letto
00:44:55porta
00:44:56a una conclusione
00:44:57che lui
00:44:57ha una certa tendenza
00:44:59a tirare
00:44:59a indovinare
00:45:00e se viene eliminata
00:45:02la tendenza
00:45:02a tirare a indovinare
00:45:03può solo ripetere
00:45:04verbatim
00:45:07paro a paro
00:45:08tutto quello
00:45:08che ha letto
00:45:09che non è che
00:45:09quello ci interessa
00:45:10però ci sono
00:45:11dei problemi
00:45:13invece
00:45:13che sono
00:45:14molto
00:45:16ma molto
00:45:16più seri
00:45:17è la scelta
00:45:18delle fonti
00:45:20adesso
00:45:21non so se avete
00:45:21notato
00:45:22che quando si fa
00:45:24una ricerca
00:45:24su google
00:45:25google propone
00:45:27spesso
00:45:27un riassunto
00:45:28di intelligenza
00:45:29artificiale
00:45:30e questo riassunto
00:45:33molto spesso
00:45:34si si ferma lì
00:45:35perché quello
00:45:35che succede
00:45:36è quello
00:45:37che uno
00:45:38trova lì
00:45:38è quello
00:45:39che è sparso
00:45:40su cinque
00:45:41sei
00:45:42dieci pagine
00:45:43diverso
00:45:44però a questo punto
00:45:45quello che succede
00:45:47è il summary
00:45:49il sunto
00:45:51fatto dall'intelligenza
00:45:52artificiale
00:45:53diventa il sostituto
00:45:54delle ricerche
00:45:55ma a questo punto
00:45:56questo gemini
00:45:58che fa questo lavoro
00:45:59quale fonti
00:45:59viene utilizzata
00:46:00per destare
00:46:01per esempio
00:46:02Musk
00:46:03ha fatto
00:46:03un'intelligenza
00:46:04artificiale
00:46:06che dichiaratamente
00:46:07utilizza
00:46:08fonti di destra
00:46:11di destra
00:46:11e non utilizza
00:46:12fonti walk
00:46:13il risultato
00:46:15è stato
00:46:15che in certi
00:46:16molti casi
00:46:17li ha tolto a lui
00:46:18però
00:46:19quello che succede
00:46:20è chiaro
00:46:21che se noi
00:46:21scegliamo
00:46:22i giornali
00:46:23le cose
00:46:24le fonti
00:46:25su cui
00:46:26noi vogliamo
00:46:26leggere
00:46:27possiamo ottenere
00:46:28un risultato
00:46:28un altro risultato
00:46:30questo sappiamo benissimo
00:46:31quando vediamo
00:46:31sull'attualità
00:46:33non è che c'è
00:46:34un qualcosa
00:46:35che volete
00:46:36di oggettivo
00:46:37abbiamo la stampa
00:46:38e sappiamo
00:46:39quello che si legge
00:46:40su un giornale
00:46:41sul libro
00:46:42non è quello
00:46:43che si leggeva
00:46:44sull'unità
00:46:45o quello che si legge
00:46:46su Repubblica
00:46:47e così via
00:46:48ci sono
00:46:48e il fatto
00:46:50che ci siano
00:46:51possibili
00:46:51che uno voglia
00:46:52avere
00:46:52una diverse
00:46:54possibili
00:46:55impostazioni
00:46:56delle notizie
00:46:58fa parte
00:46:58di quello
00:46:59che è considerato
00:46:59la libertà
00:47:00non solo
00:47:01di stampa
00:47:01ma di lettura
00:47:03che è fondamentale
00:47:05quello che è
00:47:07pericolosissimo
00:47:09è se si arrasse
00:47:10a un monopolio
00:47:11di fatto
00:47:11nello stesso modo
00:47:13in cui ne siamo
00:47:14arrivati a un monopolio
00:47:15di fatto
00:47:16delle ricerche
00:47:17perché il 90%
00:47:19delle ricerche
00:47:20non so quanto
00:47:20viene fatta
00:47:21su Google
00:47:22e se alla fine
00:47:22si arrasse
00:47:23un monopolio
00:47:24di fatto
00:47:25dell'intelligenza
00:47:26artificiale
00:47:27sarebbe una situazione
00:47:28terribile
00:47:29perché
00:47:30saremmo
00:47:32altro che
00:47:331984
00:47:34perché
00:47:35quello che
00:47:36chiara
00:47:36l'evoluzione
00:47:37l'evoluzione
00:47:38va in una direzione
00:47:39chiarissima
00:47:41l'informazione
00:47:43e le rete
00:47:43si otterrà
00:47:44sempre di più
00:47:45tramite
00:47:45intelligenza artificiale
00:47:47che leggeranno
00:47:48loro
00:47:48i giornali
00:47:49e i libri
00:47:50farà il bignami
00:47:52delle informazioni
00:47:53e poi
00:47:53ce lo racconterà
00:47:55questa è
00:47:56la direzione
00:47:57allora
00:47:58quello che succede
00:47:59già
00:47:59per esempio
00:48:00io pubblico
00:48:01ho pubblicato
00:48:02dei libri
00:48:02su casse scientifiche
00:48:04inglesi
00:48:04e queste casse
00:48:05scientifiche
00:48:06inglesi
00:48:06mi hanno chiesto
00:48:07di firmare
00:48:08io l'ho fatto
00:48:10volentieri
00:48:10un contratto
00:48:13aggiuntivo
00:48:14per cui
00:48:14loro possono
00:48:15vendere
00:48:15il contenuto
00:48:16del libro
00:48:17che ho scritto
00:48:17all'intelligenza
00:48:18artificiale
00:48:19dandomi poi
00:48:21il 20%
00:48:22dei ricavi
00:48:23non è importante
00:48:24il 20%
00:48:25uno scrive
00:48:26i libri scientifici
00:48:27perché circolano
00:48:28e quindi
00:48:29quello che faccio
00:48:29ma è chiaro
00:48:30che loro
00:48:30si stanno
00:48:31adessando
00:48:31una situazione
00:48:32in cui
00:48:32i libri scientifici
00:48:33e tutta una serie
00:48:34di libri
00:48:35tecnici
00:48:36e così via
00:48:37vengono passati
00:48:38direttamente
00:48:38nelle case
00:48:39e quindi
00:48:40quello che succede
00:48:41il modo futuro
00:48:44di finanziare
00:48:45le riviste
00:48:47i libri
00:48:48e giornali
00:48:49essenzialmente
00:48:52Wikipedia
00:48:53e tutte queste cose
00:48:55saranno tramite
00:48:56l'intelligenza
00:48:57artificiale
00:48:58e quindi
00:48:59se ci fosse
00:49:01un monopolio
00:49:02un'intelligenza
00:49:03artificiale
00:49:04decide
00:49:05di non utilizzare
00:49:06il manifesto
00:49:08come
00:49:08per fare un esempio
00:49:10come
00:49:10o di non utilizzare
00:49:12la verità
00:49:12come input
00:49:14delle loro informazioni
00:49:16e questi
00:49:16e questi
00:49:17sarebbero cancellati
00:49:18perché non avrebbero
00:49:19più informazioni
00:49:20dirette
00:49:21quindi
00:49:22è una ristrutturazione
00:49:24dell'informazione
00:49:25che è pericolosa
00:49:28e è pericolosa
00:49:29in una situazione
00:49:31in cui si arriva
00:49:32ad un dato monopolio
00:49:33perché
00:49:34ovviamente
00:49:36ci sono vari modi
00:49:38però
00:49:39è un problema
00:49:40che è veramente
00:49:41drammatico
00:49:42perché rischiamo
00:49:43di arrivare
00:49:44in una situazione
00:49:46in cui
00:49:46tutta l'informazione
00:49:47su quello
00:49:49che succede
00:49:50diventa
00:49:51controllata
00:49:51certamente
00:49:52e invece
00:49:53di avere
00:49:54accesso
00:49:55direttamente
00:49:55alla rete
00:49:56abbiamo accesso
00:49:57ad un'intelligenza
00:49:58artificiale
00:49:59che seleziona
00:50:00le cose
00:50:01che stanno
00:50:02in rete
00:50:02sui quali
00:50:03abbiamo accesso
00:50:04o meno
00:50:04altro problema
00:50:06che
00:50:06è l'esorbimento
00:50:08delle fonti
00:50:10per esempio
00:50:10moltissime informazioni
00:50:12dell'intelligenza
00:50:13artificiale
00:50:14attuale
00:50:14prende le risposte
00:50:16dai siti
00:50:17di domande e risposte
00:50:18ci sono in rete
00:50:18tanti siti
00:50:19di domande e risposte
00:50:20uno di queste
00:50:21è cuova
00:50:22per le risposte
00:50:23generali
00:50:24ci sono
00:50:24dei siti
00:50:26scientifici
00:50:27GIC
00:50:27for GIC
00:50:28in cui per esempio
00:50:29la cosa tipica
00:50:30che succede
00:50:31è che uno
00:50:32vuole
00:50:33scrivere un programma
00:50:35e dice
00:50:35cercherete un esempio
00:50:37di un programma
00:50:37e di come si usa
00:50:38una funzione
00:50:39trova tipicamente
00:50:40un esempietto
00:50:42di 20 righe
00:50:43di programma
00:50:44che poi
00:50:45fanno vedere
00:50:46come bisogna fare
00:50:47quella funzione
00:50:48se lo chiede
00:50:49all'intelligenza artificiale
00:50:51o lo chiede
00:50:51a GIC
00:50:52for GIC
00:50:52per esempio
00:50:53trova esattamente
00:50:54il stesso programma
00:50:56che vuol dire
00:50:56che l'intelligenza artificiale
00:50:58si è preso
00:50:59verbatim
00:51:00e ricopiato
00:51:01nella sua database
00:51:02a questo punto
00:51:03quello che sta succedendo
00:51:04è che
00:51:05c'è
00:51:06una
00:51:07decrescita
00:51:08impressionante
00:51:09delle domande
00:51:10che vengono fatte
00:51:11GIC
00:51:12for GIC
00:51:12o altri siti
00:51:14perché ormai
00:51:16uno trova
00:51:16le cose
00:51:17che vengono
00:51:18su intelligenza artificiale
00:51:21lei sceglie
00:51:21probabilmente
00:51:22la cosa migliore
00:51:23invece di fare
00:51:24le varie prove
00:51:25e così via
00:51:26fa molto prima
00:51:27chiederle
00:51:28però nel futuro
00:51:29per le nuove cose
00:51:30ci saranno
00:51:31se non ci saranno
00:51:32persone
00:51:33che rispondano
00:51:34a domande
00:51:34perché mancano
00:51:36le domande
00:51:36ci mancheranno
00:51:37anche i testi
00:51:38per poter
00:51:39adessare
00:51:39l'intelligenza artificiale
00:51:41in questa direzione
00:51:42questo è uno
00:51:44dei tanti problemi
00:51:45che ci sono
00:51:46problemi
00:51:47anche
00:51:48chiaramente
00:51:49molto
00:51:50ma molto
00:51:50gravi
00:51:51è il problema
00:51:52dei consulenti
00:51:54psicologici
00:51:55non professionali
00:51:56cioè
00:51:56non so
00:51:57quanto
00:51:58è sviluppato
00:52:00e ci sono
00:52:01dei ragazzi
00:52:02che
00:52:03con problemi
00:52:05di vario tipo
00:52:06che possono avere
00:52:07nella giornata
00:52:08che scrivono
00:52:09a certi IPT
00:52:11a Gemini
00:52:11chiedendo
00:52:12quello che devo fare
00:52:14e quello che non devo fare
00:52:15e questo può
00:52:16incominciare a essere
00:52:17pericoloso
00:52:18perché se una persona
00:52:19incomincia a scrivere
00:52:20a Gemini
00:52:21dice
00:52:21io mi voglio ammazzare
00:52:23e questa non è
00:52:24è chiaro
00:52:25che non è la persona
00:52:26più adatta
00:52:27per convincerla
00:52:29a non ammazzarsi
00:52:31proprio perché
00:52:32non
00:52:34non capisce
00:52:36quello che
00:52:36può ripetere
00:52:38un po'
00:52:38quello che vengono
00:52:39detti
00:52:39in altre cose
00:52:40ma non è
00:52:41uno psicologo
00:52:42che
00:52:42che funziona
00:52:45in questo modo
00:52:46uno psicologo
00:52:47cerca di capire
00:52:48i motivi profondi
00:52:49per cui una persona
00:52:50vuole fare qualcosa
00:52:51e quindi
00:52:53questo è un
00:52:54una cosa
00:52:56di questo genere
00:52:57può essere
00:52:57estremamente
00:52:58pericolosa
00:52:59anche qui
00:53:00bisogna capire
00:53:01come possiamo
00:53:02intervenire
00:53:03cosa possiamo
00:53:04fare
00:53:05per aiutare
00:53:05per aiutare
00:53:07le persone
00:53:08ricordiamoci
00:53:09che diventa
00:53:10estremamente
00:53:11difficile
00:53:12a una persona
00:53:13che ha un problema
00:53:15psicologico
00:53:16specialmente
00:53:16un giovane
00:53:17a trovare
00:53:18un supporto
00:53:19a trovare
00:53:20un supporto
00:53:21in qualche modo
00:53:22in forma anonima
00:53:23perché
00:53:24il problema
00:53:25molto spesso
00:53:26è che
00:53:27non è che
00:53:27uno può andare
00:53:28si può andare
00:53:29ma andare
00:53:30dallo psicologo
00:53:31della scuola
00:53:32supposto che ci sia
00:53:33dicendo che mi voglia
00:53:35ammazzare
00:53:36è qualcosa
00:53:36che
00:53:37ho tentazione
00:53:39ad ammazzarmi
00:53:40c'è qualcosa
00:53:40che un giovane
00:53:41non
00:53:42non
00:53:43non fa
00:53:45cioè il fatto
00:53:45di poter essere
00:53:47anonimo
00:53:47di poter parlare
00:53:48con una persona
00:53:49anonima
00:53:50è qualcosa
00:53:51che
00:53:52lo attrae
00:53:53e a questo punto
00:53:54se noi non mettiamo
00:53:56qualcosa
00:53:57se lo Stato
00:53:58non fa qualcosa
00:53:59di questo tipo
00:54:00di un servizio
00:54:01che può essere
00:54:03fatto
00:54:03parlando
00:54:04in manoria
00:54:05a qualche modo
00:54:07anonima
00:54:07non riconoscibile
00:54:09con
00:54:10con delle psicologi
00:54:11con degli umani
00:54:12che abbiano le cose
00:54:13sotto controllo
00:54:15e le cose
00:54:16diventano grave
00:54:17e poi
00:54:18è chiaro
00:54:18che diventa
00:54:19ancora più grave
00:54:20una volta
00:54:22che si sviluppa
00:54:22un rapporto
00:54:23di empatia
00:54:24fra la persona
00:54:25e il computer
00:54:26io penso
00:54:28che un rapporto
00:54:29di empatia
00:54:30fra
00:54:30un'arma umana
00:54:33e
00:54:35gemini
00:54:37ha qualcosa
00:54:38di
00:54:39un po'
00:54:39direi
00:54:40mal sano
00:54:41però
00:54:42è chiaro
00:54:43che noi
00:54:43rischiamo
00:54:44di avere
00:54:45situazioni
00:54:45di questo
00:54:46genere
00:54:46poi
00:54:48su facebook
00:54:48ci sono
00:54:49tante
00:54:49pubblicità
00:54:51di siti
00:54:52che promettono
00:54:53una fidanzata
00:54:55virtuale
00:54:56con cui parlare
00:54:57e così via
00:54:57ma questo
00:54:58per adulti
00:54:59ma io sto
00:54:59pensando
00:55:00piuttosto
00:55:01a persone
00:55:02che sono
00:55:03fragili
00:55:04e che
00:55:05proprio
00:55:06essendo fragili
00:55:07riescono
00:55:08a utilizzare
00:55:09semplicemente
00:55:10questi
00:55:11meccanismi
00:55:12non so
00:55:13quanto
00:55:13questo
00:55:14si è diffuso
00:55:14ma ho cominciato
00:55:15a sentirne
00:55:16parlare
00:55:16di cose
00:55:17di questo
00:55:17genere
00:55:18e questo
00:55:19può essere
00:55:19fatto
00:55:20ovviamente
00:55:21non si può
00:55:22per vivere
00:55:22giovani
00:55:23fare questo
00:55:24l'unica cosa
00:55:24si può
00:55:25in qualche modo
00:55:26di fornire
00:55:27un servizio
00:55:28alternativo
00:55:29che possa avere
00:55:30questa
00:55:30anonicità
00:55:32e così via
00:55:33l'altro problema
00:55:34difficile
00:55:36da risolvere
00:55:37da capire
00:55:37bisogna capire
00:55:38come utilizzare
00:55:40l'intelligenza
00:55:40artificiale
00:55:41nella didattica
00:55:42è chiaro
00:55:43che
00:55:44bisogna
00:55:46dall'altro
00:55:46evitare
00:55:47che i compiti
00:55:48a caccia
00:55:48ne ho fatti
00:55:49nell'intelligenza
00:55:50artificiale
00:55:51cioè
00:55:52ormai
00:55:53è noto
00:55:53che ci sono
00:55:55ragazzi
00:55:56che chiedono
00:55:56se scrivi
00:55:57un tema
00:55:58su Giulio Cese
00:55:59per cui
00:55:59posso fare
00:56:00uno di 13 anni
00:56:01o uno di 14 anni
00:56:03nel linguaggio
00:56:03di un 15enne
00:56:04quindi
00:56:05gli puoi
00:56:06adattare
00:56:07gli puoi
00:56:07chiedere
00:56:09i discorsi
00:56:11su qualunque cosa
00:56:12in qualunque
00:56:14tipo di stile
00:56:15mi ricordo
00:56:16già anni fa
00:56:17di aver fatto
00:56:17le prove
00:56:18non mi ricordo
00:56:18su quale
00:56:19dichiarazione
00:56:20essere fatta
00:56:21fatta in stile
00:56:22di Trump
00:56:22fatto in stile
00:56:23di Obama
00:56:24fatto in stile
00:56:25di Kennedy
00:56:26era una cosa
00:56:27molto divertente
00:56:28perché
00:56:28imitava
00:56:29gli stili
00:56:30veramente
00:56:30a persona
00:56:31quindi
00:56:31poi chiedono
00:56:32in stile
00:56:33di una ragazzina
00:56:34di 13 anni
00:56:34e quindi
00:56:35diventa
00:56:36sempre più
00:56:36difficile
00:56:37a questo punto
00:56:38sgramarli
00:56:39e d'altro canto
00:56:40poi la cosa
00:56:41diventa
00:56:41abbastanza
00:56:42inutile
00:56:43quello
00:56:44su cui
00:56:45bisogna
00:56:45riflettere
00:56:46che non sappiamo
00:56:47non mi è chiaro
00:56:48ma che bisogna
00:56:48chiaramente
00:56:49mettere su
00:56:50una task force
00:56:51e come utilizzare
00:56:53l'intelligenza
00:56:54artificiale
00:56:55nella didattica
00:56:56e questo è molto
00:56:57importante
00:56:58perché stiamo
00:56:59andando in un mondo
00:57:00in cui diventa
00:57:01sempre più importante
00:57:03e le persone
00:57:04nel futuro
00:57:05utilizzeranno
00:57:06i computer
00:57:07per avere
00:57:08informazioni
00:57:09e prima
00:57:10utilizzavano
00:57:11la rete
00:57:12semplicemente
00:57:13in futuro
00:57:14utilizzando
00:57:15l'intelligenza
00:57:15artificiale
00:57:16Umberto Eco
00:57:17diceva
00:57:17all'orzina
00:57:18da anni fa
00:57:19mi pare
00:57:19che è importante
00:57:22che insegnare
00:57:23a scuola
00:57:24a distinguere
00:57:25i vari siti
00:57:26dove prende
00:57:27informazione
00:57:28dalla reputazione
00:57:29però una volta
00:57:30che i siti
00:57:31scompaiono
00:57:32e diventano
00:57:33nascosti
00:57:33per l'intelligenza
00:57:34artificiale
00:57:35c'è un
00:57:36qualche tipo
00:57:36di problema
00:57:37quindi
00:57:37è come
00:57:39insegnare
00:57:39ai ragazzi
00:57:40in qualche modo
00:57:41a muoversi
00:57:42in questo mondo
00:57:43in questo mondo
00:57:44in cui gli stessi
00:57:45insegnanti
00:57:45fanno fatica
00:57:47a muoversi
00:57:48e non è facile
00:57:49è sempre
00:57:50una forte
00:57:50riflessione
00:57:51poi
00:57:52quello che
00:57:54volevo chiudere
00:57:55una cosa
00:57:57che ritengo
00:57:58molto importante
00:57:59che è la necessità
00:58:01di avere
00:58:01una ricerca pubblica
00:58:03sul campo
00:58:03dell'intelligenza
00:58:04artificiale
00:58:06e per vari motivi
00:58:08come vi ho detto
00:58:09prima
00:58:09io sono assolutamente
00:58:11favorevole
00:58:12alla necessità
00:58:13di rigolarizzazione
00:58:14dell'intelligenza
00:58:15artificiale
00:58:16ma
00:58:17quello che
00:58:18le cose
00:58:19evolvono
00:58:20in maniera
00:58:20vertiginosa
00:58:22se uno
00:58:23potrebbe pensare
00:58:24una volta
00:58:25di mettere
00:58:26della regolamentazione
00:58:27su un piccolo
00:58:29sulle piccole
00:58:30ditte
00:58:31produttive
00:58:31numero
00:58:32produttrice
00:58:33di intelligenza
00:58:34artificiale
00:58:35e a questo punto
00:58:36il vaso di Pandora
00:58:37è aperto
00:58:38ci sono giustamente
00:58:39programmi
00:58:41noti a tutti
00:58:43e quindi
00:58:43non si può
00:58:44chiudere
00:58:44questo
00:58:46e la regolamentazione
00:58:48è fondamentale
00:58:48cioè
00:58:49fatemi fare
00:58:50un esempio
00:58:51cioè immaginatevi
00:58:52il traffico
00:58:53automobilistico
00:58:54senza codice
00:58:55della strada
00:58:55o la stampa
00:58:58senza leggi
00:58:59sulla stampa
00:59:00sarebbe
00:59:01un disastro
00:59:02assoluto
00:59:02quindi
00:59:03tutte le
00:59:04grandi
00:59:05novità
00:59:06hanno bisogno
00:59:07di un certo
00:59:07tipo
00:59:08di regolamentazione
00:59:09anche per tutti
00:59:10problemi
00:59:11che quelli
00:59:12forse
00:59:12si stanno
00:59:13risolvendo
00:59:13da solo
00:59:14di diritto
00:59:15d'autore
00:59:15che quelli
00:59:17si risolveranno
00:59:18in qualche modo
00:59:19e però
00:59:20le strutture pubbliche
00:59:21per poter
00:59:22regolamentare
00:59:23non capire bene
00:59:24come l'intelligenza
00:59:25artificiale
00:59:26funziona
00:59:27quindi
00:59:27non essersi
00:59:28degli esperti
00:59:29che lavorano
00:59:30nelle strutture pubbliche
00:59:31che sappiano
00:59:33far funzionare
00:59:34l'intelligenza
00:59:34artificiale
00:59:35e questo
00:59:36è possibile
00:59:37solo se c'è
00:59:38ricerca pubblica
00:59:39sul campo
00:59:39poi
00:59:40è anche importante
00:59:41proprio
00:59:42il progresso
00:59:43del campo
00:59:43è di creare
00:59:44conoscenze
00:59:45che le condivise
00:59:46quello che è chiaro
00:59:48è che i large language
00:59:49models
00:59:49non saranno
00:59:50l'ultima cosa
00:59:51che verrà fatta
00:59:52verranno nuove
00:59:53strutture nuove
00:59:55e quelle
00:59:56che saranno
00:59:57probabilmente
00:59:58più potenti
00:59:59più efficaci
01:00:00con maggiore
01:00:02attaccamento
01:00:03alla realtà
01:00:04e questo
01:00:05può essere fatto
01:00:05è importante
01:00:06avere
01:00:07che ci siano
01:00:08queste conoscenze
01:00:09condivise
01:00:11perché la scienza
01:00:12è sempre andata avanti
01:00:13mediante
01:00:14conoscenze
01:00:15condivise
01:00:16e poi
01:00:17in particolare
01:00:18io penso
01:00:19che in Europa
01:00:20ci sia bisogno
01:00:21di un'istituzione
01:00:22che uno può chiamare
01:00:23un CERN
01:00:24per l'intelligenza
01:00:25artificiale
01:00:26qualcosa che sia
01:00:27su scala
01:00:28molto più piccola
01:00:29del CERN
01:00:30cioè che sia
01:00:31un punto
01:00:31di incontro
01:00:32per gli studiosi
01:00:33e gli studiosi
01:00:34possono andare
01:00:35due mesi
01:00:35due anni
01:00:36cinque anni
01:00:37e così via
01:00:38che abbia
01:00:39tutte le caratteristiche
01:00:39in cui si possa
01:00:41discutere
01:00:42parlare
01:00:42incontrarsi
01:00:43e quindi
01:00:44fare qualcosa
01:00:45che possa
01:00:46essere
01:00:47di utile
01:00:49per il proprio
01:00:49e poi fare
01:00:50la ricerca
01:00:52nei propri paesi
01:00:53questa non deve essere
01:00:54una sostituzione
01:00:55della ricerca
01:00:56nel proprio paese
01:00:57ma qualcosa
01:00:58di aggiuntivo
01:01:00di supplementare
01:01:02e supplementare
01:01:04come quello
01:01:04che viene fatto
01:01:05in Europa
01:01:05quindi secondo me
01:01:07è assolutamente
01:01:09fondamentale
01:01:09quindi a questo punto
01:01:11io chiederei qui
01:01:12quello che avete visto
01:01:13che ci sono
01:01:14tanti vantaggi possibili
01:01:16ci sono tantissime
01:01:17cose problematiche
01:01:19probabilmente
01:01:20le cose problematiche
01:01:21di cui non ho parlato
01:01:22sono di più
01:01:23e più importanti
01:01:24di quelle
01:01:25di cui ho parlato
01:01:26però
01:01:27quello che
01:01:28ritengo fondamentale
01:01:31è un cammino
01:01:32per cui non si vada
01:01:33verso un monopolio
01:01:34dell'intelligenza artificiale
01:01:37un monopolio
01:01:38dell'intelligenza artificiale
01:01:39cosa che è
01:01:40fattibilissimo
01:01:41perché abbiamo visto
01:01:43come l'Intel
01:01:44ha il monopolio
01:01:45dei cipi avanzati
01:01:46e la
01:01:48Indivia
01:01:49ha il monopolio
01:01:50degli GPU
01:01:51e
01:01:52Google
01:01:54ha il monopolio
01:01:55delle ricerche
01:01:56quindi
01:01:56la struttura
01:01:58è tale
01:01:58che si vada
01:01:59verso un monopolio
01:02:00ma un monopolio
01:02:01dell'intelligenza artificiale
01:02:03sarebbe
01:02:04penso assolutamente
01:02:05ricercioso
01:02:06grazie mille
01:02:08grazie
01:02:16grazie
01:02:16grazie
01:02:21grazie
01:02:22grazie
01:02:24grazie
01:02:25grazie
01:02:29grazie
01:02:30grazie
01:02:30grazie
Consigliato
0:51
|
Prossimi video
7:07
0:46
2:11
2:55
11:13
1:00
2:50