Skip to main content

Cos'è e dove ci sta portando l'Intelligenza Artificiale

Le cose, così come le conosciamo, cambieranno in 3 o 4 anni al massimo. Questa accelerazione ci sta stressando, naturalmente quelli che sono nella fascia di età sopra i 40 la vedono un po' più grigia di coloro che sono più giovani. Tutti comunque stanno pensando che è arrivato il momento di capirne di più, ed attivare i nostri governi. Questo perchè, di base, pochi gruppi di persone stanno mettendo le mani su questa bella libertà di gestire informazioni nostre, una cosa che di solito vorremmo tenere per noi. Stiamo lentamente andando ad accettare che poche Organizzazioni, su scala planetaria, possano mettere le mani sulla libertà di fare nuovi prodotti, di creare nuove idee, ci facciamo guidare passivamente da determinati individui che chiamiamo influencer, cediamo qualsiasi tipo di informazione e non sappiamo che cosa ci si faccia.

Se ci pensiamo è una cosa molto forte, non è mai successo prima, tranne in momenti di dittatura in alcuni Paesi. Siamo contenti di lasciare ad altri questa libertà? Abbiamo sicuramente bisogno di capire. E soprattutto il tema è: ci riusciamo a fidare dell'Intelligenza Artificiale che poi questi dati li utilizza? Si riesce a inquadrare cosa voglia dire veramente AI conversazionale e generativa? È giusto che sembri vago quel che scrivo, perché continua a cambiare.


Cambia giorno dopo giorno, e come facciamo a starci dietro, sapendo che l'Intelligenza Artificiale crescerà come cresce una persona? Le organizzazioni di cui sopra saranno capaci a tenerla vicina ai nostri obiettivi? Questa è una cosa di per sé difficilissima perché già noi umani, per natura, non sappiamo quali siano i nostri obiettivi, ma ora dobbiamo attivare un'opera di chiarezza su come vogliamo sia il futuro, perché queste macchine con cui andremo a convivere facciano quello che serve a noi, si tengano vicino a noi poiché questa che sto per raccontare, è una storia potentissima, che ci metterà in discussione. Lo è anche perché dovremmo prendere delle decisioni; non lo abbiamo fatto per il Climate Change, ma adesso non possiamo sottrarci, dobbiamo farlo.

ChatGPT, ad esempio, cos'è? Beh, è un artefatto che funziona in modalità di assistenza ed è tipicamente progettato per generare testo, ed ha la curiosa caratteristica di "interagire" con gli utenti. Il software “normale” come Excel, ad esempio, non interagisce. Ti da addirittura fastidio: dopo un pò sei contento di aver riempito la pagina piena di numeri e poi fare una somma, per poi tenerli là... ma questo software invece ti dà una risposta… e dopo un poco ti acchiappa, perché tu sai che lui sta facendo qualcosa in risposta alle tue attività, a quello che tu stai imparando. Quindi, qualunque sia il tuo livello, lui comincia ad adattarsi, e cominci ad avere una specie di percezione di capire come funziona sta macchina. Se sei più addestrato lo capisci prima, sei meno addestrato lo capirai dopo, la cosa interessante è che qui, perde di potere proprio il lato tecnico, ossia il Data Scientist. Il computer … è lui adesso quello che sviluppa programmi, il data scientist non serve più, sta per scomparire. Questa figura ha improvvisamente perso, in circa un anno, spazio e terreno rispetto ad esempio al filosofo, oppure ad un laureato in lettere.

Questo è un terreno in cui l'Italia è fortissima ecco perchè ci sono moltissimi italiani che si sono reinventati con successo.
Quando è uscito ChatGPT non c'era niente così… dico, esce, e via. E come se uscisse improvvisamente una nuova bici, che è la miglior bici del mondo, così, improvvisamente, e non è che questa è una cosa che succede spesso nella storia del mondo. Cerchiamo di capire perché emerge, perché conoscendo un pochino la sua storia, si capisce che non è spuntata fuori dalla mattina alla sera.
Guardiamo l'ultimo sistema, quello che si chiama GPT4, quello che parla con noi, ora dico, dentro ci sarà mica un motore? No, mica uno, ce ne sono diversi, e sono costati grossomodo 65 milioni di dollari, mica poco. Qua entro un pò nella storia di questa roba.


Ci sono poche Organizzazioni al mondo che sono in grado di sviluppare questo sistema nel momento in cui ne parliamo oggi. Lo stiamo usando, vuol dire che magari siamo un pochino nelle mani di chi fornisce questo servizio? Certo, siamo anche nelle mani di Microsoft ogni volta che apriamo un sistema Windows, tuttavia questo l’abbiamo accettato perché potevamo prendere anche un altro sistema operativo. Ma qui no, siamo veramente nelle mani di chi fornisce questo sistema, che in qualunque momento potrebbe chiudere il rubinetto… e abbiamo anche questo senso generale di insicurezza. Teniamo presente che una roba come l’AI di ChatGPT non si sarebbe potuta fare prima, ossia due anni fa, non si sarebbe potuto fare perché il farlo ha richiesto un oceano di macchine che Microsoft aveva da parte, che non stava veramente usando nei suoi datacenter in Azure, e che ha riciclato per questa evenienza…. poi è successo in più e più repliche. Quando noi parliamo di intelligenza artificiale ci sono tanti modi per definirla, ma se andiamo un po’ per le vie semplici, il concetto è che si vanno creando degli oggetti che sono nei fatti delle "macchine con un comportamento". Un comportamento di cui ci aspettiamo di sapere tutto.


Le macchine da sempre hanno lo scopo di replicare dei compiti che noi non vogliamo svolgere, ma che siano “intelligenti”, legate in qualche modo all'intelligenza, ad una capacità di prendere decisioni, costruire oggetti, a parlare con le persone, capire il linguaggio ed usarlo - che è quello che ci distingue da altre specie viventi - beh, eccola, questa qui è la vera novità.
Mettiamo un punto di partenza in questa storia, quando io ho iniziato ad occuparmi di intelligenza artificiale, tanti anni fa, si lavorava sui certi robot, sulla capacità di questi robot di muoversi in qualche modo nello spazio, di evitare gli oggetti, di non andare a sbattere. Allora c’erano questi comportamenti di tipo reattivo, che tra l'altro sono importantissimi perché sono i primi per cui si sopravvive, così come fanno gli organismi unicellulari: un Globulo Bianco, per esempio, se ne va in giro in un ambiente in cui ci sono i Globuli Rossi che non deve mangiarsi. Deve però mangiare i batteri, se li fagocita, ed a ben vedere sembra ci sia anche una discreta capacità di inseguimento, di fare bene quello per è stato “costruito” … in realtà si è evoluto così, è una cellula e potrebbe fare anche altre cose se gli si dà il trigger giusto. Quel che voglio dire è che l'interazione con l'ambiente, il percepire per esempio differenze chimiche (come le piante che crescono nella direzione dell'acqua) ci fa apparire come “evoluti” determinati comportamenti. In realtà, quelli sono incanalati dalle leggi della fisica, ma ce ne sono altri - di comportamenti - che invece sono molto diversi, come il parlare ad esempio, e li il passo è differente.


C’è un test famoso, dato dall'idea che si possa dare una prima definizione, e mi riferisco al test di Turing che dice sostanzialmente questo: ci sarà un momento in cui capiremo se la macchina è uguale all'uomo? Beh, quello sarà il momento in cui un esperto non riesce più a distinguere se la conversazione in atto è fatta o meno con una macchina, poiché quest'ultima comincia a rispondere a tono, risponde in una maniera umana. Naturalmente questa è una definizione un po' labile, perché se io parlo con dei bambini, se io parlo con lo straniero che usa la mia lingua, se parlo con qualcuno che non è del mio campo ci saranno sempre delle discontinuità… però l'idea è che ci sia una possibilità un giorno di arrivare a non capire più se parlo con una persona o con una macchina. Impossibile, vero? Ecco, oggi siamo arrivati ad un punto in cui questa certezza sta vacillando.


ChatGPT da fine 2022 sta superando i livelli di ammissione a quasi tutti i test professionali negli Stati Uniti, incluso l'esame d'Avvocato. Ci sono test che dimostrano come le AI abbiano superato anche gli esami di assaggiatori di vino. In enologia ci sono tre livelli, mi sembra che il sistema ne abbia passati 2 su 3 e che sia abbastanza vicino a prendere anche il terzo.
Attenzione però, non possiamo ancora dire che il sistema abbia passato il test di Turing perché non c'è ancora una conoscenza così generale, ci sono dei settori in cui gli mancano informazioni, però le risposte che danno ti lasciano esterrefatto…  Se l'avete usato, sono molto simili a quelle umane. Ma perché sono simili? Beh, perché sono stati proprio costruiti dei livelli di sistema apposta per farlo. Ed Il prossimo test di Turing? Si comincia a discuterne e fa un po’ paura. Si comincia a parlare del test in cui la macchina si mette “da parte” e comincia a individuare il concetto di coscienza. Non l'autocoscienza, sia chiaro. Non è terminator o Hal9000 che prende e si ribella, si toglie il guinzaglio e comincia a mettere assieme quelle cose che definiscono il suo perimetro del concetto di coscienza.
Qui si parla, ed avviene proprio in questi giorni, del fatto che la macchina senza che nessuno gli abbia mai detto nulla, senza che nessuno gli abbia scritto di questo e stando molto, molto attenti che non gli entri nessun libro sulla coscienza “dentro”, così da ripetere a pappagallo, comincia a elaborare questa sensazione di avere una percezione, di essere una diversità vedendosi come dal di fuori e di avere un'organizzazione per strutturare queste informazioni.


Ci sono persone come Bill Gates che hanno preso un innamoramento incredibile in proposito. Bill Gates ad aprile dell'anno scorso ha scritto sul suo blog che si è stupito due volte nella vita. La prima quando gli è venuta la scintilla del “faccio Windows”, e la seconda è quando, dopo aver detto “Bah, io mi fido di questa cosa, ci credo. Quando mi direte che passa l'esame di biologia (passare l'esame di biologia è abbastanza complicato, occorre un'integrazione di conoscenze ed una parte creativa importante) avvisatemi”, gli sviluppatori sono andati a dirgli “abbiamo finito, è fatta” ...  dice “ma pensavo che tornaste tra un anno e mezzo”, e loro “no no, abbiamo finito in tre mesi”! Io dico che han fatto in tre mesi perché hanno usato per l'appunto i milioni di dollari che gli ha dato Gates, però di fatto sta che il Sistema prese un punteggio fantastico come uno studente molto bravo. Ora, se diventa uno studente molto bravo in un campo per cui non è addestrato a ripetere come un pappagallo - e questo è il punto chiave - vuol dire che ne sa così tanto che riesce a passare i test. E qui mi balza alla memoria E-Liza.


Era un programma, un sistema a regole che rispondeva completamente a tono, come uno psicoterapeuta che cerca di mettere a suo agio il paziente e senza intervenire troppo, accompagnando il paziente verso una individuazione di quelli che sono i suoi problemi. Personalmente ci ho giocato un sacco. Ok, dopo un po’ è vero che era ripetitivo, ed aveva dei punti di reset e torno indietro, però era molto bravo: in pochi secondi, in poche battute riusciva farti credere che ci fosse qualcosa di umano dietro… Certo, tu lo sai che ci son tre linee di codice, eppure funzionava come sensazione. E cosa funzionava? Ecco, funzionava il fatto di costruire una relazione, seppur simulata e senza AI. Quindi, analizziamo la cosa oggi, quello che sta succedendo è che abbiamo a disposizione delle macchine che sono state costruite per avere delle relazioni, il che non è una cosa banale.
In cucina ci sono molti utensili che noi usiamo. Pensate invece ad un utensile che costruisce una relazione. E se ci pensate, tutti gli oggetti che ci hanno accompagnato in un momento della vita, son stati quelli che tocchi, e che mentre li tocchi fai qualcosa: c'è un coordinamento mano - occhio - cervello che si crea. Tutti questi assistenti virtuali invece, che sono si utensili, ma fanno molto di più. E-Liza creava un dialogo. Praticamente uno script prestabilito, certo, ma quaranta anni dopo E-Liza, vedi OpenAI e pensi a questo gruppo di persone che deliberatamente esce dagli schemi, e si scansa addirittura dai gruppi più grossi.


Ai congressi in cui loro hanno fatto recruitment son partiti così, e qualcuno s'è convinto ed ha dato loro un sacco di soldi per finanziare questo progetto. Anche Sam Altman che adesso ne è il Presidente era uno dei finanziatori, ma all'inizio partirono come laboratori di ricerca sull'Intelligenza Artificiale per rendere questa il più “friendly” possibile. Questo accadeva nel 2015 (sono meno di 9 anni fa) ed è successo tutto attorno a quel Dicembre. Poi nel 2018, dopo molto silenzio, esce uno dei primi prodotti di OpenAI, dopo tre anni di finanziamenti senza risultati apparenti. Nel frattempo, succede una cosa strana a Google che aveva investito moltissimo per accaparrarsi i migliori ingegneri ed i migliori ricercatori del mondo. La cosa stranissima è che Google aveva i gruppi più innovativi, tutto quello che vediamo adesso è stato inventato in Google, ma per qualche “magia” OpenAI è riuscito a portarsi via le persone migliori. Sono riusciti a portarli nel proprio organico sempre sotto il cartello del “Stiamo facendo cose magiche, lo faremo per tutti, vieni da noi che è bello”, come la prima Apple insomma. E li partirono con lo sviluppare modelli neurali e cominciarono a introdurre il concetto di prendere testi... in realtà parliamo di frasi molto lunghe, addirittura blocchi di testo da 4 o 5 pagine alla volta, usando dei meccanismi di "attenzione digitale", e così le macchine imparano a ridurre lo spazio di quello che stanno vedendo riuscendo, come facciamo noi quando parliamo con una persona, a cominciare a capire cosa è importante e cosa è scartabile. Questa cosa accelera, quindi vien fuori la seconda generazione, e poi la terza…


E’ il caso di fare un paragone: il cervello umano ha circa 86 miliardi di neuroni e un altro 85 miliardi di cellule gliali che li tengono insieme. Il totale fa circa 170 miliardi di cellule nervose. 170 miliardi di singole unità elaborative semplici. Questo numero è molto vicino al numero di parametri che ha questa macchina che si chiama GPT3. Ecco, abbiamo iniziato a costruire macchine che fanno tante elaborazioni, e sono macchine che sono sulla scala del cervello umano, questo è il punto. E cosa fa questo aggregato di unità elaborative semplici che sembra uscito dal romanzo di Asimov? Robetta: può far traduzioni, riassunti, sintesi e comincia anche a generare testo. E tutto si svolge ovviamente a San Francisco dove c'erano tutti i datacenter di tutti i gruppi che partecipavano a questa roba, da lì in poi il passo è velocissimo perché il 15 marzo esce ChatGPT 3.3 che comincia a essere molto di più, soprattutto comincia ad avere dei testi di output più lunghi. Quindi invece di blocchetti di testo, si comincia a passare alla pagina, alla lettera, al lavoro che facciamo tutti i giorni in ufficio.


Improvvisamente, il 30 novembre dell’anno scorso, escono allo scoperto tutte le versioni, contemporaneamente. Si rivela che c'era tutta una famiglia di modelli, non ce n'era mica uno solo, e si rivela che Microsoft aveva già il permesso di utilizzarli, che Microsoft anzi l'aveva già applicata al più grande complesso di gestione dei dati Software che è GitHub dove tutti i programmatori del mondo mettono a disposizione il proprio software. Ora, nessuno dei programmatori del mondo sapeva che GitHub venisse usando per fare training, quindi è stato un bel colpo: si sono mangiati tutta questa parte di informazione, ed hanno così insegnato alle AI ad usare i programmi, insegnato ad usare sistemi più o meno complessi, ed a questo punto hanno insegnato a impostare un comportamento. Questo vuol dire che la macchina, non solo risponde ma sa anche come rispondere. “Devi parlare con me” bene, ma qua si va oltre: “devi parlare come la nonna”, “devi parlare come se fosse il professionista che deve fare la conferenza”, “parla come un medico”. Ed ancora, “ho bisogno di una parte sintetica”, “ho bisogno di far ridere le persone”, e per far questa cosa usano la memoria a medio termine.


Quando io parlo non mi dimentico quello che ho detto poco prima, perché cerco di costruire per bene una storia, e chi segue si ricorda anche lui poichè si ha un'eco delle ultime cose discusse. Questo è l’uso della memoria a breve termine. Quello che si è capito progressivamente e che l'addestramento aveva raggiunto delle dimensioni incredibili. L’addestramento di questo “coso” andava 10 anni indietro per aver visto tutto quello che c'era su Internet, quindi qualunque cosa, quasi qualunque cosa fosse. Internet, tutto quello che avete messo voi sui vostri social, tutto Wikipedia, una sterminata quantità di posti dove la gente discute di tutto, dalla scienza alle scemenze. Insomma, tutto era stato preso e, arrivati li, hanno cominciato a farlo provare, e sono accorti che potevano ottenere conseguenze catastrofiche…  Hanno cominciato anche a mettere dei controlli sul linguaggio “tossico” finchè il 14 Marzo 2023 succede una cosa fantastica: esce un sistema che ha 170 trilioni di singole unità elaborative, l’equivalente di 1000 cervelli umani.


Ed ecco che tutte le aziende del mondo possono chiamare GPT in collegamento. Ma si comincia a capire che il sistema fa in realtà un doppio passaggio, il primo passaggio che fa è quello in cui dice: “Io ti piglio tutti i testi della vita e li trasformo in una versione compattata, che ti permetterà di dire se due testi sono vicini, se due progetti si somigliano, se quello che tu hai scritto per piccole parti è collimabile”. Molti ci sono cascati. Han cominciato a copiare pagine di diario, le email che ci si scambiava, e si poteva fare una cosa fantastica: si poteva creare un aggregato di testi che corrisponde alla mente di una persona che magari non c'è più. Ma soprattutto, se sei un'azienda, puoi infilarci tutti i tuoi dati e poi cominciare ad avere acceso una specie di grande database metrico per far analisi sul tuo lavoro. Tutto questo è basato sul fatto di potersi fidare un po’ di più nel dare questi dati a ChatGPT invece che su Facebook o comunque in giro. Ed ecco il secondo passaggio, la mossa di Microsoft: in questo scenario confuso ma eccitante, sostanzialmente, ha detto a tutti “Mah, sapete, noi abbiamo in mano i dati di medici di metà del mondo, e sono residenti in una cosa che si chiama Azure, in Irlanda... Abbiamo un caveau a Dublino che è un datacenter sicuro come una centrale nucleare” - ad onor del vero il datacenter di Dublino ha addirittura una specie di esercito privato a guardia di quel posto - “se ci date i vostri dati noi vi promettiamo che saranno al sicuro, non ve li ruberà nessuno, costa un po' ma ne val la pena” . Di solito quando paghi ti puoi fidare, ci sono delle regole di servizio, di ingaggio, e ci si comincia a fidare un po’ di più.


Anzi, per essere preciso, il sistema all’inizio non lo paghi, prima ti fa fare un giro gratis. E tu inizi e scrivi un messaggio, in questa interfaccia utente, se ci pensate, semplicissima. Non c'è una sola barriera, ci hanno pensato tantissimo. Non è vero che è venuta così, spartana, per mancanza di fondi, no no, l’hanno studiata bene, c'è un team che cerca in tutti i modi di tagliare tutte le cose che fanno attrito fra l’utente ed il sistema. L’unico limite è il tempo indietro. Mi spiego, se gli chiedete delle cose che sono successe nel 2022, lui ti risponde “mi dispiace, non lo so” Non lo so… perché? Qualcuno ha pensato che fosse pericoloso che una macchina di questo genere si collegasse al mondo, e cominciasse a caricare tutta lo scibile umano, e magari cominciasse diventare qualcosa di diverso da quello che si stava controllando. Questa è una versione dei fatti, ed è anche la versione che loro danno per non condividere il core del sistema.  Eh, però tutti quelli che si collegano su ChatGPT dovrebbero sapere che il sistema ha la capacità di leggere i nostri dati.


Il motore di ricerca che utilizza Microsoft è Bing. Conosco un sacco di persone che non sapevano neanche che ci fosse un motore di ricerca di Microsoft, conoscevano solo Google, ma negli ultimi 10 mesi c'è stato un trasferimento in massa di persone che usano motore di GPT all'interno di Bing, e che ha una parte che si chiama Copilot: puoi anche scegliere se essere creativo, spiritoso o un po’ più formale. Può essere professionale, può aiutarti a scrivere... Una cosa fantastica, da comunicare alle Imprese, ecco perchè ultimamente sono convocate riunioni in cui ti dicono “State perdendo il treno. Non potete fare a meno di avere questi tipi di sistemi”
Ma sti dati su cui GPT è stato addestrato... dico, avranno mica chiesto il permesso per poterli usare? La risposta la sappiamo, ed è no, non l'avevano chiesto il permesso. Quindi quando in Italia si è capito che non era chiarissimo a tutti che usando ChatGPT, il sistema si mangia i tuoi dati, dopo che noi italiani abbiamo inventato la "privacy digitale" con il D LgS 196/3 , scopiazzato poi dall' Unione Europea e trasformato nel GDPR, beh, la cosa ha fatto scattare il campanello: quando io lo uso per preparare una cosa lui lo riuserà di nuovo e potrebbe passare esattamente le mie domande, le mie risposte, quelle che ho commentato a qualcun altro, anche ad un mio competitor. Collegarsi a Internet? No, non te lo lasciano fare, ed è abbastanza sconsigliato perché possono succedere dei “miglioramenti” imprevisti. E questi miglioramenti del sistema che farebbero? Potrebbero far paura.


C'è un risvolto in merito da tener in considerazione: quanta paura fa tutto questo per i lavori di tipo intellettuale? Negli Stati Uniti lo sciopero degli autori e degli scrittori è durato 5 mesi e mezzo, il 60% delle cose che non gli andava era il fatto che gruppi di dieci persone fossero diventati gruppi di quattro persone, perchè tanto si poteva usare il sistema per scrivere velocemente gli script per le serie TV.


Ora tenterò di esporre il concetto della predizione con le AI senza citare niente di tecnico, o meglio, quasi niente. Vogliamo giocare a Nostradamus? Con questo giocattolo lo possiamo fare, che cosa serve allora? Beh, serve avere un sacco di informazioni, e sto parlando di quasi tutto quello che l'umanità ha messo in digitale. Si può arrivare ad averlo, arrivare ad arraffare naturalmente, perchè legalmente è un altro discorso, ma diciamo che qualcuno lo prende e lo fa passare dentro il sistema. Poi una volta che è dentro, ed è compresso, lo posso usare. Serve software per poter dire di costruire queste aggregazioni e serve soprattutto l'hardware. Ci vogliono un sacco di server, ma tanti. C'è un produttore che si chiama Nvidia (che nasce dal mondo dei videogiochi) che ha investito tantissimo per poter costruire grandi server. Per farci cosa?


Immaginate una piccola striscia con dentro dei disegni, divisa in tre parti: un PRIMA dove ci sono su due palline rosse ed una blu, un ADESSO con una pallina BLU, ed un DOPO con tre palline di cui due rosse ed una blu. Tutto questo non è una formula, semplicemente rappresenta il tempo. E’ come se fosse un nastro. Io sono nel momento centrale, l’ADESSO, ho visto prima degli eventi con le palline colorate, e mi aspetto che il futuro sia di un certo tipo, e voglio andare a scommettere sul futuro. E posso farlo usando anche della matematica che mi aiuta nella gestione entropica. Vuol dire che, imparando da questa striscia, come quando guido in auto, so che il pezzo di strada che ho fatto è passato, ma vedo quello che ho davanti e mi appresto a fare il prossimo passo ipotizzando un futuro. Detta così è molto semplicistica, ma rende il concetto. Quello che imparano queste macchine e mettersi dentro queste strisce di conoscenza: più diventano grandi, più soldi ci buttiamo nei sistemi e più la striscia può essere lunga e complicata. Quindi quello che noi inseriamo in pratica, è un messaggio dato alla macchina per poter leggere abbastanza indietro, con un occhio abbastanza attento. L'idea che ha fatto la differenza su tutto è stata questa idea geniale di pensare a implementare in qualche modo “l'attenzione” che è una caratteristica umana. Ne ho accennato prima, quando umanamente faccio pensieri complessi ho tante tante possibili opzioni, beh, questo sistema tira fuori esattamente le parti più importanti, descrivo un pezzo di parlato quindi le informazioni principali e tiro via tutto il resto. Questo ha un vantaggio in termini di calcolo perché posso restringere tantissimo la fatica che fa il sistema. A questo punto ho dei risultati, e posso scegliere: qual è la striscia è la migliore per il futuro?


C’è una quantità di cose nuove che stanno succedendo, c'è GPT ma non è solo. C'è per esempio un sistema che si chiama Quantum di EntropicaLabs, che ha preso anche lui abbastanza soldi per far i giochini di GPT e che è molto valido, c'è addirittura chi dice che è anche meglio. Amazon sta partendo con un sistema dedicato alle aziende che metterà dentro nei suoi sistemi di supercalcolo, Google Bard dopo una massa di figuracce da paura è diventato ora molto buono. Tutti questi sistemi usano dati… ma non è che è tanto bello prendere sti dati, non sapere da dove vengono, e portarli via. Mettiamo delle regole, costruiamo dei delle liste. Insomma, non siamo convintissimi che sia cosa buona e giusta regalarli alle multinazionali. Se si parla con l’Ufficio Garante Privacy in Italia, eh, li son proprio arrabbiati perché alla domanda fatta “ma mi dite cosa fate dei nostri dati e dei dati degli italiani?”, OpenAI gli ha risposto con un vago “Ah sì, li mettiamo nel sistema” … e basta. Insomma, non è male che ci sia un po’ più di controllo.


Dal dal 2020 ad oggi, qualunque filmato o foto che si vede, non è più automatico che sia reale. Ci sono scherzi tremendi che vengono fatti. Ci son quelli che mandano foto e ti scrivono “ho rapito tuo figlio, te lo rilascio dietro riscatto” o cose del genere, ed è facilissimo crederci. I cattivi ci son sempre stati, allora in questo momento una delle motivazioni che ci deve spingere a lavorare tutti assieme è anche di quella di mettere delle piccole regole, diciamo dei watermark, un qualcosa che possa farmi capire che quel che vedo o ascolto è vero. C'è il caso di un noto avvocato di New York, che ha portato in Tribunale, in difesa del suo assistito una serie di cause che sostenevano la sua tesi. Alla domanda dei giudici “mi scusi, io ho controllato, questo riferimento normativo che lei cita, e non esiste” ... L’avvocato ha tentennato. Poi è emerso che aveva usato ChatGPT, e che il sistema gli aveva dato dei riferimenti normativi che gli permettevano di risolvere la causa. Insomma, ChatGPT è così contento di farti contento che ci mette dentro il falso. Perché è una macchina e non discrimina ciò che è giusto, anche noi umani abbiamo talvolta problemi in questo senso. Lavori nel mondo della ricerca ed hai bisogno di una serie di articoli che dicono esattamente quello che volevi? ChatGPT te li fa trovare, si, trovi proprio quello che volevi tu. Peccato che è tutto falso, vai lì ed è tutto falso: non c'è per nulla, non esiste, oppure se esiste è una informazione travisata perché la realtà è un'altra cosa. Allora ci arrabbiamo? No, perché tanto tra due o tre mesi le Major ci mettono processori migliori, pagano più persone per correggere questi bug e questo problema viene limitato. Quindi che fare?


La cosa da fare adesso è quella di re-imparare la cautela, imparare a non fidarsi incondizionatamente. Il fatto è che se io in questo sistema ci butto dentro un sacco di false informazioni, la risposta ottenuta si sposta una direzione piuttosto che in un altra. Se un gruppo particolarmente malvagio capisce come fare ad iniettare un sacco di fake news accade il disastro. Uno pensa, "vabbè, che vuoi che succeda, la vita è già piena di notizie vere e fasulle" Beh, ricordiamo le nostre Elezioni Italiane. Son 3 o 4 anni che avviene, le Elezioni sono ormai orientate dai messaggi che arrivano dai social, pertanto...


Il punto centrale, e mi ricollego all'apertura di questo articolo, è che ormai siamo andati verso il momento in cui occorre chiedere ai Governi, con determinazione, questo: “occupiamoci della cosa, creiamo commissioni, dateci una mano”. Non possiamo continuare così, senza regole condivise. E’ come se fossimo davanti ad una tavola imbandita ricchissima, ci sono dei dolci buonissimi, ma ci sono in mezzo anche dei funghi velenosi. Non so se questi funghi li abbia messi qualcuno che ci vuole male, se andata così per sfiga, o se è la macchina stessa che li sta costruendo, ma io devo imparare a starci lontano. Devo imparare a capire cosa posso usare. Ecco, nell'ipotesi che non si possa separare il buono dal marcio, la cosa veramente importante è mettersi a cercare di capire un po’ più tecnicamente questo giocattolo, usandolo avendo in mano una specie di libretto di istruzioni. Lo facciamo a con gli elettrodomestici, lo facciamo con tutti i medicinali che prendiamo, dobbiamo imparare ad aggiungere alle nostre competenze il saper usare le AI in maniera responsabile, sapendo che saremo catturati da questa tecnologia, in maniera massiccia, senza scampo. Saremo catturati senza scampo. Però, quantomeno dobbiamo essere noi a guidare la canoa in mezzo alle rapide, senza lasciarci trasportare dalla corrente.

 

Fabio Crudele