Chatgpt e lo sviluppo di una cultura (del) digitale. Di Guido Seddone

Chatgpt e lo sviluppo di una cultura (del) digitale. Di Guido Seddone

Leggi  Ebook di Guido Seddone_ChatGPT e lo sviluppo di una (del) digitale. 

 

 

Chatgpt rappresenta l’ultimo avanzamento tecnologico nel campo dell’intelligenza artificiale (IA) che, giustamente, ha innescato un vasto dibattito internazionale sulle prospettive future del sapere tradizionale in vista di ulteriori importanti sviluppi di quello digitale. Per comprendere bene gli scenari del futuro prossimo e venturo è bene a questo punto capire a fondo la novità rappresentata da chatgpt rispetto alle precedenti forme di IA.

 

1.

Tutte le forme di IA odierne sono basate sul riconoscimento di relazioni e regolarità statistiche in un determinato contesto e sfruttano l’immensa mole di dati che si accumula ogni giorno attraverso le navigazioni degli utenti. L’IA “vecchia maniera” (sino ai primi anni ’90 circa) cercò di implementare nella macchina i fattori che rendono intelligenti gli umani ma ottenne scarsi risultati soprattuto per l’elusività di questi fattori e per il fatto che essi siano connessi ad entità biologiche ed adattive difficilmente emulabili a livello di programmazione. Già verso la fine degli anni ’80 si scoprì invece che era possibile istruire una macchina a riconoscere relazioni nei dati (capacità nota come pattern recognition), cosa che permise di sviluppare applicazioni industriali, come reperimento di documenti da database e analisi di transazioni commerciali, senza grosse pretese relative allo sviluppo di un pensiero artificiale. A partire da quegli anni il machine learning o apprendimento automatico si orientò progressivamente allo sviluppo di sistemi informatici in grado di creare alberi statistici di decisione a partire dall’elaborazione dei dati che in qualche modo emulassero, sì, le reti neurali del cervello ma che anziché essere generati dal ragionamento, fossero basati sull’elaborazione di dati. L’introduzione del World Wide Web (www.) nel 1994 e l’avvio di imprese aziendali e commerciali come quella di Amazon nel 1999 avrebbero fatto il resto del lavoro. Attraverso il Web è possibile, infatti, incamerare i dati degli utenti e quindi accrescere la mole dell’informazione attraverso cui costruire alberi statistici di decisione, mentre esperienze come Amazon avrebbero invece rappresentato un primo laboratorio (finanziato dai suoi stessi utenti) per sperimentare l’efficacia dei motori di ricerca. Amazon agli albori fu, infatti, un grande rivenditore globale di libri che applicò un algoritmo per creare offerte commerciali ad hoc per i propri utenti. Questo algoritmo si basava sui precedenti acquisti di altri utenti attraverso cui riconoscere patterns di acquisto simili e proporre i libri che erano stati acquistati da utenti con interessi assimilabili. L’esperienza di Amazon dimostrò che l’IA è in grado di riconoscere relazioni nei dati e stabilire correlazioni statistiche in maniera molto accurata e questo parallelamente all’aumento costante di dati a disposizione. Per la legge dei grandi numeri, infatti, maggiori sono i dati a disposizione maggiore sarà l’accuratezza delle correlazioni che possono venire sviluppate. I motori di ricerca funzionano in maniera simile, consentendo di stabilire una gerarchia dei contenuti da proporre dopo una query (ricerca) da parte dell’utente sulla base della profilizzazione degli utenti e su correlazioni con utenti dal profilo simile.

Anche i programmi di traduzione hanno avuto un grande sviluppo nel momento in cui sono stati utilizzati sistemi di riconoscimento di regolarità statistica nell’uso del linguaggio che permettevano di creare traduzioni molto più accurate di quelle basate sull’elaborazione della logica sottostante ai linguaggi naturali. Attraverso il riconoscimento di queste regolarità l’IA si è rivelata capace di escludere ipotesi di traduzioni meno probabili e proporre traduzioni via via sempre più adeguate perché conformi alle regolarità riscontrate nel linguaggio in cui tradurre. In altre parole la svolta si è determinata quando si è istruita la macchina a riconoscere una certa regolarità dei dati piuttosto che programmarla per comprendere il meccanismo logico che li ha generati. Quest’ultimo obbiettivo era molto più ambizioso e si proponeva di creare un calcolatore in grado di comprendere la struttura logico-inferenziale di un linguaggio naturale e quindi di distinguere il ruolo sintattico di ciascuna parola (soggetto, verbo, avverbio, complemento oggetto e altri complementi) divenendo così in grado di fornire una traduzione che rispettasse queste regole logiche. Riconoscendo invece una regolarità nell’uso delle parole, i nuovi programmi di traduzione, che dispongono di database molto più ampi di solo vent’anni fa, sono in grado invece di proporre traduzioni più accurate per il semplice fatto di eliminare statisticamente opzioni che non hanno riscontro in una certa regolarità linguistica da loro riconoscibile. Questa svolta è stata giustamente definita da Nello Cristianini (2023, pp. 27-52) una scorciatoia che ha permesso di accelerare notevolmente gli sviluppi dell’IA. Sebbene questa svolta sia passata sotto traccia, essa contiene una rivoluzione importante del paradigma scientifico connesso alle ricerche dell’IA che ne ha impresso uno sviluppo vorticoso. In precedenza, si assumeva che comportamenti intelligenti potessero essere sono quelli che raggiungono un risultato come una traduzione o una diagnosi medica a partire da inferenze logiche “consapevoli” e dichiarate relative al linguaggio usato. Le ricerche in questo campo si dimostrarono molto lente, come abbiamo visto, probabilmente per la difficoltà di insegnare alla macchina tali comportamenti intelligenti. A partire dal 2000, invece, sulla base anche dell’esperienza in Amazon e Google, gli informatici con una serie di articoli ed in particolare uno del 2009 intitolato non a caso L’irragionevole efficacia dei dati introdussero la data-driven AI (IA basata sui dati), in cui si affermava la capacità dei dati di determinare comportamenti intelligenti sulla base della semplice capacità di riconoscere regolarità statistiche e relazioni di dati simili tra loro. Questo cambio di paradigma ebbe un effetto economico non indifferente, perché ha reso i dati delle nostre navigazioni estremamente preziosi per il potenziamento di tale intelligenza, al che ormai essi vengono considerati come il nuovo oro o petrolio dell’economia a venire.

 

2.

Come funziona la data-driven AI? Essa è il comportamento intelligente di un calcolatore sulla semplice base del riconoscimento di regolarità statistiche e della capacità di stabilire delle relazioni e correlazioni tra dati e reti di dati assimilabili. Una sorta di sintesi statistica, quindi, che sfrutta il grande armamentario di dati di navigazione a nostra disposizione (i così detti Big-data) per stabilire correlazioni che possono essere veramente molto vaste. L’algoritmo usato agli albori di Amazon era semplicemente in grado di proporre l’acquisto di libri specifici a ciascun utente sulla base dei loro precedenti acquisti e soprattutto sulla base degli acquisti di altri utenti riconosciuti come simili sulla base di comportamenti assimilabili (acquisti, visualizzazione, lista desideri, ecc.). L’algoritmo di Google funziona in maniera molto simile, qualche ulteriore sofisticazione troviamo negli algoritmi usati dai social networks. Infatti, nei social networks le correlazioni sono costruite sulla base del riconoscimento di comportamenti (likes, amicizie, visualizzazioni, emoticons, ecc, ma anche aspetti della propria biografia) assimilabili, stabilendo quindi affinità di profili esclusivamente sulla base dei dati a disposizione, cambiando così il modo di socializzare. A questo va aggiunto che le varie piattaforme e siti sono in grado di scambiare dati degli utenti, potenziando ulteriormente la capacità di profilizzazione, ossia di costruire per ogni utente un profilo accurato per poter così proporgli servizi, prodotti e opportunità di navigazione via via sempre più tagliate su misura.

Sino a prima dell’avvento di chatgpt da più parti si sono sollevate voci critiche relative alla nebulosità e elusività di questi algoritmi, che sono ovviamente legati ad interessi commerciali, ed inoltre da più parti si sosteneva il rischio legato ad un uso sistematico dei social networks che portano alla formazione di bolle sociali e cognitive (Pariser, 2011). Questi problemi sono sempre presenti, infatti gli algoritmi basati sul sistema di rilevanza comportano un restringimento dello spazio sociale e critico degli utenti, guidandoli verso un fenomeno chiamato bias di conferma e che io ho stesso ho illustrato in un altro contributo uscito presso questo sito (Seddone, 2021). Queste forme di algoritmo come se riducessero l’autonomia di scelta da parte dell’utente che verrebbe instradato su percorsi di acquisto, spesa, relazioni sociali, informazione politica e, in definitiva, esistenziali, in modo tale da privarlo di una vera e propria consapevolezza critica del mondo circostante.

 

3.

Tuttavia con chatgpt ci troviamo di fronte ad un fenomeno totalmente diverso in cui l’IA è in grado di formulare testi complessi, articoli di giornale, lettere d’amore, commenti politici e persino poesie e ragionamenti filosofici. Cosa questo può significare per la nostra civiltà è ragione di ampi dibattiti e convegni in giro per il mondo che coinvolgono filosofi, pedagoghi, scienziati cognitivi e, in generale, studiosi di discipline umanistiche. Infatti, la produzione di testi di rilevanza umanistica da parte di una macchina potrebbe comportare la completa revisione della nozione stessa di creatività e di auto-comprensione tipica delle scienze umane. Del resto ogni forma di ricerca umanistica implica una ricerca ed una comprensione di se stessi, del proprio universo emotivo, sociale, relazionale e di valori, senza parlare della comprensione del contesto storico e delle variabili che esso comporta. Le discipline umanistiche da sempre trattano dell’uomo e si propongono di rispondere all’imperativo γνῷθι σεαυτόν (conosci te stesso) iscritto nel tempio di Apollo a Delfi, una massima che sintetizza l’idea che ogni forma di comprensione rappresenti in fondo una comprensione di se stessi e delle proprie capacità pratiche e razionali. Questo è ciò che rende la conoscenza umanistica essenzialmente non cumulativa nel senso che non acquisisce nuove conoscenze e certezze come le scienze empiriche, ma elabora, traduce, espone e declina in senso più attuale questioni che pertengono all’uomo in quanto uomo. Temi come la ragione, il linguaggio, il rapporto con la natura, con gli altri uomini, la vita auto-cosciente e auto-conoscente, il bello, il mistico, il sublime, l’armonia, il giusto, il giusto fine e giusto mezzo, il buon governo, la felicità, la libertà e tante altre tematiche che da sempre sono oggetto di indagine e riflessione da parte delle scienze umane. Per inciso, il suddetto motto nel mondo greco era inteso come un vero e proprio imperativo da perseguire sulla base della reale natura umana a cui sarebbe “concesso” di pensare se stessi in maniera razionale. Un privilegio, quindi, a cui non potersi sottrarre, però, a meno di non voler accondiscendere alla barbarie di una vita senza auto-comprensione.

Cosa sta tecnicamente avvenendo con le nuove tecnologie digitali che potrebbe avere un impatto su questa naturale vocazione umanistica del sapere e che potrebbe aprire le porte verso un moderno imbarbarimento dello spirito? Con chatgpt sta avvenendo che è già possibile redarre dei testi complessi sugli argomenti più svariati, senza che l’uomo ne sia l’autore, senza che quindi dietro ci sia quel processo di auto-comprensione, elaborazione e indagine di se stessi che, abbiamo visto, contraddistingue il sapere umanistico. I testi prodotti da chatgpt sono data-driven, ossia sono basati su dati pre-esistenti, esattamente come avviene per i software che, in ambito delle scienze empiriche e mediche, usano i dati per sviluppare una conoscenza basata sul riconoscimento da parte dell’IA di regolarità statistiche di un certo fenomeno empirico come una patologia. Non c’è dubbio che queste tecnologie nelle scienze empiriche e mediche abbiano mostrato estrema efficacia nell’individuare le caratteristiche di un fenomeno osservato, efficacia connessa proprio al fatto che tali sistemi non ragionano ma analizzano una mole enorme di dati che nessuna intelligenza umana sarebbe in grado di elaborare. L’IA al servizio delle scienze empiriche come la biologia e la medicina consente, infatti, di evitare l’indagine sulla causa che ha generato il fenomeno focalizzandosi semplicemente sulla sua regolarità e replicazione, il che ha reso i sistemi predittivi artificiali molto più potenti del pensiero umano. Certo, questa tecnologia solleva lo scienziato di molta responsabilità riguardante la conoscenza della causa dei fenomeni investigati, il che ripropone la questione della sua formazione, però non si può negare che una disciplina empirica può sorvolare sulla conoscenza della causa che ha generato un fenomeno se poi il risultato è quello di gestire il fenomeno in maniera altrettanto e, in certi casi, persino più efficace.

Tuttavia, il trasferimento del metodo data-driven alle discipline umanistiche che hanno il compito di sviluppare quella conoscenza e comprensione di sé stessi di cui si parlava sopra, pone non poche perplessità sugli scenari futuri della formazione, della società e, persino, della civiltà umane. Per prima cosa, questa tecnologia è basata su data pre-esistenti e li elabora in senso statistico, non secondo il modo della contemporaneità come è tipico del pensiero umano. L’uomo è padrone del sul tempo, e quindi della sua forma di vita direbbe Anscombe, nel momento in cui elabora una conoscenza e comprensione di sé stesso che sia attuale. I testi del passato possono essere di ispirazione in questa attività di comprensione, ma non rappresentano la comprensione stessa. Ad esempio, i passi di Platone sul buon governo ci sono utili come esempio di indagine, ma ovviamente non possono venire traslati in toto nella nostra epoca. Mi pare che elaborare la questione del buon governo utilizzando un ragionamento data-driven sia di per sé fallace, anche qualora performato da un essere umano. Infatti una elaborazione che prescinda dalla temporalità è intrinsecamente povera di risultati.

Tuttavia, il problema connesso all’IA è soprattutto legato al fatto che l’elaborazione viene demandata e affidata all’algoritmo, cosa che esclude l’esercizio intellettivo e l’elemento partecipativo proprio della riflessione filosofica, elemento che è dato dal confronto dialettico con idee alternative. Hegel insegna che non si può edificare una consapevolezza, individuale o collettiva, prescindendo dall’elemento del confronto e comparazione di posizioni divergenti, e che l’esercizio della ragione è per questo inevitabilmente storico. Di questa forma di sapere riflessivo rimane ben poco o niente nei testi prodotti esclusivamente sulla base dei dati e l’intero armamentario critico e culturale su cui si basa il pensiero moderno e occidentale, e con esso le democrazie liberali, verrebbe esautorato della sua efficacia di determinare la vita associata. Chatgpt sembrerebbe proprio il primo passo verso una subalternità dell’uomo rispetto alla macchina che appena si intravedeva negli algoritmi del passato, ma che adesso potrebbe portare a una resa della ragione umana. Inoltre non si può sperare che si possano creare dei santuari di tutela della mente umana visto che questi processi tecnologici e la loro diffusione sono strettamente legati ai processi economici che richiedono risultati rapidi per stare al passo dei tempi. I primi ad essere interessati potrebbero essere gli studenti, sicuramente più accondiscendenti al potenziale delle macchine intelligenti che permettono di risparmiare molto tempo nella stesura delle loro tesi. Purtroppo, però, il problema sembra essere molto più vasto di quello della semplice formazione perché riguarda il modo in cui attraverso chatgpt le informazioni possono venire diffuse. Infatti, tali programmi potrebbero arrivare a plasmare la coscienza politica ed intellettuale delle future generazioni attraverso la selezione delle nozioni e dei ragionamenti resa possibile dalla profilizzazione sempre più marcata dei contenuti. Uno scenario futuro è quello di campagne elettorali svolte attraverso l’ausilio dell’IA che permette di raggiungere i singoli elettori secondo strategie mirate di selezione di contenuti a cui ciascuno è statisticamente più interessato. Disporre di questa tecnologia può consentire l’utilizzo vasto della disinformazione e manipolazione che si sommerebbe ad una società già di suo impoverita della capacità di elaborazione critica del pensiero a causa della pervasività di un sapere pre-elaborato dalle macchine pensanti.

 

4.

É notizia recentissima che negli Stati Uniti, stato dell’Oregon, è stata mandata in onda in diretta la prima trasmissione radiofonica interamente condotta da una IA che ha replicato la voce della solita presentatrice, prendendo telefonate dagli ascoltatori, rispondendo ai loro commenti e selezionando brani musicali, ovviamente secondo la solita logica del riconoscimento di patterns di comportamento. Tutto questo sulla base di un programma chiamato radiogpt che è in grado di emulare i comportamenti, le risposte e i “pensieri” dei conduttori radiofonici e farli interagire con il pubblico. Un valido esempio di automazione che conferma il sospetto (Pasquinelli, 2023) che l’IA non sia altro che un processo para-intelligente di automatizzazione del lavoro e delle relazioni sociali che consente di risparmiare risorse dalle spese per il personale. Questa tecnologia porterà quindi alla rivoluzione del mercato del lavoro attraverso l’automatizzazione di ciò che sino a poco tempo fa non era ritenuto automatizzabile, ossia la creatività, la riflessione critica, la capacità di dialogo e di elaborazione di un pensiero, e persino la simpatica di un presentatore radiofonico.

La domanda a questo punto è la seguente: questa automatizzazione, oltre ad avere ripercussioni nelle vite di singoli individui, non potrebbe portare ad una sterilità culturale derivata da contenuti datadriven, ossia basati su contenuti pre-esistenti? Statisticamente la risposta dovrebbe essere sì, infatti se l’uomo dovesse smettere di scrivere racconti di viaggio, ad esempio, sul Canada e affidarsi esclusivamente sull’IA, questa probabilmente esaurirebbe le possibilità di stesura nel giro di un numero finito di richieste e nulla di veramente nuovo né attuale verrebbe più scritto sul Canada. In assenza della contemporaneità o attualità dell’informazione e del modo di elaborarla, l’IA determinata com’è dalla riproduzione di patterns linguistico-comportamentali potrebbe ridurre notevolmente la capacità di elaborare nuove informazioni e svilupparle autonomamente. In altre parole, il rischio di una conoscenza data-driven è rappresentato dalla monotonia replicante dell’algoritmo e di una informazione di cui non siamo più autori. Questa è una semplice previsione, ma il rischio di una sterilizzazione del sapere connesso all’incapacità di elaborarne uno autonomamente è concreta.

La cultura e la fruizione della risorsa umanistica sta transitando verso la prospettiva di divenire elaborata dalla macchina che è in grado di gestire e muovere il sapere in maniera sempre più articolata e simile alle facoltà umane. Rispetto ai risultati attuali di chatgpt è già probabile confondere i comportamenti di una IA con i comportamenti di una IU (intelligenza umana), al punto che il test di Turing nella sua formulazione originaria arriverebbe ad affermare che ormai non è più possibile distinguere i comportamenti intelligenti di una macchina da quelli di un uomo. In effetti, chatgpt con la sua capacità di produrre testi complessi, di correggerli, di rispondere alle domande come in un dialogo mostra comportamenti assolutamente intelligenti perché in grado di elaborare e proporre espressioni sensate e significative di pensiero. Per quanto prive di una consapevolezza, facoltà che è connessa all’indipendenza propria del mondo della vita, queste macchine, emulando il pensiero e diventando sempre più potenti e sofisticate, potranno arrivare a disincentivare un uso autonomo del pensiero da parte dell’uomo.

 

 

5.

Ormai è assodato che persone, cittadini, studiosi, scienziati e i filosofi debbano farsi trovare preparati ai nuovi scenari che si dipaneranno negli anni prossimi venturi, nei termini di consapevolezza, conoscenze tecniche e competenze. Tuttavia la questione fondamentale in questo momento, secondo me, è rappresentata dal fatto che la comunità nel sul complesso così come i vari settori che la compongono, dal legislatore alla comunità scientifica sino al singolo imprenditore e cittadino, sono abbastanza divisi attorno ad una tecnologia tutto sommato promettente e che, in particolare nelle scienze empiriche, ha dimostrato tutto il suo potenziale. Del resto da più parti si ravvisa il rischio di uno spegnimento dell’intelligenza umana e della sua capacità autonoma di elaborare un pensiero o sistemi di pensiero, ossia di comprendere la civiltà umana, la sua storia e le sue istituzioni in un ottica critica e di miglioramento. Di fronte a questa situazione è necessario, come accenna il titolo di questo contributo, puntare allo sviluppo di una cultura del digitale evitando una semplice cultura digitale che ci potrebbe portare ad un totale detrimento delle capacità cognitive e critiche umane. Una cultura del digitale avrà come compito quello di distinguere i processi di automazione da quelli propriamente umani, preservare quest’ultimi preservando così anche la natura intellettuale della cultura stessa, ossia come risultato di un atto di pensiero e non di elaborazione automatizzata. Per fare questo è necessario ripristinare il senso ed il valore del pensiero critico, umanistico e filosofico, comprenderlo alla luce degli attuali mutamenti e nuove tecnologie. Questo significherebbe dare nuova linfa al sapere umanistico in toto e ripensare la formazione umanistica nel contesto di questo nuovo scenario.

Da più parti si fa riferimento alla crescente importanza di rimettere l’uomo al centro del pensiero, di dare cioè vita ad un nuovo umanesimo e quindi al ripristino della visione di uomo come fautore del proprio progresso e della propria civiltà sottraendolo alla barbarie dell’automatizzazione del pensiero in cui si rinuncia a servirsi della propria ragione al cospetto di una tecnologia che è apprezzata solo se è in grado di sostituirsi all’uomo. Il pensiero umanistico come strumento in grado di ripensare l’uomo rispetto alle nuove sfide che lo attendono, tra cui quella del cambiamento climatico e dello sviluppo sostenibile. Ciò sarà possibile attraverso una comprensione del posto della civiltà umana nel cosmo, ossia attraverso un impegno filosofico volto ad elaborare nuove risposte che non possono provenire da una tecnologia data-driven.

Per supportare questa mia tesi su un nuovo umanesimo credo sia necessario richiamare la famosa distinzione di Sellars tra immagine scientifica e immagine manifesta. Quella di immagine è forse un’espressione infelice da parte di questo grande filosofo che con essa intende un sistema di pensiero o di ragionamento che, sì, ci offre due possibili immagini sebbene, però, attraverso due alternative analisi formali del concettuale. Questa distinzione ci consente di stabilire un possibile approccio verso le minacce rappresentate da un sapere automatizzato senza però demonizzare in toto l’IA. Sellars ci dice che l’immagine scientifica è basata sui dati empirici, sulla matematica e sul metodo delle scienze naturali (in particolare la fisica) e consente di avere una conoscenza certa della realtà empirica, ossia una conoscenza incontrovertibile, fondata e vera. Sellars, tuttavia, afferma che la rivoluzione scientifica con il suo metodo non è stata ancora in grado di sostituirsi al pensiero filosofico ed umanistico, in quanto molti aspetti del sapere non possono venire investigati attraverso il metodo delle scienze naturali perché richiedono la capacità di argomentare le ragioni e difenderle. In effetti, questioni etiche, politiche, sociali, storiche ecc. non si prestano ad un indagine empirica ma piuttosto ad un ragionamento logico-inferenziale del tipo da sempre proposto dal pensiero filosofico. Ecco che definire il buon governo, per esempio, o la libertà o stabilire una buon sistema scolastico per i nostri figli, rientra in un tipo di conoscenza basata sull’immagine manifesta, o, per esprimersi diversamente, sul logos greco. Sellars aggiunge che di fronte ad un eventuale conflitto tra questi due modelli conoscitivi bisognerebbe propendere verso il modello scientifico, qualora questo sia in grado di sviluppare una teoria empirica valida ovviamente, anche se lui non sembra essere convinto che un giorno l’immagine scientifica rimpiazzerà completamente quella manifesta.

Sicuramente l’attuale epistemologia dei Big-Data, ossia la conoscenza scientifica basata sui dati e sulla capacità dell’IA di elaborarli velocemente, è un classico esempio di conoscenza scientifica potenziata dall’uso di strumenti in grado di stabilire correlazioni anche remote tra una mole di dati ormai non più gestibile dalla mente umana. La ricerca medica e biologica sta mostrando tutto il potenziale di questa tecnologia, cosa sicuramente promettente per il progresso umano. Certo, questa tecnologia pone delle perplessità relative alla figura dell’operatore che dovrà dare i comandi a queste macchine: avrà bisogno di una formazione scientifica tradizionale oppure sarà sufficiente una formazione ridotta considerato il lavoro della macchina? Inoltre, sarà necessaria una formazione anche finalizzata alla comprensione di aspetti etici sensibili soprattutto laddove la ricerca si orienterà su aspetti relativi alla vita? Quanto sarà determinante la sua figura nel dirimere questioni etiche? Queste sono tutte domande relative alla comunità scientifica che potranno essere gestite dalla comunità stessa insieme al contributo del legislatore, di esperti del diritto nonché filosofi.

Tuttavia, la questione si complica quanto l’IA pervade campi propri dell’immagine manifesta, ossia aspetti dell’esistenza e della vita associata che sono prerogativa di una elaborazione autonoma da parte del pensiero. La tecnologia data-driven su cui opera chatgpt dimostra come sia possibile che una IA sviluppi testi che contengono un vero e proprio ragionamento, ossia una elaborazione inferenziale di concetti anche abbastanza elaborati. E’ chiaro che dietro non c’è una elaborazione vera e propria essendo questa tecnologia basata sul riconoscimento di regolarità statistiche, tuttavia, come abbiamo visto, tali testi emulano un ragionamento vero e proprio. Considerato che l’immagine manifesta è fondamentale per sviluppare una consapevolezza attorno alla propria vita associata, ossia attorno ai valori, le istituzioni, le passioni e via dicendo, la domanda fondamentale è cosa rimane di questa immagine nel momento in cui affidiamo alla macchina il compito di sviluppare testi attraverso cui essa può venire sviluppata e diffusa? Cosa, cioè, rimane di quello spazio logico delle ragioni all’interno di cui in maniera dialogica e collettiva solleviamo problemi e interpretazioni relative all’uomo, al suo spazio nel mondo e alle sua relazioni storiche e sociali?

Il rischio è quello di vedere questo spazio all’improvviso disabitato e di avere un complessivo detrimento della partecipazione pubblica alla definizione delle grandi questioni dell’uomo, dalla politica ai valori al senso della vita. Infatti, l’aspetto inquietante e subdolo dell’IA non è, come a volte si è paventato, quello di essere più intelligente della mente umana perché opera su un ordine di elaborazione diversa, basato sulla statistica laddove la mente umana opera sulla base della comprensione che è una facoltà che si collega alla dimensione della vita e della vita associata. L’aspetto inquietante è rappresentato dal fatto che l’uomo possa progressivamente cedere quote di elaborazione autonoma alla macchina e rinunciare alle proprie peculiari capacità di pensiero. Il mondo dominato dall’IA, se mai si dovesse arrivare a tanto, sarà un mondo in cui l’uomo sarà più prevedibile e controllabile perché affiderà la propria coscienza critica alla macchina e, così facendo, a coloro che potranno controllare la macchina. Infatti, questo fenomeno dell’IA è legato a processi economici di automatizzazione del processo culturale e di pensiero che possono andare a ridurre notevolmente la capacità critica degli individui e quindi a compromettere quello spazio logico delle ragioni di cui sopra. Nel processo di automatizzazione del pensiero si perde quell’elemento critico di comprensione, conoscenza e revisione della propria forma di vita, quella umana, e si è esposti ad una eteronomia molto spiccata che ci potrebbe rendere dipendenti da una definizione esterna delle nostre esistenze e della vita associata. L’unico modo per contrastare questo fenomeno è quello di puntare sulle scienze umane e la filosofia per preservare ciò che è tipicamente umano nella conoscenza, ossia la definizione della propria forma di vita. Questo processo di appropriazione della realtà attraverso la conoscenza di se stessi, delle forme della vita associata e delle categorie del pensiero consente di ridimensionare il ruolo della macchina a semplice ausilio del sapere, invece che erigerlo a suo unico, “potente” strumento.

In realtà l’IA sta seriamente facendo emergere l’importanza delle discipline umanistiche, unico baluardo di difesa dall’automatizzazione del pensiero e quindi unico strumento di emancipazione dell’uomo dalla macchina, questione che sarà sempre più cogente nei prossimi tempi. Comprendere l’IA anche nei suoi aspetti tecnici significa propriamente ridimensionarla ad un ruolo di semplice strumento piuttosto che produttore unificato e centralizzato di sapere.

 

6.

Sarebbe ingenuo non ammettere che stiamo vivendo un periodo cruciale e di svolta per la storia dell’uomo, in quanto questa nuova tecnologia richiede una rivisitazione dell’uomo e delle sue facoltà razionali, sociali, pratiche ed estetiche. In questo periodo di discernimento tra un mondo dominato dall’automatizzazione del pensiero e della creatività, ed un mondo ancora governato dalla ragione umana, la riscoperta del sapere umanistico torna a giocare un ruolo decisivo per individuare le peculiarità e unicità della nostra forma di vita e per ridimensionare il ruolo della macchina a semplice ausilio del sapere. Solo in questo modo si potrà evitare una società in cui solo pochi possano godere delle libertà dell’uomo mentre i più sarebbero destinati a  diventare semplici utenti di servizi elettronici e fornitori di dati utili a potenziare quegli stessi servizi. Quest’ultima sarebbe una società estremamente impoverita spiritualmente oltre che esposta al dominio dei pochi al controllo dei data base informatici mondiali e in grado, attraverso gli algoritmi, di controllare le coscienze dei più. Al contrario il rafforzamento della filosofia, della cultura e formazione umanistiche porterà ad un uso più consapevole della risorsa digitale senza una confusione tra la macchina e l’uomo, senza quindi un detrimento di quest’ultimo.

 

Leggi  Ebook di Guido Seddone_ChatGPT e lo sviluppo di una (del) digitale.

 

Bibliografia.

Anscombe G. E. M., 2016: Intenzione. Roma, Edusc.

Cristianini Nello, 2023: La Scorciatoia. Bologna, Il Mulino.

Pariser Eli, 2011: Il Filtro. Milano, Il Saggiatore.

Pasquinelli Matteo, 2023: The Eye of the Master. Londra, Verso Books.

Seddone Guido, 2021: Spazio politico, coscienza critica, estetica e intelligenza artificiale: un futuro (in)certo. Web: filosofia.it: http://www.filosofia.it/senza-categoria/internet-grande-risorsa-non-inciampare-nei-pregiudizi-ciascuno-richiede-la-capacita-la-critica-delle-fonti-quello-gli-studi-umanistici-dovrebbero-insegnare/

Sellars Wilfrid, 2013: L’immagine scientifica e l’immagine manifesta. Pisa, ETS.