ChatGPT, intelligenza artificiale generale e le “filosofie” TESCREAL

CR1790-Foto-02
FONTE IMMAGINE: Neosyn (https://neosyn.it/)
Print Friendly, PDF & Email

Una dei temi più in voga del momento è certamente quello dell’Intelligenza Artificiale, un settore di studio e di ricerca attivo da decenni, diventato negli ultimi mesi, di colpo, popolarissimo in seguito al rilascio al “grande pubblico” a novembre 2022 dell’ormai “celebre” chatbot ChatGPT-3 (oggi arrivato alla versione 4), il cui accesso è stato recentemente bloccato in Italia dal Garante della Privacy. Sviluppatrice e proprietaria di questo chatbot è OpenAI, una startup con sede a San Francisco, fondata nel 2015 da Elon Musk e il suo attuale CEO Sam Altman, e che ha tra i suoi principali finanziatori, oltre a Microsoft, alcuni nomi noti della Silicon Valley come Reid Hoffman, co-fondatore di LinkedIn e Peter Thiel, co-fondatore di PayPal. Nata come associazione no profit senza scopo di lucro, OpenAI è oggi divenuta una vera e propria azienda for profit orientata al business e alla diffusione dell’AI all’interno delle nostre vite e della nostra società.

Per avere una definizione sintetica di cosa sia ChatGPT, acronimo di Chat Generative Pre-trained Transformer, è bastato chiederlo al bot stesso e questa è stata la sua pronta risposta: «ChatGPT-3 è un modello di linguaggio naturale basato sull’architettura GPT-3 di OpenAI, che utilizza l’apprendimento automatico per comprendere e generare testo in modo simile a come lo farebbe un essere umano. È progettato per conversare con gli utenti in modo naturale e fornire risposte pertinenti e coerenti alle loro domande».

Dopo il chatbot testuale ChatGPT3, a gennaio 2022, sempre dagli stessi laboratori con sede a San Francisco, è stato rilasciato DALL-E 2, un altro potente algoritmo di intelligenza artificiale in grado di generare immagini a partire da semplici testi. 

A guardar bene, OpenAI non ha fatto altro che aprire il vaso di Pandora, evidentemente già colmo, dell’Intelligenza Artificiale, così che in breve tempo anche gli altri concorrenti si sono affrettati a lanciare sul mercato i loro progetti a cui stavano “tranquillamente” lavorando all’interno dei loro laboratori. I siti e i quotidiani di tutto il mondo hanno infatti poi parlato degli altri tool di AI come Bard, l’attesissimo e promettente algoritmo intelligente di casa Google (per ora rilasciato in versione sperimentale solo in negli Usa e in Gran Bretagna) e, soprattutto, Midjourney un potente generatore di immagini, sul modello di DALL-E 2, divenuto celebre nelle ultime settimane per essere stato lo strumento di AI utilizzato per la creazione delle tanto realistiche quanto false immagini di Donald Trump sottoposto ad arresto e di Papa Francesco avvolto da un improbabile “lussuoso” piumino bianco ribattezzato “monclero”.

Ma quali sono gli scenari e i rischi che attendono la nostra società di fronte a questa nuova rivoluzione tecnologica?

Due recenti articoli hanno affrontato il dibattito da differenti angolature: il primo dal titolo The Age of AI has begun è stato pubblicato da Bill Gates sul suo blog personale GatesNotes, il secondo You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills è apparso invece sulle colonne del New York Times a firma del noto saggista Yuval Harari e di due esperti informatici, Tristan Harris e Aza Raskin, tutti membri fondatori del think tank denominato Center for Humane Technology. A questi due articoli si è poi aggiunta una “lettera aperta”, firmata, tra gli altri, dall’ex fondatore di OpenAI Elon Musk, dal fondatore di Apple, Steve Wozniak, dal sopracitato, Yuval Noah Harar,i e tanti altri esperti del settore, per chiedere una pausa allo sviluppo e la sperimentazione di tutte le tecnologie AI.

Una posizione, questa della “open letter” pubblicata sul sito del Future of Life Institute e cha ha fatto rapidamente il giro del web, certamente non condivisa appieno dal fondatore di Microsoft Bill Gates. Nell’articolo del filantropo statunitense sembra prevalere infatti l’entusiasmo di trovarsi di fronte ad una nuova frontiera della tecnologia in grado di cambiare in meglio il mondo, particolarmente in tre settori: salute, educazione e cambiamento climatico. Tuttavia, la visione ottimista di Gates non stupisce in quanto Microsoft è stata tra i primissimi maggiori investitori di OpenAI e tale “fiducia” è stata recentemente confermata da un accordo con il quale l’azienda di Redmond ha versato 10 miliardi di dollari nelle casse di OpenAI e che prevede l’implementazione di ChatGpt nel motore di ricerca Bing, Teams, Windows 11 e prossimamente anche Office 365.

Sull’altro fronte, i potenziali rischi derivanti da un’adozione “frettolosa” dell’AI all’interno delle nostre strutture sociali sono evidenziati nell’articolo pubblicato sul NWT a firma di Yuval Harari, Tristan Harris e Aza Raskin, i quali partano da uno spiazzante quesito: «Immagina che mentre sali a bordo di un aereo, metà degli ingegneri che lo hanno costruito ti dicono che c’è una probabilità del 10% che l’aereo precipiti, uccidendo te e tutti gli altri a bordo. Saliresti ancora a bordo?»

Quindi i tre studiosi rivelano come nel 2022, a circa 700 tra i migliori accademici e ricercatori impegnati nelle principali aziende attive nel settore dell’Intelligenza Artificiale, venne sottoposto un sondaggio riguardo i possibili rischi futuri dell’AI. Ebbene la metà degli intervistati dichiarò che «c’era una probabilità del 10% o più che i futuri sistemi di A.I portino all’estinzione dell’umanità (o di una perdita di controllo altrettanto permanente e grave). Le aziende tecnologiche che costruiscono i grandi modelli linguistici di oggi sono intrappolate in una corsa per portare tutta l’umanità su quel piano».

I fondatori del Center for Humane Technology mettono dunque in guardia circa gli enormi rischi insiti nell’adozione e diffusione di massa di tali potenti strumenti di Intelligenza Artificiale senza una adeguata fase di sperimentazione così come si è soliti fare in ogni ambito: «Le aziende farmaceutiche non possono vendere nuove medicine alle persone senza prima sottoporre i loro prodotti a rigorosi controlli di sicurezza. I laboratori biotecnologici non possono rilasciare nuovi virus al grande pubblico per impressionare gli azionisti con le loro magie. Allo stesso modo, i sistemi di IA con la potenza di GPT-4 e oltre non dovrebbero coinvolgere la vita di miliardi di persone a un ritmo più veloce di quanto le culture possano siano in grado di assorbirli in sicurezza. Una corsa per dominare il mercato non dovrebbe determinare la velocità di implementazione della tecnologia più importante dell’umanità. Dovremmo muoverci al ritmo di velocità che ci consenta di farlo nella maniera giusta».

Sulla stessa linea di pensiero è l’“open letter” nella quale i firmatari, tra i quali lo stesso Yuval Harari, chiedono con forza una moratoria immediata per tutti i sistemi di Intelligenza artificiale più potenti dell’ultima release Gpt-4 : «I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità” e quindi “invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento».

Ma quali sono i reali enormi rischi che starebbero minacciando l’umanità? La risposta risiede nella pseudo filosofia del cosiddetto “rischio esistenziale” anche conosciuto come “scenario Terminator” teorizzata dal filosofo svedese Nick Bostrom e dalla setta dei lungotermisti alle quale evidentemente aderiscono gli ideatori della lettera aperta che scrivono: «Dovremmo davvero sviluppare menti non umane che potrebbero eventualmente superarci di numero, essere più intelligenti di noi, renderci obsoleti e rimpiazzarci?». Il mondo, a loro dire, sarebbe dunque minacciato da questa Super intelligenza, come il titolo del best seller di Bostrom, in gergo tecnico nota come AGI (Artificial General Intelligence) o Intelligenza artificiale forte, dotata di una propria coscienza e in grado di evolversi progressivamente fino a soppiantare l’umanità per raggiungere i propri obiettivi.

Nei fatti, tale visione è assolutamente fantascientifica. Al riguardo Andrew Ng, ex responsabile dell’intelligenza artificiale di Google, ha dichiarato che temere che l’Intelligenza Artificiale possa un giorno rivoltarsi contro l’umanità equivale a «preoccuparsi del sovrappopolamento di Marte» e il motivo è elementare: queste macchine, nella realtà, sono del tutto stupide in quanto si limitano a fare complicatissimi calcoli statistici sulla base di dataset e input totalmente governati dall’intelligenza dell’uomo.

All’interno di questo odierno movimento che si presenta come una religione laica dai toni apocalittici confluiscono numerose e stravaganti “correnti di pensiero”, al punto che due dei maggiori studiosi del tema, Émile P. Torres e Timinit Gebru, hanno coniato l’acronimo TESCREAL che racchiude le iniziali delle sue principali “filosofie” ispiratrici, ossia: transhumanism, extropianism, singularitarianism, cosmism, rationalism, effective altruism e longtermism. Per sfuggire e poter competere all’AGI all’umanità non resterebbe dunque che creare una nuova razza superiore di “postumani”, in grado di sopravvivere, conquistare nuovi pianeti e creare nuovi utopici mondi popolati da esseri post umani super-intelligenti e immortali che vivono in uno stato di “beatitudine e gioia superiore”. Di fatto, una sorta di Paradiso in terra, come scrisse in “Lettera da Utopia” uno dei suoi principali teorici, il sopracitato filosofo dell’Università di Oxford Nick Bostrom.

In questa prospettiva il transumanesimo, come tutte le pseudo filosofie TESCREAL, è una delirante ideologia che nega il reale, per la quale ciascun uomo invece di essere ciò che “deve” essere secondo la propria natura, può essere e diventare ciò che “vuole” essere grazie ai mezzi tecnologici capaci di trasformarlo e “aumentarne” a piacimento la natura.

Iscriviti a CR

Iscriviti per ricevere tutte le notizie

Ti invieremo la nostra newsletter settimanale completamente GRATUITA.