di Armida Corridori
Se questa scienza che grandi
Vantaggi porterà all’uomo non
Servirà all’uomo per comprendere
Se stesso, finirà per rigirarsi contro
l’uomo.
Giordano Bruno, De l’infinito, universo e mondi.
Un giorno le macchine riusciranno
A risolvere tutti i problemi, ma mai
Nessuna di esse potrà porne uno.
Albert Einstein
La storia del pensiero scientifico e filosofico contemporaneo è segnato, già a partire dalla fine del XIX secolo, dalla progressiva presa di coscienza di un lento ma inesorabile dileguarsi delle certezze, dei fondamenti teorici e pratici del sapere.
Idee e concetti ritenuti immutabili come il Tempo, lo Spazio, il rapporto tra Causa ed Effetto sono stati messi alla prova. Assunta consapevolezza di ciò, ci si è resi conto della necessità di trovare risposte più adeguate ai tempi nuovi, agli interrogativi classici della filosofia intesa ancora come sguardo critico sul mondo.
Si è cercato anche di costruire un’immagine del lavoro e delle prospettive della scienza che ha mantenuto viva la speranza di continuare a ricoprire il ruolo, ereditato dal tempo di Galileo e Newton, di faro illuminante dell’esistenza umana.
Nella ricerca di nuove fondamenta del sapere si è fatta strada una dolorosa intuizione: la scienza non è onnisciente, la conoscenza del mondo non è scevra da errori.
L’epoca contemporanea ha dovuto rinunciare al sogno della fisica classica, quello di poter conoscere il mondo in maniera completa a partire dalle componenti minime ed elementari, “il sogno di Cartesio”.
Gli sviluppi della scienza hanno prodotto lo smascheramento di una delle certezze più fondate: l’immagine di un mondo deterministico, un mondo cioè sui cui eventi e fenomeni è sempre possibile operare previsioni da cui far derivare leggi assolute.
Questa concezione ha favorito la tendenza a vedere il mondo come un insieme di fenomeni semplici, la cui spiegazione si trova nella riduzione della varietà e della molteplicità delle variabili in gioco entro schemi generali e assoluti.
Con Newton questa tendenza diventò poi un metodo per tutte le scienze, un modello a cui adeguarsi per raggiungere rigore e precisione.
Pertanto, astronomia, fisica e cosmologia da un lato, metodo di ricerca filosofica dall’altro, furono solidali e costanti nel procedere secondo una sola direzione, quella che avrebbe portato a concepire il Mondo come un’unica grande macchina.
Galileo riteneva che la descrizione del mondo dovesse attuarsi riducendo le sue caratteristiche solo a quelle quantificabili e misurabili. In questa tendenza al riduzionismo lo seguivano Bacone con il suo metodo induttivo e Cartesio con il suo dubbio metodico. In particolare con Cartesio, la certezza della scienza fu sinonimo di chiarezza ed evidenza.
Di conseguenza, il probabile e l’oscuro vennero spazzati via nel nome di una matematizzazione della conoscenza e di una geometrizzazione del sapere.
L’immagine dell’universo-macchina, dell’ideale riduzionista, ebbe il suo trionfo con Newton che realizzò il sogno di Cartesio. Nato in Inghilterra nel 1642, lo stesso anno della morte di Galileo, sviluppò una completa formulazione matematica della visione meccanicistica della natura, una teoria coerente del Mondo che rimase un fondamento scientifico solido fino al XX secolo.
Da sinistra Renato Cartesio, 1596-1650, Francesco Bacone, 1561-1626, Isaac Newton, 1643-1727
Nell’opera Philosophie Naturalis Principia Mathematica, egli afferma che gli elementi che formano il Mondo si muovono in uno spazio e in un tempo assoluti non condizionati dagli eventi che si verificano dentro di essi, quindi eterni e immutabili.
Queste particelle sono atomi, formati tutti della stessa materia e mossi dalla forza di gravità, l’unica grande legge che li mette in relazione. Essendo stato il tutto creato da Dio, non necessitavano conferme ulteriori delle loro esistenza.
Se da un lato gli scienziati seguivano e approfondivano la teoria meccanicistica dell’universo applicandola a campi sempre più eterogenei, dall’altro avvertivano i limiti di tale teoria.
Fu proprio come è noto nell’ambito della fisica, scienza newtoniana per eccellenza che arrivarono mutamenti di prospettiva sconvolgenti. Le scoperte derivate dall’applicazione della meccanica di Newton allo studio dei gas e dei fenomeni termici diedero l’avvio ad una nuova disciplina: la termodinamica.
Secondo la concezione meccanicistica, se ogni fenomeno naturale è in linea di principio reversibile, se è possibile passare dalla causa all’effetto, deve essere possibile il contrario per ripristinare la situazione di partenza.
Il secondo principio della termodinamica afferma che ciò non è possibile, cioè mentre l’energia meccanica può trasformarsi in calore, non è possibile trasformare in calore l’energia meccanica.
Di conseguenza si ammette la degradazione dell’energia (o entropia) mentre secondo il meccanicismo dovrebbe essere reversibile e conservarsi.
Sarà questo il cavallo di Troia, responsabile del crollo del sogno cartesiano e newtoniano. Il disfacimento di quel modello di scienza portò a una crisi profonda che indirizzò la ricerca a concentrarsi attorno a un concetto racchiuso in una parola: complessità.
La tradizione scientifica aveva creato un modello comprensibile e un’immagine coerente del mondo ma aveva dato per certo il posto centrale dell’uomo nell’universo creato e il ruolo della scienza come sua attività conoscitiva superiore.
Ma già i Greci avevano coltivato il sogno dell’epistème, di una conoscenza coerente e completa. Essi erano consapevoli del caos di fronte al quale si trovano i nostri sensi, della confusione del mondo percepito” così come si mostra agli occhi”. Convinti che non fosse questa tutta la realtà e la verità ultima, ricercarono un principio supremo semplice e unitario.
In sintesi: cominciarono gli Ioni, filosofi della natura a cercare l’Uno sotto il molteplice; seguirono le riflessioni di Parmenide ed Eraclito che spostarono il problema dall’individuazione di una sostanza generale al problema dell’Essere e del mutamento.
Democrito, Epicuro e Lucrezio, filosofi di scuola atomista, avevano manifestato anche loro l’esigenza di ridurre entro uno schema e una struttura concettuale comprensibili all’uomo l’immenso e il mutabile, l’eterno e il divenire. Si deve ad Aristotele la sistematizzazione di tutte le conoscenze entro una rigorosa struttura categoriale, ponendo le basi della scienza occidentale organizzata e divisa in settori ben distinti e separati con oggetti e metodi specifici.
Va detto per inciso che ancora oggi la scienza mostra di non aver risolto completamente i problemi da lui individuati in relazione ai concetti di Tempo e Causa finali.
Questi scienziati-filosofi ritenevano che la realtà delle cose, la loro esistenza fossero date dalla relazione di forza e materia entro una struttura delineata, quella struttura era tutto il Mondo conoscibile.
È proprio il concetto di relazione, inteso come punto di vista privilegiato per la conoscenza l’eredità più feconda del pensiero “scientifico” greco. La scienza dell’età moderna ha però sottovalutato questo aspetto, preferendo soffermarsi sulla ricerca delle leggi assolute.
Questo ha creato così delle chiusure, dei limiti alla comprensione messi in luce successivamente con la crisi del modello riduzionista e meccanicista.
Da un punto di vista etico, la scienza si è posta nei confronti del mondo come un Adamo cacciato dall’Eden, che, tenta, leggendo il libro della natura di decifrarne i simboli per ritornare così ad una conoscenza-felicità.
Sul piano teorico, questa distanza fra uomo e natura è stata resa possibile, di fatto seppure inconsapevolmente proprio dal metodo sperimentale. Dietro l’intento del dialogo con la natura, lo scienziato cercava di trovare confermate le strutture teoriche irrigidite in leggi.
Quindi nel momento in cui si prende coscienza della necessità di elaborare una nuova teoria, si devono ridisegnare anche gli strumenti d’indagine e il sistema delle pratiche sperimentali di ogni disciplina.
Arriva perciò dal passato, per troppo tempo dimenticato, il cuore teorico delle nuove sfide che la natura pone alla scienza.
Infine, siamo passati da un’immagine della scienza come epistème, cioè certezza, sicurezza, raggiungimento della verità, alla scienza come doxa, sapere fallibile, ipotetico, opinione, un discorso intorno alle cose.
Forse è questo l’aspetto più importante di quella crisi che è la caratteristica fondamentale causata dalla scienza del ‘900.
Gli uomini non hanno mai abitato il mondo, ma sempre e solo la descrizione che di volta in volta il mito, la religione, la filosofia, la scienza hanno dato del mondo.
Una descrizione attraverso parole stabili, collocate ai confini dell’universo per la sua delimitazione e all’interno dell’universo per la sua articolazione. Tra “le cose di lassù” e “le cose di quaggiù”, era possibile riconoscere una gerarchia che dava stabilità.
Annunciando che era la terra a ruotare intorno al sole, a sua volta lanciato in una corsa senza meta, la scienza ha consegnato una nuova descrizione del mondo che ha comportato il decentramento dell’universo senza più orientamento e stabilità.
Di conseguenza l’universo ha perso il suo ordine, la sua finalità e la sua gerarchia per offrirsi all’uomo come pura macchina indagabile con gli strumenti della ragione fatta calcolo e questo ha dischiuso lo scenario artificiale e potente della tecnica.
L'AUTORE E IL TESTO
Del rapporto tra filosofia, scienza e tecnica, si occupa il testo di Federico Faggin Irriducibile uscito nel 2022 per la casa editrice Mondadori, il cui sottotitolo recita: La coscienza, la vita, i computer e la nostra natura.
L’autore è un fisico , pioniere della rivoluzione informatica, inventore e imprenditore italiano. Nato a Vicenza nel 1941, laureato in Fisica all’Università di Padova, nel 1968 si è trasferito nella Silicon Valley in California.
Nel 1970 ha progettato il primo microprocessore al mondo l’Intel 4004 e ha guidato il team che si occupava dei componenti che hanno rivoluzionato l’informatica.
Nella seconda metà degli anni Ottanta ha iniziato a interessarsi alle reti neuronali artificiali e ha fondato la Synaptics per sviluppare chip analogici in grado di emulare le reti neurali utilizzando transistori a porta flottante. In quel momento le reti neurali erano considerate dagli esperti dell’intelligenza artificiale una pessima idea. A questo punto dei suoi studi che l’autore iniziò a chiedersi se fosse possibile costruire un computer dotato di coscienza.
Secondo gli scienziati materialistici la risposta è positiva e quindi Faggin ha iniziato a esplorare diversi modi per raggiungere questo obiettivo a cominciare da una riflessione profonda sugli attributi della coscienza.
Il primo ostacolo che si è trovato di fronte è stato quello di definire la natura dei sentimenti e delle emozioni positive e negative, ciò che i filosofi chiamano qualia (“stato mentale qualitativo”). Era possibile convertire i segnali elettrici di un computer in qualia?
Per rispondere a questa domanda affronta un percorso di esplorazione della propria realtà interiore fino ad allora trascurata cercando di integrarla con quella esteriore.
Federico Faggin, copertina del suo libro e a destra chip di circuiti integrati
A questo punto, la ricerca lo porta a mettere in discussione in modo radicale la teoria che ci descrive come macchine biologiche analoghe ai computer e che tralascia di considerare tutti quegli aspetti che non rispettano i paradigmi meccanicistici e riduzionisti. L’esperienza del mondo esteriore si basa sulla riproducibilità di eventi condivisi, mentre quella del mondo interiore è strettamente privata e può essere conosciuta dagli altri solo nella misura in cui decidiamo di comunicarla.
Per approfondire questi temi nel 2011 crea insieme alla moglie la Federico and Elvia Faggin Foundation per sostenere le necessarie ricerche.
UN MONDO NUOVO
L’uomo si pone da sempre la domanda di come è fatto il mondo, ma nonostante negli ultimi cento anni grazie alla fisica quantistica siano stati fatti passi da gigante manca ancora una teoria che sia in grado di elaborare una visione del mondo unitaria e coerente.
L’autore illustra il cambiamento di prospettiva succeduto alla fine della fisica classica che dominava la visione scientifica del mondo alla fine del XIX secolo.
Alle soglie del XX secolo si riteneva ancora che non ci fosse niente di nuovo da scoprire in fisica solo misurazioni sempre più precise. Un quarto di secolo dopo venivano capovolte tutte le assunzioni fondamentali della fisica classica.
Questa revisione, grazie alle scoperte della termodinamica come già detto, portò a scoprire la relatività speciale o ristretta, la relatività generale e la meccanica quantistica.
Una nuova fisica ha sostituito così il determinismo e il riduzionismo con l’indeterminismo e l’olismo. È stato un cambiamento sconvolgente e così difficile da accettare che si sta ancora cercando di venire a patti con questa rivoluzione concettuale.
La difficoltà risiede nell’indeterminismo della fisica quantistica che ha eliminato la possibilità di conoscere tutta la verità sul mondo fisico non solo in pratica ma anche in linea di principio.
Nel 1899 tre fenomeni erano inspiegabili con la fisica classica: la radiazione del corpo nero, l’effetto fotoelettrico e le trasformazioni di Lorentz.
Secondo la fisica classica la radiazione elettromagnetica emessa da un corpo in equilibrio termico con l’ambiente, detto “corpo nero”, doveva aumentare senza limiti con l’aumentare della frequenza della radiazione emessa, mentre il comportamento misurato tendeva invece a 0.
Questa era una discrepanza così clamorosa da essere chiamata “catastrofe ultravioletta”. Questo problema costituiva una spina nel fianco della fisica. Verrà spiegato da Max Planck usando un espediente matematico che all’inizio sembrò ingiustificato.
Nel 1905 un giovane Albert Einstein riuscì a spiegare l’effetto fotoelettrico come l’interazione tra luce e materia che produce elettroni sia causata da “particelle di luce” aventi quanti di energia forniti dalla relazione di Planck.
Inoltre, la luce quando interagisce con gli atomi della materia, si comporta come tante particelle e non come un’onda. Il quanto di luce fu più tardi chiamato fotone e le sue implicazioni furono sbalorditive.
La spiegazione di Einstein fu di mostrare che la luce poteva essere intesa come l’insieme di molti fotoni individuali che però non perdevano la loro individualità una volta sommati. Questa spiegazione gli valse il premio Nobel.
Albert Einstein, 14 marzo 1879, Ulma, Germania - 18 aprile 1955, Princeton, New Jersey, Stati Uniti
Einstein spiegò anche come gli oggetti violino la trasformazione inerziale galileiana quando si muovono con una velocità vicina a quella della luce che è la stessa in tutti i sistemi che si muovono a velocità costante.
Da tutto questo scaturirono conseguenze devastanti, in quanto si scoprì che il tempo e lo spazio, fino ad allora considerati indipendenti e assoluti, dipendevano invece dalla velocità relativa tra osservatore e osservato.
Man mano che la velocità relativa si avvicinava a quella della luce C, il tempo segnato da un orologio rallentava e un metro allineato nella direzione del moto si accorciava! Questa teoria fu chiamata relatività speciale.
Einstein scoprì anche che la nozione di simultaneità degli eventi non era assoluta come si pensava, ma relativa al moto dell’osservatore e che la massa a riposo di un oggetto M e la sua energia E sono proporzionali secondo la famosa relazione E = mc2.
Non tutti sanno che Einstein per elaborare la sua teoria si è valso dell’aiuto del matematico italiano Gregorio Ricci Curbastro docente di matematica a Padova.
Importante è stato il contributo di Tullio Levi-Civita fisico allievo di Curbastro. Einstein tenne una Lectio magistralis il 27 ottobre 1921 nell’aula magna di palazzo Bo a Padova e continuerà ad avere rapporti con l’Italia anche quando dovette trasferirsi negli Stati Uniti.
La massa di una particella a riposo è quindi energia confinata in una microscopica porzione di spazio. Incredibile! Un’altra scoperta importante avviene nel 1911 ad opera di Lord Rutherford.
L’atomo che fin da Democrito era stato considerato particella di materia solida e indivisibile, si rivelava invece quasi vuoto e divisibile, composto di un minuscolo nucleo circondato da elettroni, simile a un sistema solare in miniatura.
Nel 1915 Einstein completò la sua teoria della relatività generale (RG), dimostrando che la forza gravitazionale si poteva spiegare come un effetto geometrico sullo spazio-tempo, dovuto alla massa degli oggetti.
Di conseguenza, quando un pianeta orbita attorno a una stella, in realtà si muove in “linea retta”, ma, dato che lo spazio circostante è “curvato” dall’enorme massa della stella, il pianeta finisce per muoversi in un’orbita ellittica attorno ad essa.
La comunità dei fisici era sbalordita!
La RG può essere descritta sinteticamente con le parole del fisico John Archibald Weller: “ lo spazio-tempo dice alla materia come muoversi; la materia dice allo spazio-tempo come curvarsi”.
Lo spazio-tempo cosmico non più euclideo è dunque finito, perché percorrendolo in una direzione, si finirebbe col tornare alla direzione opposta.
Ma nello stesso tempo illimitato, in quanto è curvo, può essere percorso indefinitamente senza mai incontrare un confine.
La nuova concezione dell’universo che si andava elaborando non poteva non influenzare anche gli artisti. Ad esempio Umberto Boccioni ha rappresentato il continuo spazio-temporale nella scultura Forme uniche nella continuità dello spazio, bronzo del 1913, in cui il movimento rapido del corpo permette l’espansione dei volumi nello spazio, rappresentando simultaneamente più movimenti successivi.
Tra le molte scoperte sconvolgenti della fisica, anche nel campo della matematica si stavano verificando sviluppi straordinari. Già negli ultimi decenni dell’Ottocento la scoperta delle geometrie non euclidee aveva dato il via al dibattito sui fondamenti delle matematiche.
Fu il matematico Kurt Godel nel 1931 a sferrare il colpo di grazia al positivismo logico che dominava il pensiero filosofico-scientifico sul finire del XIX secolo.
Egli dimostrò l’incompletezza della matematica, provando che la logica classica era insufficiente a stabilire la verità di tutti gli enunciati possibili che obbedivano alle regole di un sistema assiomatico sufficientemente complesso da contenere la aritmetica.
Anche il teorema di Godel eliminò la completezza e la certezza assoluta che si pensava avesse la matematica.
L’opera di Maurits Cornelis Escher (1898-1974), a metà strada fra arte e matematica che occupa uno spazio unico nella storia della cultura, ben si presta a illustrare alcuni temi della crisi della scienze positivistiche nei primi decenni del Novecento.
Ad esempio nella litografia Belvedere del 1958, illustra il tema della pluridimensionalità dello spazio ipotizzata dalla teoria della relatività di Einstein.
Così è nella litografia Balconata caratterizzata dalla compresenza o addirittura dalla compenetrazione di strutture o dimensioni spaziali diverse. Vari mondi sono quindi possibili e possono coesistere. Infine nell’opera Relatività, 1953, spazio e tempo non sono assoluti, ma vanno considerati all’interno del loro sistema di riferimento.
Belvedere (litografia, 1958) di Maurits Cornelis Escher (Leeuwarden, 17 giugno 1898 - Laren, 27 marzo 1972), incisore e grafico olandese
COME CONOSCIAMO?
La risposta a questa domanda ha impegnato da sempre la storia del pensiero. Se la realtà è creata continuamente dalle interazioni che avvengono tra le sue “parti” che non sono però separabili, ne consegue che le posizioni dell’osservatore e dell’osservato sono simmetriche.
Come disse Werner Hisenberg:” L’idea di un mondo reale oggettivo le cui parti più piccole esistono oggettivamente nello stesso senso in cui esistono le pietre o gli alberi, indipendentemente dal fatto che le osserviamo o meno……. è impossibile”.
Ma se al termine “osservatore” si sostituisce il termine “partecipante” secondo Wheeler ne discende che la realtà soggettiva e oggettiva in un certo senso si creano a vicenda.
E allora :” È possibile che l’universo in uno strano senso sia portato alla luce” dalla partecipazione di quelli che partecipano.”
È inutile dire che tutto questo cozza con la nostra esperienza quotidiana o per meglio dire ciò che definiamo tale.
Io so di esistere perché sono cosciente di sapere ciò che affermo di sapere, cioè che esisto. Questo è il cogito ergo sum di Cartesio: so di esistere perché “provo l’esperienza di esistere.
Questo tipo di conoscenza può essere definita conoscenza semantica diretta perché si riferisce a me stesso. Quella che si riferisce al mondo esterno si può definire conoscenza semantica indiretta che però non ci assicura che ciò che sappiamo sia completamente vero.
Una macchina invece “sa” senza sapere di sapere e senza nemmeno sapere che cosa significhi sapere. Il suo sapere è inconscio e meccanico e non può essere chiamato conoscenza.
Quello della macchina è semplicemente informazione fatta di simboli senza significato, che possono essere collegati meccanicamente a qualche azione deterministica. Perciò le azioni di un robot non implicano scelte libere e consapevoli.
LE MACCHINE E IL RAPPORTO CON L’UOMO
Alla fine dell’Ottocento, a partire dalla seconda rivoluzione industriale, la tecnica non è più solo un insieme di strumenti volti a migliorare il lavoro e la vita umana, ma è diventata parte integrante della quotidianità.
Ha modificato i rapporti tra le persone, ha trasformato radicalmente il tempo e lo spazio ma anche il modo di vivere, i valori e il modo di pensare.
Poi, con la nuova rivoluzione scientifica e tecnologica legata soprattutto allo sviluppo del computer, dell’informatica e della telematica, questi processi si sono ampliati notevolmente e modificati qualitativamente.
Una delle più note riflessioni filosofiche sulla tecnica è svolta da Martin Heidegger (1889-1976).
Martin Heidegger (1889-1976)
Secondo il filosofo il cambiamento apportato dalla tecnica rispetto al passato, è quello di “pro-vocare”. Ovvero è un chiamare la natura manipolandola e inducendola a rientrare nel processo della produzione retto dalla regola della massima utilizzazione al minimo costo.
Le vorticose trasformazioni operate dalla tecnica rivelano l’essere, perché portano allo scoperto la natura. La tecnica però non solo svela, ma soprattutto, nasconde l’essere, in quanto comporta il pericolo che l’uomo si senta il signore della Terra. Di conseguenza finisca con il credere che tutto ciò che esiste sia un proprio prodotto e lo riduca all’utilizzabile.
Essa mette in pericolo il rapporto dell’uomo con se stesso e con tutto ciò che è perché si realizza il destino della metafisica occidentale che ha ridotto l’essere all’ente.
La tecnica infatti è così presa a utilizzare l’ente, che finisce per cadere nell’oblio dell’essere.
Un esempio in questo senso è l’architettura “organica” di Frank Lloyd Wright che cerca di superare questo conflitto nella Casa Kaufman detta “La casa sulla cascata” Bear Run, 1936 che costituisce forse l’esempio più alto di integrazione fra tecnica e rispetto dell’ambiente naturale.
Il pericolo maggiore consiste nel fatto che la tecnica da opportunità per una comprensione del mondo e della natura, può diventare uno schermo che li nasconde. Ma il rischio è anche quello di modellare su di essa l’atteggiamento verso il mondo e da strumento diventare orizzonte nel quale inserire la prospettiva di vita.
Nel saggio Psiche e tecne. L’uomo nell’età della tecnica, Umberto Galimberti sulla scia di Heidegger, si pone un interrogativo inquietante: viviamo nell’era della tecnica, ma siamo pronti a farlo?
In realtà noi portiamo ancora i tratti dell’uomo pre-tecnologico che agiva in vista di scopi iscritti in un orizzonte di senso con un bagaglio di idee proprie e un corredo di sentimenti in cui si riconosceva.
L’età della tecnica ha abolito questo scenario “umanistico” e le domande di senso restano inevase , non in quanto non è ancora abbastanza perfezionata, ma perché non rientra nel suo programma trovare risposte a simile domanda.
La storia del computer per quanto breve non può essere ripercorsa in queste pagine se non in sintesi. C’è da dire che i problemi filosofici hanno preceduto e anticipato lo sviluppo tecnico.
Già in uno scritto del 1950 Alan Mathison Turing(1912-1954) intuì le potenzialità dei pochi calcolatori esistenti tanto da porsi la questione fondamentale sul piano filosofico se le macchine potessero diventare intelligenti e su quali basi essere definite tali.
La svolta più significativa, che ha segnato l’inizio della “quarta generazione” è stata la nascita del microprocessore nel 1971 per merito di F. Faggin come già esposto.
L’unità centrale di un intero computer viene racchiusa in un circuito integrato. Nel 1981, la IBM avvia la produzione del primo pc, personal computer, così piccolo da poter essere tenuto sulla scrivania e usato da un singolo utente.
La “quinta generazione” è quella attuale, caratterizzata da processori molto potenti che sono in grado di gestire un grande flusso di dati. Sono macchine multimediali che integrano immagini, suoni e video.
Possono essere usati per guardare film in dvd o per leggere in tempo reale filmati in Internet, dai telegiornali ai film on demand. Tuttavia il vero salto generazionale non è segnato tanto dall’aumento delle prestazioni e dalla dimensione dei costi, quanto dal convergere di due diversi processi: l’informazione di massa e lo sviluppo di Internet.
Di conseguenza oltre che strumento di lavoro e di divertimento, il computer è diventato soprattutto strumento di comunicazione, una vera e propria finestra sul mondo.
IL COMPUTER, MODELLO O CLONE DELLA INTELLIGENZA UMANA?
Il computer è stato considerato come un modello della mente umana e utilizzato per comprenderne meglio alcuni meccanismi. Si parla di “hardware” a proposito del cervello e di “software” in riferimento alla mente:
La differenza principale consiste nel fatto che il cervello opera in parallelo, potendo trattare più processi contemporaneamente, mentre il computer procede in modo seriale.
La domanda che si pone è se l’uso della mente deve prendere il computer come modello oppure modellare i computer perché funzionino come la nostra mente.
Il rischio evidente è quello di imporre alla mente un modo di ragionare rigoroso ma rigido e dominato dagli aspetti logici a danno di quelli creativi e intuitivi.
Proprio grazie all’analogia mente-corpo si è sviluppata una nuova teoria, il “Funzionalismo”, sostenuta in particolare da Daniel C. Demet (1942-viv.). Mentre i materialisti identificando gli stati mentali con quelli cerebrali, escludono la presenza di stati mentali in tutto ciò che è diverso da noi, compresi i computer.
Per i funzionalisti, invece, ritenere che solo gli esseri umani siano in grado di pensare è una forma di antropocentrismo discutibile. Di conseguenza sostengono che gli stati mentali dell’uomo sono “stati funzionali”, hanno una certa funzione, un certo processo, in particolare la capacità di manipolare simboli.
Una funzione può essere svolta da sistemi diversi, quindi anche quella del pensare può essere eseguita da supporti differenti, da un cervello umano o dai circuiti elettronici di un computer.
Infine, la teoria delle reti neuronali o connessionismo, sostiene che se gli stati mentali sono stati funzionali, sono programmi simulabili anche da una macchina, ma si devono tenere presenti le caratteristiche fisico-biologiche del cervello umano d’accordo con la teoria dell’identità.
Naturalmente i filosofi spiritualisti negano che una macchina se fosse realmente costruita potrebbe diventare autocosciente in conseguenza di un abisso, di un salto insuperabile tra la materia e lo spirito.
Il dibattito sul rapporto mente-corpo-macchine, come ogni genuino problema filosofico resta aperto.
LA NATURA DELLA COSCIENZA
C’è un’altra questione che l’autore del testo si pone lavorando con le reti neurali artificiali alla Synaptics, è il suo primo incontro con la coscienza.
Come fa l’attività elettrochimica del cervello a manifestarsi sotto forma di sensazioni e sentimenti? Sono la stessa cosa?
Secondo l’assunto materialista tutto ciò che esiste dev’essere prodotto in qualche modo dalle interazioni di atomi e molecole. Ma come funziona?
La risposta a questa domanda ha portato l’autore a riflettere profondamente sulle proprietà della coscienza e si è reso conto della totale mancanza di comprensione della natura delle sensazioni e dei sentimenti, ovvero di ciò che i filosofi chiamano Qualia.
La nostra coscienza è lo spazio interiore dove i segnali provenienti dal mondo fisico all’interno e all’esterno del corpo ed elaborati dal cervello, assumono la forma di sentimenti, sensazioni e significati.
Anche una macchina può riconoscere una rosa dalle sue “emissioni” molecolari, emulando il processo naturale. Per la macchina il nome dell’oggetto riconosciuto è solo un altro segnale e può rispondere solo dal modo con cui è stata programmata.
Per noi, invece, il profumo della rosa non è un segnale, è un quale, completamente diverso dai segnali elettrici generati dalle reti neurali. È una qualità che i poeti hanno cercato in mille modi di esprimere, senza mai riuscirci.
“Buttate pure via/ ogni opera in versi o in prosa./ Nessuno è mai riuscito a dire/ cos’è, nelle sua essenza, una rosa.
Giorgio Caproni, Elogio della rosa
Il computer, invece, non può essere consapevole di nulla, né può ragionare coscientemente sulla sua esperienza.
Qui sta il limite fondamentale e il pericolo dell’intelligenza artificiale. Molti ricercatori ritengono che la coscienza non sia necessaria per ottenere un comportamento intelligente.
Questa visione si basa su una definizione inadeguata dell’intelligenza. La vera intelligenza infatti non consiste solo nella capacità di elaborare e calcolare dati, che ormai le macchine possono fare meglio di noi, ma molto di più.
La vera intelligenza non è algoritmica, ma è la capacità di comprendere, cioè di intus-legere, ossia di “leggere dentro”, di capire in profondità e di trovare connessioni insospettate tra simboli diversi.
A questo punto lo scienziato Faggin elenca i problemi fondamentali ancora irrisolti che riguardano la creazione, l’origine dell’universo, della vita, come si è evoluta e infine il problema della coscienza e del libero arbitrio.
Per risolverli, la scienza parte dal presupposto che ci sia un Campo unificato con tutte le proprietà necessarie a trasformarsi in materia-energia e spazio-tempo per effetto di leggi che descrivono le interazioni fra le parti.
Il Campo è ontologico, in quanto rappresenta la “sostanza” dinamica che costituisce tutto ciò che esiste e che esisterà.
Per quanto riguarda il problema della coscienza, alcuni asseriscono che a un certo punto questa qualità emerge negli organismi che possiedono un cervello sufficientemente evoluto. Come è possibile che la coscienza possa emergere da organismi che ne sono privi?
Rispetto al libero arbitrio che sembra opporsi all’esistenza di leggi immutabili, la maggior parte dei fisici crede che non esista. Ma se non fosse stato necessario per l’evoluzione della vita e della coscienza, per quale ragione dovrebbe esistere negli uomini?
Una teoria della coscienza deve usare l’informazione quantistica per descrivere l’esperienza cosciente. Ma una teoria dell’esperienza non va confusa con l’esperienza stessa, come una foto non va confusa con la persona che rappresenta. A questo proposito emblematico è un quadro di Magritte che rappresenta un’immagine molto realistica di una pipa.
L’autore ha scritto sotto il quadro:” Questa non è una pipa”. Se non è una pipa che cos’è? La risposta l’ha data lo stesso Magritte: “È solo una rappresentazione. Se avessi scritto: Questa è una pipa, avrei mentito”.
Se un computer ripetesse le stesse parole con cui ho descritto l’amore che provo, avrebbe lo stesso mio comportamento esteriore, senza però avere alcuna esperienza interiore.
C’è una parola inglese usata raramente “Seity” che significa possedere individualità. Una seity è un “campo” in uno stato puro che esiste in una realtà più vasta del mondo fisico che contiene il nostro corpo.
Nel modello proposto da Faggin, la coscienza, il libero arbitrio e la vita esistono sin dall’inizio, come semi all’interno di un Tutto olistico che contiene anche le proprietà fondamentali che permettono l’evoluzione dell’universo inanimato.
I materialisti considerano ragionevoli le leggi della fisica classica, ma queste non contemplano che la Natura abbia la coscienza e il libero arbitrio che ci distinguono e che considerano epifenomenali.
È proprio sulla base di questi pregiudizi che molti pensatori ritengono che i computer potranno in futuro essere coscienti.
Conoscere significa venire a esistenza pertanto conoscere è ontologico. L’idea che conoscere intanto se stessi sia tra le più profonde esigenze dello spirito umano ha un’antichissima origine.
Nel frontespizio del tempio di Apollo a Delfi 2500 anni fa, erano incise le parole:” O uomo, conosci te stesso, e conoscerai l’universo e gli dei”. Il compito principale nella vita di ognuno è dare alla luce se stesso.
Ma conoscere è amare, e amare è conoscere. Più aumenta la conoscenza- la vera conoscenza cosciente- più aumenta l’amore. Un’interpretazione etimologica fa derivare la parola “amore” dal latino a-mors, non morte, quindi l’amore è immortale.
Per Emily Dickinson: ”...l’amore è immortalità/ o meglio, è sostanza divina./ Chi ama non conosce morte,/ perché l’amore fa rinascere la vita/ nella divinità.”
Quanto alla morte, essa riguarda solo il corpo, non la seity che è la nostra essenza quantistica.
“ Tutte le cose sono nell’universo e l’universo è in tutte le cose….in questo modo tutte le cose si uniscono in una perfetta armonia”.
Giordano Bruno, De la causa, principio et uno
Per spiegare la realtà che contiene coscienza e libero arbitrio si dall’inizio, ci dev’essere un Principio creativo che dia scopo, significato e direzione all’universo.
Il principio potrebbe essere questo: Uno vuole conoscere se stesso per autorealizzarsi, pertanto la coscienza, il libero arbitrio e la vita sono le proprietà che Uno deve possedere.
L’olismo e il dinamismo del Campo, con l’aggiunta del Principio creativo sono le proprietà fondamentali e irriducibili di Uno. Ne consegue che c’è teleologia nell’universo, un’idea considerata inaccettabile da molti fisici.
Eppure il principio di minima azione, che è alla base delle equazioni della fisica quantistica, è un principio teleologico.
L’obiettivo iniziale della scienza era quello di spiegare i fenomeni naturali. Quando gli scienziati si sono convinti che la matematica poteva darci una descrizione dettagliata della realtà e che la nostra intuizione basata sui sensi era fallace, si è diffusa l’idea che la vita fosse meccanica.
Occorre ricordare che Galilei affermava che la matematica è il linguaggio della natura, non che fosse la natura. È accaduto invece che il bisogno di una matematica sempre più complessa per descrivere il mondo abbia allontanato sempre più l’esperienza vissuta che è l’unica vera sorgente di conoscenza.
L’altra conseguenza è stata quella di considerare la razionalità la sola forma mentis da usare nello studio della realtà.
“La bellezza è la vita quando la vita si rivela. La bellezza è l’eternità che si contempla allo specchio, e noi siamo l’eternità e lo specchio”.
Khalil Gibran
LA REALTA’ VIRTUALE
L’uomo contemporaneo si deve misurare ormai anche con la realtà virtuale. In senso stretto consiste in una serie di stimoli mediante apparecchiature elettroniche tali da ingannare gli organi di senso, al punto da non poter distinguere l’esperienza costruita dalla corrispondente reale.
Ad esempio è possibile la ricostruzione di ambienti tridimensionali come musei o città antiche come Pompei o modelli tridimensionali di oggetti vari.
Intesa come riproduzione indistinguibile dalla realtà, quella virtuale richiama una serie di significati che rimandano al mito della caverna di Platone o al “genio maligno” di Cartesio, per arrivare alla fantascienza contemporanea.
Matrix, il primo film di una trilogia fortunata, immagina un’umanità dominata dalle macchine che fanno credere a ogni individuo di condurre una vita normale, mentre in realtà è ridotto in uno stato larvale.
La realtà immaginaria, creata da un programma chiamato appunto “Matrix” è proiettata direttamente nella mente degli uomini ed è del tutto indistinguibile dalla realtà vera.
Solo alcuni, come nel mito della caverna, riescono a sottrarsi a queste condizioni e lottano per liberare gli altri.
Ma se si esclude l’aspetto negativo e inquietante della realtà virtuale di Matrix, usata per soggiogare gli uomini, anche le monadi di Leibniz sono in fondo simili.
In questo caso è Dio ad attribuire le rappresentazioni mentali di ogni monade in modo che percepisca interazioni che in realtà non avvengono.
Il problema dell’esistenza o meno della realtà come la percepiamo attraversa tutte le gnoseologie fenomeniche, dall’empirismo a Kant e oltre. Pertanto l’uso dell’aggettivo “virtuale” diventerebbe sinonimo di “fenomenico”.
Senza dubbio l’idea della realtà come fenomeno si presta bene a interpretare la realtà virtuale nel suo significato più ampio.
Se la conoscenza è fenomenica, allora il soggetto può modificarla, rielaborarla o interpretarla ed è quello che accade con quella virtuale.
È una vera e propria dimensione che può comprendere anche i rapporti interpersonali, per esempio le chat. Accanto allo spazio fisico e a quello mentale c’è uno spazio virtuale, il cyberspazio, che non è né l’uno né l’altro o, in un certo senso è sia l’uno sia l’altro.
Un filosofo particolarmente attento alle dinamiche della società postmoderna è Gianni Vattimo (1936-viv.) che ha analizzato le trasformazioni della soggettività indotte dalla dimensione del cyberspazio.
La pluralità dei mass-media determina una pluralità di prospettive, di interpretazioni della realtà, moltiplicata da Internet che, per sua natura è un medium policentrico.
La moltiplicazione delle Weltaschaungen, implica l’accettazione della diversità e di un “pensiero debole”, privo di verità assolute e di certezze, aperto al confronto e alla ricerca.
Di conseguenza il centro della realtà si è spostato dalle cose alle soggettività molteplici che le interpretano.
Pierre Lévy (1956-viv.) è uno degli autori che ha insistito con maggior forza sulle opportunità aperte dalla rivoluzione digitale. In particolare questa tecnica può creare anche una nuova dimensione politica, ad esempio gruppi autorganizzati che realizzano una democrazia diretta in tempo reale nella quale i singoli individui conservano la propria importanza insieme a una identità collettiva.
Un’altra conseguenza importante è quella sul sapere. La dimensione digitale produce un sapere collettivo non più codificato e stabile ma un sapere al quale contribuiscono milioni di individui con contenuti propri.
Non tutti gli studiosi sono così ottimisti sulla valenza positiva della rivoluzione digitale. Intanto la facilità di eseguire un gran numero di calcoli in tempi brevi con le macchine, può scoraggiare l’elaborazione di nuove teorie matematiche, limitando la creazione della scienza futura.
Sembra di trovarsi di fronte sebbene in un'altra forma al mito di Theuth nel Fedro di Platone. Il dio, inventore delle arti le offre al re di Tebe Thasmus affinché ne facesse dono agli egiziani. Il re, quando arrivò alla scrittura, la respinse.
Il rifiuto venne giustificato con la motivazione che se gli uomini avessero imparato a scrivere, avrebbero disimparato a ricordare, affidandosi ai segni piuttosto che alla propria mente.
Nonostante queste critiche, la scrittura si è diffusa in tutto il mondo e ha rappresentato un fattore fondamentale del progresso umano.
C’è un’altra domanda che si pone oggi: la rivoluzione digitale sta cambiando la nostra specie? Secondo alcuni la mutazione è già avvenuta. L’idea è che tutto abbia avuto origine da una svolta mentale: il rifiuto del Novecento e dei suoi disastri contro la fissità e i sistemi bloccati.
Anche se la tecnologia ha dato visibilità a chi non l’aveva, documentando abusi e violenze del potere, siamo di fronte a un “tecnoconformismo”, all’accettazione totale di ogni strumento e al modo in cui viene incanalata la vita con cieca condiscendenza.
Gli individui hanno accettato di cedere la responsabilità di gran parte dei loro processi decisionali o almeno si sta andando in quella direzione.
Un orwelliano Grande fratello ancora più aggiornato che arriva a sorvegliare e misurare tutto: la vita intima delle persone, l’affidabilità degli amici, sopprimendo imprevisti e sfumature nel disinteresse per il libero arbitrio.
La vera domanda da porsi è se gli esseri umani con tutto questo stiano perdendo o acquistando il senso e il valore della propria vita in misura maggiore rispetto al passato.
LA CONOSCENZA VISSUTA
Oggi si tende sempre più a credere che la realtà sia fatta di simboli, ma il simbolo non può sostituire l’esperienza vissuta! Il problema è che noi non ci fidiamo della nostra intuizione, e per conoscere tendiamo a usare principalmente la razionalità che finché resta soltanto a livello simbolico non può che essere incompleta.
I fatti sono solo il primo passo, assolutamente necessario, ma non sufficiente alla comprensione. Il nostro affidamento totale alla matematica come strumento per descrivere la realtà, specialmente per quanto riguarda le estrapolazioni matematiche all’infinito, deve essere riconsiderato alla luce della realtà olistica rivelata dalla fisica quantistica.
Per comprendere la nostra vera natura, non bastano i modelli computazionali e meccanici che stanno prendendo il sopravvento nelle scienze e neppure la logica da sola.
Sono necessari anche gli altri aspetti della nostra natura: le emozioni, il pensiero creativo, la ragione, il coraggio, l’empatia, il libero arbitrio e la capacità incredibile che abbiamo di conoscere mediante l’esperienza.
Se è vero che ciascuno riflette il tutto, la nostra conoscenza deve annoverare anche queste proprietà non algoritmiche, che vanno ben oltre la conoscenza razionale.
Se ci disconnettiamo da questi aspetti che ci distinguono dalle macchine, corriamo il grosso rischio di diventare macchine noi stessi, non per nostra natura ma per scelta.
Non a caso in francese il computer si dice ordinateur in spagnolo ordinador ovvero la macchina mette in ordine mentre l’uomo è “disordine” e “irriducibile” a schemi fissi come recita il titolo del saggio di Faggin.
Reale è il pericolo di lasciarsi sedurre dalla cultura dilagante del consumismo digitale e di sostituire relazioni vere e profonde con quelle virtuali e superficiali.
I social network, programmati per bombardare le persone con messaggi suggestivi basati su false informazioni o su teorie cospiratorie, stanno generando gruppi che vivono alienati dalla realtà.
La tecnologia dev’essere usata per aiutarci a scoprire la nostra vera natura, non per imprigionarci ulteriormente in un mondo virtuale senza significato.
Secondo Faggin per conoscere sempre di più, abbiamo bisogno di una nuova scienza del mondo interiore, una nuova scienza empatica che possa convertire la conoscenza scientifica in una profonda conoscenza vissuta e da essa generare nuova scienza.
LE NUOVE LINEE DI RICERCA
Il futuro dell’intelligenza artificiale non è l’inquietante HAL 9000 immaginato da Arthur C. Clarke e reso immortale dal film 2001 Odissea nello spazio di Stanley Kubrik.
La nuova frontiera dell’AI è quella di utilizzare neuroni umani ottenuti da cellule staminali per costruire un computer biologico che si ritiene possa essere molto più efficiente.
Di conseguenza dovrebbe cambiare anche la definizione da intelligenza artificiale a “intelligenza organoide” ponendo grandi quesiti di natura bioetica. Problemi nuovi li pone anche quella che viene chiamata “ intelligenza generativa” ovvero la possibilità di “ chattare” con il computer come fosse una persona.
Crea contenuti, immagini, suoni oltre ad essere un motore di ricerca è un motore di risposte. Tra i rischi c’è quello di non sapere se la voce che risponde sia umana o della macchina e quindi le possibili manipolazioni.
Nel frattempo, l’introduzione di un nuovo algoritmico GPT-4 da parte di Open AI, che comporta una serie di miglioramenti tecnici, ci ricorda che le macchine intelligenti sono diventate ormai una realtà.
Occorre considerare che non abbiamo ancora una legislazione necessaria a convivere con esse. Quello che rende l’operazione difficile è che non sappiamo che cosa aspettarci da queste macchine, erroneamente cercando in esse un’intelligenza di tipo quasi umano.
È bene essere consapevoli dei rischi che ci sono: decisioni discriminatorie da parte di algoritmi, dipendenza comportamentale degli utenti, polarizzazione ideologica, effetti negativi sul benessere emotivo.
Lo dimostra una recente indagine dell’Università Bicocca di Milano sulle patologie degli adolescenti dovute all’uso eccessivo di smarthpone: depressione, autolesionismo, suicidio.
Come possiamo assicurarci che questi nuovi agenti intelligenti non violino le nostre norme, leggi, valori?
Un’altra frontiera è il metaverso. Il metaverso è la necessaria evoluzione del web, una rete di mondi virtuali 3d che vive grazie all’interazione sociale e alla connessione internet ininterrotta.
Come per ogni innovazione, le promesse sono strabilianti. Si dice che ci sarà la possibilità di fare soldi ma rappresenta anche il primo passo per ampliare gli orizzonti di tutti.
Nuove possibilità di lavoro, di incontro per chi è costretto alla lontananza fisica. Quando i mezzi per creare il proprio mondo virtuale saranno accessibili a tutti, anche il metaverso diventerà un insieme di piattaforme decentralizzate, di cui ogni utente, alla pari con gli altri, sarà protagonista.
Intanto in Italia il garante della privacy ha bloccato la Gpt perché poco trasparente, non si conoscono le fonti della raccolta dati e non c’è alcuna garanzia sul loro uso.
Ogni volta ci si trova di fronte allo stesso problema: la mancanza di regole. Va ricordato che queste aziende operano in una situazione di eccezionalismo giuridico in quanto nel 1996 il Parlamento americano ha permesso il loro sviluppo di quelle che allora erano piccole aziende.
Non c’è dubbio che sia arrivato il momento di avviare un grande dibattito pubblico non tecnico ma culturale a tutto campo per convivere in sicurezza con questa tecnologia.
Altro compito urgente è quello di garantire la formazione digitale a più gente possibile , a cominciare dalle nuove generazioni per imparare a usare la tecnologia in modo corretto per una comprensione vera che non sia quella proposta dalla finzione cinematografica, dalla fantascienza o dal marketing.
Molto dipenderà dalle scelte politiche che si faranno. Il Parlamento europeo sarà chiamato a breve a votare una nuova legge che si chiama “AI ACT”, che deve servire a distinguere i livelli di rischio, cercando di bloccare i casi più pericolosi senza limitarne lo sviluppo.
Le macchine intelligenti non pensano in modo umano e questo deve riflettersi nel modo in cui vanno regolamentate. La prossima grande sfida per l’AI sarà quella dell’interfaccia tra le scienze sociali, umane e naturali e va raccolta perché in gioco c’è la nostra autonomia e dignità.
Infine, per dirlo con le parole di Nikola Tesla:” Il progresso deve servire per migliorare il genere umano, se non è così è solo una perversione”.
BIBLIOGRAFIA
U. Galimberti: Psiche e tecne. L’uomo nell’età della tecnica. Milano, Feltrinelli, 2004
U. Galimberti: L’ospite inquietante. Milano, Feltrinelli, 2007
E. Ruffaldi, G. P. Terravecchia, A. Sani: Il pensiero plurale. Il Novecento. Loescher Editore, Torino, 2008.
Reale-Antiseri: Storia del pensiero filosofico e scientifico. Editrice La Scuola, 2012.
D. Massaro, G. Fornero: Fare filosofia. Paravia, 2000.
N. Abbagnano, G. Fornero: Itinerari di filosofia. Paravia Bruno Mondadori Editore, 2003.