Intelligenza artificiale e vacche nere

di Lavinio Gualdesi

Intelligenza artificiale.

Due parole sulla bocca di tutti di fatto prive di una vera definizione. Se chiedete agli esperti di spiegarvi che cosa sia, non di rado otterrete risposte alquanto dissimili. E questo deriva dal fatto essa scaturisce dall’eredità lasciata dalla cibernetica che, a differenza delle materie classiche quali la fisica, la chimica, la biologia etc., è sempre stata il campo di fusione interdisciplinare nel quale i vari esperti si sono confrontati nella difficile sintesi tra la teoria e la pratica. Fu Norbert Wiener nel 1948 a pubblicare negli Stati Uniti “La Cibernetica”, un libro fondamentale per permettere a scienziati di varia estrazione di “invadere” campi altrui con l’intento comune di investigare sui meccanismi complessi di retroazione presenti nei fenomeni naturali, nella biologia, e perché no, anche nelle macchine complesse che cominciavano a necessitare di logiche di autocontrollo. Già allora alcuni macchinari necessitavano di meccanismi di reazione rapidi ripetitivi e di una attenzione costante pena grossi problemi di funzionamento con conseguenze letali che, nell’opinione comune, avrebbero trasformato brillanti prodotti dell’ingegno, come la macchina a vapore, in diavolerie pericolose per l’umanità. La cibernetica è stata impiegata un pò dovunque e spesso la si è chiamata in altri modi derivanti dalle specifiche applicazioni: sistemi di controllo automatici, autoregolazione, raccolta di dati statistici di retroazione per elettronica, per biologia e medicina. Il famoso Alan Turing può essere considerato il padre del primo vero calcolatore basato sulla logica e sulla matematica. Fino alle moderne macchine da calcolo che si sono appropriate del termine Cyber (e per estensione anche di tanti altri) ad indicare che dalla “De Progressione Diadica” di Leibnitz si passava ad una forma evoluta ed auto-sostentante di utilizzare l’algebra binaria. Quest’algebra è stata utilizzata per meravigliare il mondo con le prodezze esadecimali del COBOL, ASSEMBLER e poi il BASIC, il FORTRAN e tanti altri linguaggi sempre più strutturati ed utili. E proprio il termine FORTRAN che è una contrazione di “formula translator” indica che all’inizio ai software veniva associata l’idea dello strumento che più che i processi industriali automatizza funzioni matematiche. Ma in Italia il passo dalla macchina da calcolo al processore è stato rapidissimo. Il gruppo industriale Olivetti e l’istituto Faedo del CNR hanno ispirato macchine di immediata applicazione. Oggi mi domando come abbia fatto una giovane programmatrice di Basic a contenere in un elaboratore Olivetti P6060, con 64 byte, un programma di gestione di tre colossali robot e un complesso sistema di celle di carico del cantiere navale per ottimizzare la sequenza di produzione, del primo Cacciamine in vetroresina della Marina Militare negli anni 70. Dopo una breve parentesi in cui il calcolatore personale con cui “giocare” in casa era il Commodore 64, mentre i professionisti del settore sfoggiavano i primi IBM personali, Steve Jobs inventava la Mela. Una intuizione geniale inseguita a fatica da Bill Gates. Non è mio compito qui fare paragoni: sono entrambi diventati miliardari creando una dipendenza da droghe informatiche via via sempre più dilaganti ed omni-pervasive. Non posso permettermi di criticare perché, regalatomi da un amico americano, ho introdotto in Italia, il primo (che io sappia) IPhone, che ho penato non poco a far funzionare sulla nostra rete. E nei miei progetti di ingegneria schizzavo disegni sugli stessi fogli verdi a quadretti prodotti dai coscritti americani che usava Wozniak per le modifiche dell’Apple. Un blocco di appunti che diventa anche lui un computer “tablet”, un telefono che diventa Ufficio Postale, Cabina Telefonica, Radiolina, Televisore, Telegiornale, Giornale, Ufficio Di Borsa, Mappa Stradale, GPS e un orologio che diventa Elettrocardiogramma, Sistema di allarme e connessione immediata con i parenti, amici e il mondo intero. Una ubriacatura generale di cibernetica insomma. Con tutta questa congerie di possibilità a disposizione chi resisterebbe alla tentazione di farsi coinvolgere? Nessuno. Anche i più scettici e refrattari, a volte solo per motivi di tardissima età, a osservarli bene… cedono. Dal periodo in cui ci si passava sui foglietti il sito WWW più ricco degli altri con i primi motori di ricerca siamo arrivati al quasi monopolio di Google. Parallelamente gli sviluppatori di software di medio livello si sono differenziati in quelli che lavorano per grosse imprese a grossi progetti ben finanziati e quelli che lavorano in condivisione di autofinanziamento detti in gergo “open source”. Il concetto è: “non avendo risorse di ricerca nè tu nè io, uniamo gli sforzi mettendo in rete tutto quello che sappiamo e vediamo se insieme costruiamo qualche bella novità.” Per distinguersi in genere adottano linguaggi di programmazione diversi da quelli di Windows e Apple e si scambiano librerie proprietarie aperte a tutti. Intendendo per librerie dei programmi di vasto comune impiego perfettamente integrati ed immediatamente impiegabili all’ interno del linguaggio prescelto. Molto spesso questi esperti di informatica si definiscono programmatori di “embedded systems” perché i loro programmi sono adatti ad essere installati dentro microprocessori che fanno funzionare macchinari secondo le specifiche di progetto. Quasi tutto viene pubblicato in rete, ma il controllo di qualità di quello che viene pubblicato viene lasciato al giudizio dell’utente anche perché spesso le esigenze finali non coincidono in modo perfetto. Dopo questa indispensabile ed articolata premessa ora entrano in scena i colossi dell’informatica che, avendo investito grosse cifre, (e incamerato anche grossi ricavi dalle vendite dei prodotti di cui sopra) si inventano i Social Media. Forse nati con il lodevole intento di far socializzare gli individui, perfino quelli più refrattari che non amano uscire di casa e passano ore davanti a un computer isolato, sono diventati una sgangherata palestra di pettegolezzi dove verità e falsità vanno a spasso insieme allegramente in una confusione disneyana tra personaggi veri o inventati, con profili contraffatti e finalità spesso molto meno sociali di quanto non si immagini. Mentre sul palco del video si agitano figure che si sfidano a colpi di “like” dietro allo schermo si contano i “followers” e si calcolano i miliardi che si possono ottenere con la raccolta pubblicitaria. E vi aggiungiamo le “chat” dove, quando i click languono, basta lanciare un argomento polemico divisivo per scatenare una profittevole agitazione. Appena questa si calma, perché qualcuno magari ragiona, allora scatta quella che era la vecchia “catena di Sant’Antonio” per la bimba che vuole andare dagli Appennini alle Ande. Solo che invece di soldi basta un “click”, tranquilli…. ai soldi pensiamo noi. Per realizzare questo colossale affare servono i nuovi programmatori e grosse macchine. Per giustificare il progetto di macchine sempre più potenti occorre aumentare il mercato e allora quando si cerca qualche cosa in rete il motore di ricerca mette in prima pagina chi offre di più. Un discorso simile meriterebbero i siti di acquisti on line, ma il concetto è lo stesso e qui viene tralasciato. Come faccio a vedere se ho pagato la prima pagina per niente o se ho venduto di più grazie a lei? E qui entrano in ballo i “cookies” e le profilazioni del cliente che, essendo un terreno minato anche perché sostanzialmente illegale, viene aggirato con fastidiose mosche che si mettono a ronzare sul bel piatto che hai appena visto apparire sullo schermo e che con artifizi più o meno sofisticati ti inducono a schiacciare sul pericoloso tasto che li autorizza a dimostrare al loro cliente che ci sei caduto e che ti hanno convinto. Non abbiamo fatto neanche in tempo ad accorgerci bene di come funziona che ne hanno inventata un’altra. L’ intelligenza artificiale degli sprovveduti. Se ci pensiamo bene in fondo è il gioco delle tre carte in salsa cibernetica. il sito AI è il biscazziere che ha due compari: uno è quello che fa finta di giocare e vince grosse cifre per finta (nella metafora è chi dice in rete che l’AI gli ha risolto brillantemente un problema) e l’ altro è un falso giocatore in fila che si informa sulle potenzialità ed intenzioni di gioco di tutti quelli che sono in coda (nella metafora è quello che entra nel profilo del richiedente, per fornire una risposta di sicura soddisfazione di chi interroga perché perfettamente in linea con la risposta che egli si attende). Che la puntata sia fasulla, nella metafora è spiegato dal fatto che la ricerca in rete della risposta non ha nulla di intelligente e creativo perché si limita a mettere insieme in modo decentemente coerente tutte le informazioni “copiate” ed “incollate” che l’algoritmo di ricerca ha trovato. L’ unica parte relativamente intelligente è che se l’algoritmo ha un minimo di funzionamento euristico, quando vi classifica attraverso il profilo come veri esperti del settore si preoccupa di classificare questa risposta come dato da pubblicare per successive richieste e così vi ha “rubato” un mattoncino di creatività di questa pseudo intelligenza. Se poi questo tipo di AI è puramente orientata al profitto, questa preoccupazione di funzione euristico qualitativa viene sofisticata solo se porta guadagni. Alla faccia dei programmi di una volta, di cui si è parlato sopra, che prevedevano di partire, come regola imprescindibile, da data base verificati in precedenza. La dizione “garbage in = garbage out” stigmatizzava chi mescolava dati “grezzi” con dati verificati. Era un mondo informatico datato e limitato rispetto a quello dei fantastici super calcolatori moderni? Direi piuttosto il contrario. Una cibernetica moderna non può prescindere dalle sue leggi fondanti. I dati sui quali operare devono essere: coerenti, confrontabili, applicabili e formalmente verificati. I risultati devono essere sottoposti a revisione critica in base alla padronanza del programma che il suo inventore ha, al fine di giudicarli più o meno rispondenti a criteri di controllo qualitativo prima di essere pubblicati in rete per successivo utilizzo come data base. Infine il software. Quello che l’AI definisce vagamente come “algoritmo”, quasi fosse una sibilla cumana informatica, pretende di dire solo cose giuste, ma il risultato dipende da come si leggono e chi le legge non può trovare posto in una cibernetica moderna. A questo punto c’è sempre qualcuno che cerca di intimorirmi con l’argomento che io sono nato tra i byte e ora ci sono macchine che viaggiano sui petabyte e oltre. Si, ma se la cultura di chi li usa non è ricca di parole chiave che investigano in data base professionali e coerenti che risultati ci possiamo aspettare? Ho avuto modo casualmente di vedere macchine mostruose in tempi in cui nessuno ne sospettava l’esistenza, ma mi venivano i brividi quando gli operatori, ridacchiando, mi confessavano che chi li usava non era all’ altezza culturale di impiegarle altrettanto proficuamente. Certi algoritmi presuppongono che se aumento a dismisura il numero di dati analizzati su un argomento, finisco per eliminare statisticamente gli estremi erronei e arrivo iterativamente alla soluzione giusta. Con i vecchi computer non si poteva perché ci mettevano troppo a calcolare. A me non sembra che sia così: un algoritmo euristico è tale solo se impara dai suoi errori ma in base ad un criterio di valutazione preordinato e coerente, possibilmente qualche cosa che si scontri con la natura, che non mente, non con una formula matematica. In altri termini se io utilizzassi il super-calcolatore più potente al mondo per analizzare i dati posti in rete sulla piattaforma COPERNICUS dei dati ambientali, misurati da strumentazione scientifica e convalidati dal controllo qualità, utilizzando modelli matematici pubblicati in letteratura scientifica con “peer review”, avrei un elevato grado di probabilità di fornire risultati circa l’ambiente circostante verificabili mediante un sofisticato sistema euristico di auto apprendimento che si comporterà in modo certamente virtuoso e soprattutto dimostrabile. In questo tipo di Intelligenza Artificiale la matematica è “embedded” con l’esperimento. L’effetto sinergico di ricerca con le verifiche a campo e le teorie formulate genera il meccanismo di intuizione e di creatività che porta al progresso scientifico. Diceva Hegel che la conoscenza distinta e compiuta della dimostrazione matematica che non si sporca le mani con la sperimentazione, va contro la conoscenza della matematica pura che fa riferimento alla notte delle leggi Assolute (di Shelling) nella quale “tutte le vacche sono nere”. Per concludere la nostra cultura umanistica deve costituire la base di queste nuove forme di ricerca attraverso macchine utilissime e sempre più potenti. Il grande filosofo napoletano Giambattista Vico avrebbe detto: “Verum et factum convertuntur”. Sono questi i presupposti di una Scienza Nuova. La matematica, che è la sede della ipotesi, deve confrontare tutte le sue possibilità di soluzione con quella che poi di fatto si verifica. Considerata la infinita potenziale pervasività dei nuovi computer quantistici, far dipendere il nostro futuro da algoritmi sconosciuti e di dubbia finalità fa si che ci sia veramente da preoccuparsi del loro impiego. Concludo con un altro grande assioma del grande Vico: “Scire per causas” Sarai veramente padrone dell’intima conoscenza della realtà solo se sarai tu stesso, con la tua mente e con le tue mani a poterla costruire. E noi con la mente e con le mani abbiamo una lunga storia di costruzioni notevoli. Non sarà una gigantesca potenza di calcolo a spaventarci, anzi…. A questo proposito chi ci dice che sia meglio avere dei potentissimi super-calcolatori nei quali si può concentrare non solo la potenza di calcolo… specie se l’algoritmo è segreto?

Non lo chiamavamo già Grande Fratello prima che ciò prendesse un altro senso? I nostri computer quantistici si presterebbero ad ospitare una infinita intelligenza distribuita in numerose macchine a campo sui quali lavorare da remoto ed utilizzare algoritmi patenti per fare rete (non già solo a fini commerciali) tra conferenze diverse, concordando come interloquire in rete e che cosa mettere fruttuosamente a fattor comune sul modello dell’“open source” sopra descritti. Trovarsi a disposizione una intelligenza distribuita potrebbe addirittura ispirare amministratori pubblici ad utilizzare le competenze per impieghi ufficiali o per azioni sociali nazionali o internazionali. Un percorso decisamente più virtuoso delle ingenti somme di denaro che la cibernetica, dopo averli accumulati nelle mani di pochi, può spostare. La dimensione europea dell’AI potrebbe farci transitare dall’algoritmo misterioso all’algoritmo concordato e condiviso. Dalla concentrazione dei profitti agli investimenti nelle zone depresse. Ma pensare che l’Intelligenza Artificiale possa fare il miracolo che in questi secoli non è riuscito a quella naturale è veramente la più colossale delle utopie.

Dopo il periodo delle vacche grasse ora è il periodo delle vacche nere.

Lavinio Gualdesi