Katia Bovani

AI ed Essere Umano: un rapporto in termini chiari. A confronto con il Prof. Massimo Chiriatti

scrittura libro scrivere

La popolazione africana degli Himba è animista.

Nel 2003 invitai un uomo Himba a guardare dentro l’obiettivo della mia macchina fotografica.

La grande  curiosità lo spinse ad avvicinarsi e guardare, ma scappò subito e la guida mi spiegò che gli Himba reagiscono così verso tutto ciò che  somiglia a uno specchio: temono che possa rubar loro  l’anima.

Anni dopo, è arrivata l’Intelligenza Artificiale .
E nei miei primi approcci a lei…sono stata Himba pure io.

A dire il vero, un pochino mi ci sento ancora in relazione alla natura algoritmica dell’AI  che mai comprenderò per via della  mia formazione non matematica.
E verso la matematica nutro quel timore revenziale da scoperta del fuoco o del tuono.

Poi, mi sono avvicinata agi studi del Prof. Luciano Floridi e a quelli del Prof. Massimo Chiriatti.

E, come è accaduto a molte altre persone, “Incoscienza artificiale Come fanno le macchine a prevedere per noi” mi ha colpita sulla strada di Damasco.

Perché ha fatto sì che nell’impossibilità, per Maometto, di andare alla montagna, la montagna andasse da Maometto.

Ci ho riflettuto molto prima di farlo, ma, a un certo punto ho sentito l’esigenza di  contattare Massimo Chiriatti per chiedergli un’intervista ( la chiamo così per semplicità e non in senso tecnico dato che non sono una giornalista) in cui parlare di non solo di AI, ma anche dei suoi riflessi nella vita ordinaria, del rapporto tra AI ed etica nonché mistero.

Ecco l’intervista.
Leggila e, se vuoi, condividi  il tuo pensiero nei commenti.

AI ed Essere Umano: un rapporto in termini chiari.
A confronto con il Prof. Massimo Chiriatti

“L’Uomo vede l’intelligenza artificiale come una macchina in grado di prendere le sue decisioni, ma si sbaglia, perché è solo un calcolatore si simboli, anche se più sofisticato. L’Intelligenza Artificiale vede l’Uomo come un sistema di numeri, ma si sbaglia perché la coscienza è incomputabile.”[1]

Professore, nel suo libro “Incoscienza artificiale”, lei battezza l’AI con il nome di “IASIMA”.
Chi è IASIMA?

La risposta non può essere univoca: piano formale e profilo sostanziale si intrecciano in una relazione, ontologicamente, molto stretta.

IASIMA è un acronimo formato da

  • IA, Incoscienza artificiale
  • Sì, perché non dobbiamo rifiutarla
  • MA, perché come ho già avuto modo di sottolineare[1], dobbiamo avere un’agenda e le competenze per valutare quando usarla.

Ed è importante nominarla anziché chiamarla esclusivamente “macchina” perché IASIMA è un soggetto agente.

Ma, attenzione.

“Agente non è sinonimo di “cosciente”. Si tratta soltanto di connotarla in senso attivo come soggetto agente in quanto guidato dai numeri.

IASIMA è in grado di svolgere un numero di compiti assai maggiore rispetto a noi esseri umani dal momento che è dotata di un grado di precisione e velocità nettamente superiore alla nostra.
Ma non solo per questo.

Lei riesce dove noi esseri umani non riusciamo anche perché le sono estranei i concetti di “paura” e di “errore”.
E chi non conosce la paura, chi non sa cosa significhi operare valutazione sbagliate o correrne il rischio, beh…non è un soggetto dotato di coscienza.

Sotto il profilo sostanziale IASIMA è una rappresentazione, vale a dire un sistema che consente all’essere umano di percepire una realtà nuova.
O, meglio, è un flusso di realtà che proviene da una macchina.

Quest’ultima incide sulla realtà concreta della nostra vita e con il termine “realtà” intendo proprio quella stessa che l’essere umano ha immesso in IASIMA sotto forma di dati.
Naturalmente, quest’ultima restituisce  a noi – che non necessariamente possiamo o dobbiamo esserne coscienti – una realtà che, per effetto di quelle modificazioni, è diversa dall’originaria e ci colpisce sensorialmente. Colpisce tutti, indifferentemente.

Dobbiamo comprendere che chi modifica la realtà è il programma

Ma si deve anche tenere conto di altri due, importanti elementi: chi immette le informazioni nella macchina e il modo in cui, oggi, prendiamo le nostre decisioni.

Perché – e questo non dobbiamo dimenticarlo mai – oggi l’essere umano decide coniugando gli input che riceve in maniera naturale con quelli che provengono dalla macchina.

Ci accomuna l’ammirazione per Daniel Kahneman: può spiegarci cos’è il Sistema Zero?

Il Sistema 1 funziona indipendentemente dalla volontà: è veloce, intuitivo legato all’emozione e l’automatismo è il suo settore elettivo.

Il Sistema 2 è lento, perché gli compete l’area della valutazione cognitiva: la mente è il suo motore, ma anche la portavoce.

Kahneman parla, appunto, di Sistema 1 e Sistema 2 per spiegare il modo in cui l’essere umano prende le sue decisioni: ragione e intuito. Un processo deliberativo che non è esente da dubbi, pregiudizi, errate valutazioni.
Anzi…

Accanto a questi due sistemi, vedo l’inserimento del Sistema Zero che non ho chiamato in questo modo per un vezzo letterario, bensì per una ragione precisa.

Si tratta di un’estensione del sistema di Kahneman e l’estensione è proprio IASIMA la quale, in virtù del fatto che possiede un numero di dati immensamente maggiore rispetto a quelli dell’uomo, dispone di un orizzonte temporale e spaziale più ampio del nostro.

IASIMA elabora i dati, ma non ne ha coscienza.
Non conosce la relazione causa-effetto, non percepisce la realtà fenomenica.

Nel restituire il risultato della sua lettura dei dati, IASIMA è in grado di compiere un’ottima sintesi di ciò che ha letto, ma non ne conosce la semantica: ecco perché non ha la prerogativa né il potere della comprensione.

Sceglie, elabora, combina simboli, eppure non ha consapevolezza.
Neppure di se stessa.

Il rischio che corriamo noi umani è di rimanerne abbagliati perché molto può essere automatizzato: scrivere, leggere, apprendere.

Ma la macchina non sa cosa sia la verità. Quindi, la rielaborazione critica, il giudizio restano esclusivo appannaggio umano.

Per essere ancora più chiaro: IASIMA legge con metodo statistico i dati che ha appreso in quanto fornitile dall’uomo, ma non ha alcuna capacità di innovare e questa è la ragione per cui costruisce testi senza immaginazione.

La AI è, sì, generativa, ma nel senso che riproduce qualcosa: lei non è in grado di generare ex novo.

E, nel riprodurre, induce nell’essere umano nuovi bisogni la cui traduzione in segni e simboli sarà nuova linfa per IASIMA stessa.

Mi preme precisare che non dobbiamo sentirci minacciati o spaventati dall’AI così come non dobbiamo coltivare l’illusione che la macchina sappia “fare” sostituendo la valutazione e il giudizio umani oppure che conosca “la verità”.

È capace di “fare” solo se le vengono messe a disposizione i dati e le metriche.

Ma la macchina non sa.

Lo scarto tra l’Uomo e l’AI risiede nella coscienza cioè – come scrive nel suo ultimo libro “Incoscienza artificiale. Come fanno le macchine a prevedere per noi” edito da LUISS – ciò che sentiamo quando pensiamo. Attualmente esistono i germi algoritmici di una possibile coscienza artificiale? E Iasima è al corrente di questa sua mancanza?

Mi piace definire la coscienza come “quello che sentiamo mentre stiamo pensando”.

Perciò, la risposta alla prima domanda è “no”, attualmente IASIMA non ha coscienza perché né pensa né è in grado di sentire, provare stati d’animo, emozioni, sentimenti.

Ipotesi circa il futuro non se ne possono formulare.

Però, una cosa è certa: il futuro in cui IASIMA sarà cosciente    è molto, molto lontano.

Attualmente, la letteratura è divisa tra chi pensa che l’intelligenza artificiale sia talmente forte e potente da dominarci al punto che l’essere umano non servirà più e chi sostiene che la priorità sulla quale concentrarsi riguarda la modalità con cui utilizzare la macchina  non domani, ma oggi.

In effetti, la nostra (“nostra” in senso “comune a tutti gli uomini e le donne che utilizzano l’AI”) maggiore preoccupazione deve riguardare i dati che immettiamo in IASIMA e che lei reperisce.

Se inserissimo soltanto i dati relativi alla storia vissuta nel secolo XVIII dagli stati del Sud degli Stati Uniti, IASIMA ci direbbe che la schiavitù è normale.

Per questo, ribadisco sempre la necessità di focalizzarsi sul fatto che siamo noi esseri umani a dover capire, comprendere, distinguere e discernere i dati di conoscenza da immettere nella AI.

Perciò, traendo le fila, IASIMA “vede” con le telecamere, “sente” con i microfoni, “misura” coi suoi sensori. Ma non può “percepire” ciò che sta elaborando né esperire una percezione come l’abbiamo noi umani.

Ed è questa la profondo differenza tra l’essere umano e l’AI.

Comunicazione e AI: cronaca preventiva di un matrimonio felice sotto la lapide dei bias e delle fallacie?

Quando immettiamo dati in IASIMA lo facciamo con il nostro linguaggio e, quindi, con le nostre parole.

Questo significa che, nel trasferire alla macchina i dati che le serviranno per compiere il proprio addestramento, riversiamo in lei tutto ciò che fa parte del nostro mondo, bias compresi.

Peraltro, bisogna tener conto di un altro aspetto (che ho approfondito nel  libro) e cioè quello legato al fatto che il processo di apprendimento e addestramento non sarebbe completo se IASIMA non ricevesse, dall’essere umano, dati contenenti pregiudizi.

L’informatico Pedro Domingo[3] sostiene che nel machine learning il pregiudizio è un elemento, addirittura, indispensabile.
Così come lo è per la nostra specie dal momento che, senza di esso, l’uomo non imparerebbe alcunché: la conoscenza passa anche dalle opinioni precostituite, dagli errori di valutazione.

Ma – aggiungo- tra il bias appreso da IASIMA e quello, pur inconscio, dell’essere umano, vi è una sostanziale differenza.

Sebbene non sia semplice, nell’esercizio della sua razionalità, l’uomo può – se vuole- correggere quel pregiudizio, mentre IASIMA ha la naturale tendenza a perpetuarlo proprio perché “legge” le nostre parole, ma è del tutto priva di coscienza circa il loro significato.

Inoltre, c’è da considerare che alla macchina sfugge completamente il “senso comune” che all’essere umano appartiene in quanto immerso in contesti relazionali nei quali il linguaggio metaverbale e quello paraverbale si esplicano ma dei quali non esiste traduzione in dati misurabili e trasferibili a IASIMA.

Quindi, oltre alla qualità dei dati trasferibili, occorre arginare la deriva dell’antropomorfizzazione dell’AI nel momento in cui pensiamo di rapportarci a lei in una dinamica relazionale.

Professore, le pongo una domanda prodromica alla prossima. Le cose esistono di per sé, ma acquistano significato quando l’uomo attribuisce loro un nome.
IASIMA è attualmente in grado di nominare autonomamente e, in questo modo, far acquistare un significato a qualcosa?

Oggi come oggi, IASIMA non ha la capacità di nominare alcunché né di attribuire significati dato che non conosce il significato di qualcosa.

In realtà, lentamente l’AI sparirà dalla nostra vista nel senso che ci abitueremo a confrontarci con lei utilizzando gli strumenti a nostra disposizione come, per esempio, il telefono.

L’AI “esegue i compiti” sulla base delle regole che noi le assegniamo.

Perché è l’essere umano a condurre la macchina. Non il contrario.

Cosa sono, per IASIMA, le parole e le costruzioni sintattiche? È in grado di costruire inferenze?

Sa compiere inferenze tra parole sulla base dei collegamenti che, tra queste ultime, compie l’essere umano fermo restando che IASIMA non conosce la relazione semantica tra le parole.

In realtà, la macchina mima il comportamento umano su base statistica, ma questa mimesi non ha alcuna valenza senziente.

Cambiamo argomento, Professore, spostiamoci su un aspetto molto sensibile. Etica dell’AI o AI etica?

La questione è ancora più radicale.

Perché la vera domanda è: esiste una correlazione tra etica e AI?

Ed è un quesito la cui risposta è relativamente semplice sotto, almeno, due profili

Non possiamo inserire nell’AI alcun valore etico poiché l’etica non è misurabile e, proprio in quanto elemento incomputabile, non è suscettibile di collocazione nella macchina.

In secondo luogo, spetta alla comunità scientifica sia fornire le migliori indicazioni circa l’uso etico dell’AI sia portare innovazione in questo ambito di indagine e ricerca.

Per la verità, occorrerebbe che anche la politica comprendesse che la AI fa cose senza la coscienza non soltanto di ciò che fa, ma anche del proprio stesso operare.
Ed è  questo a rendere più che necessario l’intervento del legislatore nel  regolamentare la materia laddove una norma non esista ancora, oppure nel novellare quella già esistente.

Desidero concludere con un insight: IASIMA è un mistero?

A livello di hardware e software, non lo è. Conosciamo bene il suo funzionamento sotto questo profilo.

Invece, se di mistero vogliamo parlare, possiamo riferirci al fatto che, allo stato attuale, la comunità scientifica non conosce ancora la ragione per cui, tra miliardi di pixel, IASIMA veda correlazione proprio tra alcuni e non tra altri.

Cosi come non sappiamo perché, in base ad alcuni algoritmi, estrapoli certi dati con metodo deduttivo. Soprattutto tenendo conto che la restituzione potrebbe essere anche errata.

Ecco, tutto questo ha, ancora, del misterioso…

__________________________

L’intervista si chiude con una porta aperta sulla soglia del mistero che, ancora, IASIMA cela.

Ci tengo a sottolineare un fatto.

Da editor che si occupa di revisione di testi accademici, nella stesura originaria dell’intervista ho usato la parola “uomo”, cioè quel termine che connota l’individuo come “appartenente alla specie umana”.

Massimo Chiriatti mi ha chiesto di sostituire “uomo” con “essere umano” perché questa espressione gli risuona di più, gli è più congeniale.

Perché te lo racconto? Perché noi siamo le nostre parole.
Sono loro a dare al mondo la cifra di noi stessi. Raccontano chi siamo.

E, sebbene sembrino simili, “uomo” ed “essere umano” sono due parole che indicano due cose molto diverse tra loro.

Avere a cuore non tanto il soggetto umano come esemplare di una specie animale,  ma l’umanità nel suo “essere” e, quindi, sia nel suo stato esistenziale presente che nel suo divenire, significa avere cura del presente e del futuro di quell’essere.

Voglio immaginare e sperare   che, a pensarla come Massimo Chiriatti, sia la maggioranza degli scienziati  che si occupano di AI.

[1] Chiriatti, M.,(2021),  Incoscienza artificiale Come fanno le macchine a prevedere per noi,Roma, Luiss University Press- LuissX srl, pag.15

[2] Ibid. pag.118

[3] Domingos, P., (2016), L’algoritmo definitivo, Torino, Bollati Boringhieri[/vc_column_text][vc_column_text]E se vuoi progettare e scrivere il tuo libro  oppure, avendone già scritto uno, desideri sottoporlo a revisione prima di proporlo per la pubblicazione, , contattami. Insieme costruiremo il percorso più funzionale ai tuoi obiettivi.

katia

Mi chiamo Katia Bovani e sono un editor, ghostwriter e writing trainer, aiuto le tue parole a diventare i tuoi testi. Quello per la lettura e la scrittura è un amore nato prima dell’età scolare per emulazione, diventato potente nella gioventù quando si è arricchito degli aspetti etimologico-linguistici e ora, nella maturità, è irrinunciabile.

Il file functions.php del child theme è stato caricato correttamente.