Libertà e interessi
La favola del buon algoritmo

Ce lo ritroviamo come spezia “intelligente” in tutte le salse. Come il compagno di strada che indirizza che ci piaccia o no. Ma arrendersi a questa narrazione orientata significa accettare l’ingerenza di questa potenziale arma di distruzione di massa. Ma lo schianto, per le comunità pensanti, si può ancora evitare. Conversazione “algoretica” con il professor Paolo Benanti

25 febbraio 2022
A cura di Nicola Varcasia

«Il presente ci sfida e oggi, mai come prima, dobbiamo decidere se vogliamo aprire gli occhi e chiederci se e cosa possiamo fare di quello che la tecnologia ci permette di fare, o se vogliamo continuare a vivere nel presente, come se le trasformazioni che produciamo non avessero alcun effetto su noi, sulle generazioni future e sul pianeta. Insomma, tocca a noi se vogliamo o meno vedere». La celebre metafora di Matrix, pillola rossa o pillola blu (vedere o non vedere), ci interroga sul qui e sull’ora, ma anche e soprattutto sul meta, sull’oltre. Questo oltre sarà un distopico meta-verso, dove tanti soggetti intro-versi stanno insieme a dovuta distanza, o sarà un mondo dove la libertà prevarrà sui sofisticati processi di profilazione?

Per evitare di schiantarci di fronte a questo bivio, occorre concentrarsi sul mondo reale, che già da millenni si confronta con il possibile dual use dei manufatti costruiti dagli umani: «Uso la clava per aprire la noce di cocco o come arma per aprire la testa del mio competitor?». Certo, le cose si complicano di molto quando il manufatto di cui parliamo è dotato di una intelligenza artificiale che gli permette di lavorare con un elevato grado di autonomia. La tentazione di cadere nella trappola delle armi intelligenti è sempre in agguato.

La banalità del male

Paolo Benanti (francescano del Terzo Ordine Regolare, docente e grande esperto di etica, bioetica ed etica delle tecnologie) lavora proprio in questo spazio per evitare lo schianto. È un ambito che lui stesso ha contribuito a costruire, proponendo alla comunità pensante il termine di algoretica. Una parola nuova, ma dal sapore antico, che ci consente di porre l’eterna domanda sul bene e sul male anche rispetto a quegli algoritmi che ogni giorno, bontà loro, “ci aiutano” a decidere se svoltare a destra o a sinistra (vale per le auto come per la politica) e intorno ai quali ruotano interessi dove i valori non coincidono con un’esigenza di giustizia.

Per spiegarla, Benanti fa ricorso a esempi che, per definizione, semplificano i processi molto sofisticati di cui parliamo, ma che risultano efficaci per farci comprendere che «la partita è aperta da sempre, abbiamo già perso delle battaglie, ne abbiamo vinte altre, mentre altre volte vinciamo battaglie dopo che ci sono state tante vittime».

Prendiamo un oggetto molto contemporaneo come il pulsossimetro per misurare l’ossigeno del sangue, così utile in epoca Covid. I sensori sviluppati in serie che li fanno funzionare, molto economici, sono stati tarati sulla pelle caucasica, per cui, qualsiasi africano o afroamericano che li usi avrà una staratura di almeno il 3%: «Questa è un’ingiustizia indotta in un sistema, di cui oggi ci siamo resi conto». C’era solo un modello sul mercato che non aveva questo problema, ma costava dieci volte tanto e nella pratica è stato ignorato. Questo per dire che «non c’è stato un grande cattivo, c’entra molto di più qualcosa come la banalità del male: tante piccole convenienze creano una ingiustizia molto grande. È molto più facile che accada questo che non l’arrivo di un Grande Fratello». Possiamo anche prendercela con i pulsossimetri, ma è chiaro che sbaglieremmo bersaglio.

Una delle domande basilari da porsi, allora, è: «Può un algoritmo essere uno strumento neutro dal punto di vista etico?». La risposta è no. Anche nella macchinetta automatica per fare il caffè agisce un software che traduce un materiale concettuale – ossia un algoritmo – in un codice. Dunque c’è un’idea e c’è una sua possibile realizzazione in un «linguaggio obbligante» per la macchina, che solitamente segue lo schema “if this, than that”. Dove l’if-than è una sorta di «pre-giudizio rispetto all’accadimento» e dove emerge chiaramente la commistione umana con qualcuno che ha già giudicato qualcosa che accade.

È la stessa esperienza di ciascuno di noi quando ha chiesto il vaccino al portale regionale di sanità e dove un algoritmo rispondeva sì o no in base a giudizi di natura etica che erano già stati emessi: «C’era un patrimonio etico, di diritto alla salute e di cura del cittadino che è diventato una serie di circuiti condizionali, per cui, quando abbiamo dovuto distribuire il vaccino in maniera efficiente a seconda delle fasce di età e per categorie di rischio, quel condizionale cercava di mediare una gerarchia dei valori tra importanza e urgenza». Ogni algoritmo, dunque, media in valori numerici eseguiti dalla macchina dei giudizi che, inevitabilmente, portano con sé dei valori etici.

Diamanti: ok il prezzo è giusto?

La questione, poi, diventa più sofisticata, ma non diversa, con gli algoritmi dell’intelligenza artificiale (IA). Ad esempio, sempre semplificando, con il machine learning, una macchina viene addestrata in modo che dia risposte coerenti, fornendo un output che non è disponibile a priori: l’algoritmo di machine learning è infatti un «algoritmo di regressione» che ci consente di dire che cosa accadrà di fronte a un dato che non ho ancora: la macchina impara e reagisce in maniera coerente con gli altri dati.

Per chiarire la questione, Benanti fa ai lettori di “.CON” il regalo di anticipare un esempio tratto dal suo nuovo libro di prossima pubblicazione. Immaginiamo di ereditare un diamante da 1,2 carati e di volerlo vendere per donare i soldi ai poveri. Il problema è che in tutte le gioiellerie della città non se ne è trovato uno con lo stesso numero di carati: a quanto rivenderlo, dunque? Inserendo in una tabella i valori dei prezzi corrispondenti ai vari carati, senza considerare altri parametri quali la lucentezza e il colore (per non complicarsi troppo la vita), l’ingegnoso e generoso donatore otterrà un grafico i cui punti si distribuiscono lungo una zona che si approssima a una retta. Questo modello semplificato della realtà gli consentirà di ottenere il prezzo mancante corrispondente a 1,2 carati e anche un paragone con la cosiddetta area di confidenza: un’offerta che si colloca sotto il punto più in basso sarà da rifiutare. Se, invece, si avvicinerà o supererà il punto più alto, sarà un affare. Così siamo davvero sicuri che il prezzo del diamante che abbiamo trovato sarà quello corretto? Non è detto, perché nella nostra situazione non abbiamo tenuto conto delle altre caratteristiche fisiche e tantomeno delle condizioni soggettive dei gioiellieri interpellati, da quello che tenta di truffare a quell’altro che ha bisogno di soldi e vende sottoprezzo. Il pre-giudicato c’è ancora anche negli algoritmi più complessi.

Se, dunque, nemmeno l’algoritmo che sceglie per noi o con noi il prezzo del diamante non è eticamente neutrale, allora la sua gestione etica non è solo un “se”, un “if”, ma un “si deve”. Negli algoritmi tradizionali era sufficiente certificare gli if e i that. In quelli dove emerge una banda di incertezza occorre fare di più.

Qui passiamo dai diamanti alle auto. Quando una macchina procede su una strada dobbiamo cercare di tenerla in carreggiata e, per farlo, costruiamo i guard rail: «Possiamo, in metafora, pensare che la gestione etica degli algoritmi consista nel mettere dei guard rail all’autonomia della macchina. Una prima forma di gestione etica è, infatti, tenere l’uomo al centro: il che significa che la macchina non va da sola, ma c’è un controllo umano che la tiene entro un certo range, dove la macchina suggerisce delle possibili risposte, ma è l’uomo che dice se quella risposta può essere coerente o non coerente».

Il guard rail etico per la macchina per Benanti è l’algoretica. La parte etica è quel viaggio che ci accompagna da sempre come umanità, è la gestione della nostra libertà rispetto al bene e non rispetto al male e di cui l’algoretica rappresenta solo un nuovo capitolo, non un inedito totale. La novità sta nel fatto che l’etica deve anche essere in qualche misura computata ed eseguita dalle macchine attraverso «guard rail informatici» capaci di tenere la macchina su una certa strada.

Non solo questione tecnologica

Si apre quindi uno spazio istituzionale in cui ingegneri giuristi, filosofi ed eticisti si chiedono come rendere visibili le istanze etiche per poterle trasmettere al possibile utilizzatore o fornitore del servizio.

Tornando alle auto, se noi avessimo una vettura a guida autonoma, cioè guidata dagli algoritmi, è inevitabile che le condizioni imperscrutabili del traffico potrebbero metterci di fronte alla situazione in cui o il passeggero dell’automobile o tre passanti sono inevitabilmente coinvolti all’interno di un incidente fatale.

Di fronte a questa atomizzazione della scelta – fatta a tavolino e solo per fare un esempio – possiamo chiederci quali siano le risposte “algor-etiche” e ne troviamo diverse: «Tradizionalmente, dagli anni Settanta, quando hanno iniziato a diffondersi i treni a guida autonoma negli aeroporti, i famosi skybridge, ci siamo risposti: minimizziamo le perdite. Di fronte all’inevitabile, ci dispiace per uno, ma è meglio salvarne tre». Oggi non è che questi principi non siano più condivisi, ma c’è un problema. Se quell’uno è il proprietario della macchina e gli altri sono tre sconosciuti, ci si potrebbe chiedere se il proprietario della macchina non abbia più diritto dei pedoni: «Quindi non è più una questione di etica, ma di interessi connessi al mercato specifico». Qualcun altro si è domandato chi sarà disposto a pagare 130 mila dollari – citando un modello particolare, quello più venduto in Europa dotato di un po’ di guida autonoma – per una vettura sapendo che ucciderà lui piuttosto che tre bambini, magari di una minoranza etnica, che stanno per strada. Come si vede «non è più un problema di algoretica, ma di interessi che stanno all’interno del decidere etico sociale e quindi è una pagina molto antica».

Dire algoretica significa dunque affermare che, come deciderà quella macchina è etico e non è neutrale, e significa anche aprire quegli spazi in cui le diverse competenze sociali devono dare una risposta, perché la questione riguarda tutti. È lo stesso processo avvenuto per la sanità pubblica e per una serie di altri ambiti come l’etica delle professioni e quant’altro.

Lo sviluppo dell’intelligenza artificiale fa emergere quindi l’importanza di rendere sempre più trasparenti i criteri etici che stanno alla base della programmazione delle macchine. Per Benanti questo è un momento in cui alzare la nostra consapevolezza. Anche per non rischiare di ritrovarci ad abitare in quel “Paraferno”, crasi di paradiso e inferno, di cui ha scritto, a quattro mani con il filosofo Sebastiano Maffettone sul Corriere della Sera del 19/02/2022. Come già aveva affermato nel suo Le Macchine Sapienti (Marietti, 2018): «Le intelligenze artificiali prima di essere un problema tecnologico, rappresentano un problema epistemologico e filosofico». Il pensiero chiede ancora di farsi largo.


Immagini:

Logaritmo / © Francesco Santosuosso

© Joel Meyerowitz

Disegno / © Rembrandt

© Lee Jeffries