Antiper | Intelligenza artificiale e etica
Parlando di Etica dell’Intelligenza Artificiale (IA) (o, più in generale, di Etica delle nuove tecnologie), bisogna aver ben chiara una cosa: il soggetto etico, il soggetto di cui si intende giudicare il comportamento non può essere l’IA perché l’etica può esistere solo laddove esiste la possibilità di scegliere tra diverse possibilità dal punto di vista, appunto, etico: poter decidere di compiere un’azione o di non compierla è ciò che fa la differenza.
Certo, esiste anche un “etica della responsabilità” che misura il carattere etico di un’azione dall’esito piuttosto che dall’intenzione. Ma si tratta di un’etica che rimanda sempre e comunque ad un comportamento intenzionale; posso fare mille considerazioni sui possibili imprevedibili esiti di una mia scelta ma ad un certo punto devo decidere se compierla oppure no.
Se formuliamo una richiesta ad una IA questa non ha la possibilità di decidere di non rispondere e nel farlo deve sempre seguire una sua ben precisa struttura algoritmica, anche quando genera risposte diverse in momenti diversi; se così non fosse le risposte dell’IA sarebbero puramente aleatorie e dunque inutili.
[domanda a ChatGPT] “Che cosa succede dal punto di vista del tuo funzionamento quando ti chiedo di scegliere un numero tra 1 e 10?
[chatGPT “Quando mi chiedi di scegliere un numero tra 1 e 10, utilizzo un algoritmo che genera casualmente un numero all’interno di questo intervallo. Questo algoritmo è basato su una serie di calcoli matematici che utilizzano un seme casuale per generare il numero, il che significa che la sequenza di numeri che produco è casuale e non prevedibile.
Una volta che ho generato il numero, lo restituisco come risposta alla tua richiesta. In questo modo, posso fornirti una scelta casuale e imparziale tra i numeri 1 e 10. Tuttavia, è importante notare che non ho alcuna capacità di scegliere in base a preferenze personali o di effettuare scelte ponderate sulla base di alcune informazioni che ho raccolto in precedenza, perché come modello di linguaggio, non ho una propria coscienza o preferenze, e le mie risposte si basano esclusivamente sulla mia programmazione.”
Come sappiamo, le risposte del chatbot più in del momento devono sempre essere prese “cum grano salis” perché non è infrequente che si rivelino del tutto sbagliate.
Dietro alle risposte di una IA c’è sempre una “programmazione” che elabora in un certo modo i dati di input. Il fatto che noi non conosciamo gli algoritmi statistici sulla base dei quali avviene l’elaborazione dei very big data sui cui la IA si addestra e perfeziona il proprio funzionamento non significa che tali algoritmi non esistano o che non esistano persone che li progettano, sviluppano, modificano… Del resto, per migliorare l’etica dell’IA normalmente si propone di addestrare meglio proprio i programmatori in modo che operino per l’eliminazione dei bias.
Si sente spesso ripetere che le nuove IA in realtà non sono per nulla intelligenti in quanto svolgono solo operazioni di tipo statistico/probabilistico. Ad esempio, Floridi dice che le IA hanno l’intelligenza di un tostapane. Se questo è vero come può un’entità priva di libertà di scelta e intelligente come un tostapane essere responsabilizzata in merito alle risposte che offre? Che senso ha scrivere libri sull’etica dei tostapani [1]?
Diciamo allora che “etica dell’Intelligenza Artificiale” può essere intesa come abbreviazione di “etica della produzione e dell’uso dell’Intelligenza Artificiale”, ricordando che a produrre e usare le IA non sono intelligenze artificiali, ma intelligenze umane. Questo è un punto importante in quanto ci permette di capire che, come al solito, non è lo studio dell’atomo che ha aperto la strada a Hiroshima e Nagasaki, ma la volontà di potenza dell’imperialismo a stelle e strisce.
A forza di incolpare la cosiddetta “Tecnica” (come hanno fatto sciaguratamente molti filosofi nel ‘900) si finisce per confondere le idee a sé stessi e, cosa assai più grave, agli altri. Sembra infatti che non siano persone in carne ed ossa a dover essere considerati responsabili della produzione e dell’uso della IA, ma dispositivi automatici, impersonali, anonimi, tecnici.
Facciamo un esempio che viene usato spesso per richiamare l’attenzione sui possibili usi nefasti delle nuove tecnologie: il controllo dei lavoratori attraverso i sistemi di IA [2]. Se discutendo di etica dell’IA ci mettiamo a ragionare sul fatto che essa viene usata per controllare se e come i lavoratori svolgono le loro mansioni perdiamo di vista alcune questioni fondamentali la più importante delle quali è la seguente.
Nel 1970 viene approvata la Legge 142 nota anche come “Statuto dei lavoratori”; questa legge prevedeva che i lavoratori non potessero essere sottoposti ad un controllo di sorveglianza a distanza. Questa disposizione è stata rimossa molti anni dopo con il famigerato Jobs Act. Se oggi i lavoratori possono essere controllati a distanza attraverso sistemi informatici, elettronici, più o meno intelligenti, è perché il partito di riferimento – il PD – del maggiore sindacato italiano – la CGIL – ha proposto e approvato una legge che permette i controlli a distanza. Non è dunque l’IA di oggi, come non lo erano le videocamere del 1970, a minacciare i lavoratori, ma i partiti e sindacati che si presentano come loro amici essendo in realtà amici dei loro nemici.
L’etica – o, per meglio dire, la più assoluta mancanza di etica sociale – ha dunque a che fare con partiti, sindacati, personaggi politici… e non con algoritmi, bit, transistor… che possono certo essere progettati e realizzati per compiere le azioni più immonde, ma delle quali siamo noi, gli umani, a dover essere responsabilizzati.
Note
[1] Cfr. Luciano Floridi, Etica dell’intelligenza artificiale, Raffaello Cortina Editore, 2022.
[2] Cfr Daniela Tafani, Conferenza su Etica dell’intelligenza Artificiale, cattura culturale e pensiero magico, Università di Bologna, Seminario interdipartimentale permanente “Ecologie Algoritmi Poteri”.
https://www.facebook.com/Algoritmopotere/videos/1248952405707201