IDEATO E DIRETTO
DA ANTONIO CANTARO
E FEDERICO LOSURDO

IDEATO E DIRETTO DA ANTONIO CANTARO E FEDERICO LOSURDO

Vizi e virtù del regolamento UE sull’intelligenza artificiale

Al di là del trionfalismo con cui l’Unione europea ha annunciato l’approvazione del regolamento, in realtà, come tante volte accade, “la montagna ha partorito il topolino”. La domanda elusa: guerra all’umano o guerra dell’uomo contro sé stesso? Come e a quali fini regolamentare.

Ben oltre la radicata ipocrisia che caratterizza le scelte o, meglio, le enunciazioni dell’Unione europea in punto di rispetto di diritti e libertà fondamentali, vi è che anche il c.d. ai act come tutti gli atti normativi di fonte europea, è sostanzialmente rivolto al funzionamento e alla tutela del mercato interno che da sempre costituisce il principale obiettivo di tutto il processo di integrazione europea e ne rappresenta contemporaneamente il valore aggiunto e il limite.

Una enciclopedia britannica passata al frullatore

Il Regolamento ha, infatti, dichiaratamente l’obiettivo di “migliorare il funzionamento del mercato interno e di promuovere l’adozione di un’intelligenza artificiale affidabile e incentrata sull’uomo, garantendo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell’ue, compresa la democrazia, lo Stato di diritto e la tutela dell’ambiente dagli effetti dannosi dei sistemi di intelligenza artificiale nell’Unione, nonché sostenendo l’innovazione”. Una sorta di “enciclopedia britannica passata al frullatore” che mette insieme questioni del tutto estranee al settore, come la democrazia e lo Stato di diritto e oltremodo antitetiche fra loro come, ad esempio, la tutela dell’ambiente che notoriamente viene seriamente danneggiato proprio dai sistemi di cosiddetta “intelligenza artificiale”.

Il Regolamento  definisce il concetto di intelligenza artificiale  come un sistema basato su macchine con diversi livelli di autonomia e adattabilità in grado di generare output diretti ad influenzare ambienti fisici o virtuali, e suddivide in categorie i potenziali rischi derivabili dall’ai in rischi minimi, limitati, alti e inaccettabili con conseguenti maggiori o minori responsabilità per i suoi sviluppatori e fa una elencazione degli usi consentiti e di quelli vietati del detto sistema tecnologico che, volutamente antropomorfizzato, è azzardato definire come “intelligenza”. In particolare, risultano vietate le tecniche di manipolazione cognitivo-comportamentale, il riconoscimento delle emozioni nei luoghi di lavoro o a scuola, e la polizia predittiva, l’uso dei sistemi di identificazione biometrica negli spazi pubblici, il social scoring. Ovvero, quel sistema che fa sì che le persone vengono valutate e classificate in base al loro comportamento, alle loro attività online, alle loro relazioni sociali e ad altri criteri personali e che ha sollevato numerose preoccupazioni etiche e legali riguardanti la privacy, la discriminazione, la trasparenza e l’impatto sui diritti umani (in quanto i punteggi possono essere utilizzati per influenzare l’accesso a servizi, opportunità o privilegi, come prestiti, opportunità lavorative, viaggi e altri benefici sociali)..

Al contrario, vengono ammessi i sistemi di analisi del rischio non rivolti alla profilazione come quelli diretti a rivelare transazioni sospette derivanti da attività criminali. Il Regolamento si applica ad entità pubbliche e private, interne ed esterne all’Unione europea qualora i loro sistemi di ia influenzino gli individui nella ue e stabilisce sanzioni pecuniarie in caso di violazione del Regolamento basate sul fatturato globale annuo.

Guerra all’umano o guerra dell’uomo contro sé stesso?

Fa paura l’Intelligenza artificiale, questo settore dell’informatica che si occupa della creazione di macchine capaci di svolgere più velocemente e in maniera delocalizzata alcuni compiti che, nella normalità dei casi, richiedono il ricorso all’intelligenza umana; volutamente e mistificatoriamente soggettivizzata, ma che altro non è se non una tecnologia particolarmente evoluta ma del tutto distinta e distante dal concetto di autonoma intelligenza. Eppure, negli ultimi tempi, si sente sempre più spesso parlare di ia da parte di alcuni come di un qualcosa da esaltare: un deus ex machina capace di intervenire e di agire al posto dell’uomo; da parte di altri se ne parla come di un qualcosa da demonizzare perché finalisticamente rivolto a sostituire l’uomo e a deumanizzare l’umanità. In realtà, le cose sono un po’ diverse e, come sempre, tutto dipende dall’uomo che è il centro (e tale rimane) di “tutte le umane miserie”. E soltanto l’uomo potrà decidere che direzione dovrà prendere lo sviluppo di queste (diciamolo pure) utili tecnologie. È perciò illusorio e mistificatorio pensare che la tecnologia possa evolvere da sé e rivoltarsi contro l’uomo contrapponendosi ad esso come se fosse dotata di vita propria o, meglio, di “intelligenza” propria. Ponendosi in una prospettiva obiettiva e priva di pregiudizi, è facile constatare che la macchina, la tecnologia, la cosiddetta intelligenza artificiale, altro non è che una serie di programmi interconnessi del tutto incapace di eseguire niente che non sia già stato preordinatamente predisposto dall’uomo. Non è un caso che l’uso corretto di chatgpt richiede dei prompt (istruzioni) ben precisi e privi di ambiguità proprio perché il sistema tecnologico è del tutto privo della capacità di elaborare un pensiero e ha bisogno di richieste che gli consentano di elaborare i dati che l’uomo (e non la macchina autonomamente) ha predisposto per il suo funzionamento.

La cosiddetta intelligenza artificiale è del tutto priva di sentimenti, di coscienza, di ricordi e di empatia; non è in grado di gioire e neanche di soffrire. In altri termini, è del tutto priva di quelle caratteristiche esclusivamente riferibili all’uomo. Dunque, non è tanto la tecnologia ad essere in guerra contro l’uomo ma è l’uomo che la realizza ad essere in guerra contro l’umanità, cioè contro sé stesso.

L’intelligenza artificiale rappresenta un sofisticato insieme di algoritmi matematici che, di per sé, non possiede la capacità di prendere decisioni autonomamente o di valutare l’efficacia delle decisioni che le sono imposte dai programmatori degli algoritmi e tuttavia è in grado di superare in velocità i limiti fisici e cognitivi dell’uomo e, in ragione di ciò e se correttamente utilizzata, può rappresentare un aiuto per l’uomo che non sempre è in grado di affrontare le sfide sempre più complesse che pone la cosiddetta modernità.

Come e a quali fini regolamentare

Negare la narrazione delle capacità di autoregolamentazione e di autoevoluzione della cosiddetta intelligenza artificiale, non vuol dire disconoscere la necessità o l’utilità di un intervento da parte del legislatore, purché sia ben chiaro che la regolamentazione deve essere finalisticamente rivolta all’utilizzo della tecnologia e al divieto del suo utilizzo per scopi nefasti o contrari agli interessi dei cittadini ma non rivolta ad impedire che la macchina prenda il sopravvento sull’uomo. Perché questo è impossibile, a meno che non sia l’uomo che consenta alla macchina di contrapporsi all’umanità. In altre parole, la questione non è nei termini della salvaguardia dell’uomo dall’Intelligenza artificiale ma, al contrario, la questione va posta nei termini di salvaguardare l’intelligenza artificiale dall’uomo. La riflessione proposta inverte la prospettiva convenzionale sul rapporto tra l’uomo e l’intelligenza artificiale. Tradizionalmente, il dibattito si concentra sulla protezione dell’umanità dai potenziali rischi e pericoli dell’ia, come la perdita di posti di lavoro, la violazione della privacy, le decisioni eticamente discutibili e il controllo sociale. Tuttavia, il tema della salvaguardia dell’ia dall’uomo pone l’accento su come le azioni umane possono influenzare, limitare o persino danneggiare il potenziale e l’evoluzione dell’ia.

La questione della protezione dell’ia dall’uomo comprende diverse dimensioni sotto il profilo dell’etica e della responsabilità: nel senso che è fondamentale garantire che la tecnologia in questione venga utilizzata in modo etico e responsabile evitando manipolazioni, abusi o applicazioni dannose che possono comprometterne l’integrità e la fiducia e sotto tale specifico profilo gli sviluppatori di ia dovrebbero aderire a standard etici elevati per prevenirne l’uso distorto o malevolo (da parte dell’uomo). Salvaguardare l’ia dall’uomo può significare anche proteggere la sua capacità di operare senza interferenze indebite che ne limitino l’efficacia o alterino i suoi processi decisionali in modi non previsti o non etici. È fondamentale, dunque, assicurare che l’intelligenza artificiale sia sviluppata in modo sostenibile e che le risorse, sia computazionali che ambientali, siano utilizzate in modo responsabile per evitare lo spreco e il degrado ambientale.

Occorre inoltre prevenire la cosiddetta obsolescenza programmata: è facilmente intuibile che tali tecnologie, spesso caratterizzate da cicli di vita relativamente brevi e da una rapida obsolescenza, possono essere superate da altre tecnologie con conseguente aumento dei rifiuti elettronici che non solo occupano spazio nelle discariche ma possono anche rilasciare sostanze tossiche nell’ambiente con conseguenze nefaste per la salute pubblica e per l’ecosistema e proteggere l’ia dall’essere progettata per diventare obsoleta rapidamente può promuovere la durata e la resilienza delle tecnologie, garantendo che esse rimangano utili e rilevanti nel tempo. “Proteggere” l’ia dall’uomo implica anche assicurare che il suo sviluppo e la sua diffusione rispettino i principi di inclusività e diversità, prevenendo la creazione di bias e discriminazioni nei suoi algoritmi. Sotto questo specifico profilo, è evidente che se un sistema di ia per il riconoscimento facciale è addestrato prevalentemente con immagini di persone di una certa etnia potrebbe avere prestazioni inferiori quando riconosce volti di persone appartenenti a gruppi etnici diversi. Ma questo dipende esclusivamente dai dati che sono stati forniti dal programmatore dell’algoritmo e non certamente da una sorta di “pregiudizio culturale” ascrivibile alla macchina! In altri termini, “salvaguardare” l’ia dall’uomo richiede un approccio olistico che consideri la responsabilità etica, la sostenibilità, l’autonomia, la non obsolescenza programmata e l’inclusività. Questo non solo proteggerà l’Intelligenza artificiale da potenziali manipolazioni e abusi, ma garantirà anche che il suo sviluppo avvenga in modo che ne benefici l’umanità intera.

Agire con prudenza, distribuire equamente i benefici

Il Regolamento europeo definisce l’Intelligenza artificiale come un “sistema progettato per operare con livelli di autonomia variabili e che … può generare output quali previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali”. La definizione è suggestiva e rischia di far apparire l’ia come un sistema che mira ad emulare o superare la capacità cognitive umane.

Non è propriamente così: intorno all’intelligenza artificiale si è formata una nebbia di retorica che ne modella la narrazione, influenzando significativamente la percezione pubblica e il “discorso” mediatico. Questo velo di suggestioni retoriche tende ad enfatizzare estremamente sia i potenziali benefici sia i rischi dell’ia, spesso portando a un dibattito polarizzato che può compromettere una comprensione equilibrata e realistica delle sue capacità e implicazioni effettive.

L’attuale scenario rende necessaria una riflessione sulla situazione e sui possibili, futuri risvolti della tecnologia e del mondo virtuale non soltanto nelle diverse dimensioni istituzionali, nelle nuove forme di distribuzione dei poteri oltre che nelle nuove e rudimentali forme di democrazia e di gestione del potere politico ma anche, e soprattutto, nella vita del cittadino post-globale rispetto al quale sempre più spesso la negazione dei diritti fa da contraltare al loro riconoscimento e alla loro codificazione. La strada è ormai segnata da nuovi e dilatati scenari spazio-temporali in cui diritti vecchi e nuovi si intersecano in una dimensione contraddittoria e conflittuale ed è all’interno di questa dimensione che il legislatore deve muoversi per riconoscere e garantire le nuove libertà e i nuovi diritti nel mondo attuale, globale o post-globale che dir si voglia. Nel contesto delineato i diritti e i doveri dei cittadini vanno riscritti e reinterpretati alla luce degli incessanti e contraddittori mutamenti che segnano il passo di un tempo sempre più tecnologizzato e all’apparenza carico di suggestive promesse ma, nei fatti, produttivo quasi esclusivamente di sempre nuovi e destabilizzanti bisogni materiali. Nel contesto dell’intelligenza artificiale, questa riflessione diventa ancora più pertinente. L’ia e l’uso distorto che se ne può fare, sollevano questioni fondamentali sui diritti digitali, sulla privacy, sulla sorveglianza, sull’equità e sull’etica. Mentre queste tecnologie offrono potenzialità straordinarie per il progresso e l’innovazione, esiste anche il rischio che possano esasperare le disuguaglianze, manipolare le informazioni e alterare le dinamiche di potere. E fuor da ogni mistificazione, è imperativo che il legislatore agisca con prudenza e lungimiranza per garantire che i benefici dell’ia siano distribuiti equamente e che i diritti e le libertà fondamentali siano protetti nell’era digitale.

Stampa o salva l’articolo in Pdf

Newsletter

Privacy *

Ultimi articoli pubblicati