IDEATO E DIRETTO
DA ANTONIO CANTARO
E FEDERICO LOSURDO

IDEATO E DIRETTO DA ANTONIO CANTARO E FEDERICO LOSURDO

Intelligenza artificiale e principio personalista

L’improbabile scenario di una ribellione delle macchine. E i rischi reali di una riduzione dell’uomo a quantità fungibile, classificabile e “computabile”. Potenzialità e limiti dell’approccio europeo a fronte delle logiche commerciali delle grandi multinazionali.

Quando si parla dei pericoli legati all’utilizzo dell’intelligenza artificiale l’immaginazione tende ad andare verso scenari di “ribellione delle macchine”, già immortalati in numerose opere di fantascienza. In realtà, se ci confrontiamo con le numerose iniziative regolatorie che hanno attualmente ad oggetto l’impiego dell’intelligenza artificiale, ci rendiamo conto che esse hanno avuto la loro prima origine nell’esigenza di tutelare la privacy, sempre di più messa alla prova dalla possibilità di raccogliere immense quantità di dati personali e di rielaborarle grazie alle straordinarie capacità di calcolo garantite dalle moderne tecnologie.

Non solo protezione dei dati personali

E tuttavia il problema posto dall’IA non è semplicemente un problema di protezione dei dati personali. Ad essere in gioco non è soltanto l’autodeterminazione informativa, e cioè il diritto a disporre dei propri dati personali, ma un qualcosa di più. Ciò si ravvisa in modo peculiare nel nuovo Regolamento sull’intelligenza artificiale approvato nel marzo scorso, che si propone (art. 1), oltre che di migliorare il funzionamento del mercato interno, di “promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile”. Tale approccio (human-centric approach) è stato elaborato soprattutto dal Gruppo di esperti sull’intelligenza artificiale nominati dalla Commissione europea (High-level expert group on artificial intelligence – HLEG); esso ha valorizzato, oltre alla tutela dei dati personali, la dignità umana, che viene richiamata in vari suoi documenti. Particolarmente degne di menzione sono le “linee-guida etiche per un’IA affidabile”, dove il principio della dignità umana è declinato in modo particolarmente attento e pregnante nel contesto della regolazione dell’IA. Sia lecito citare per esteso un passaggio di questo importante documento:

«La dignità umana racchiude l’idea che ogni essere umano possieda un “valore intrinseco”, che non dovrebbe mai essere sminuito, compromesso o coartato ad opera né di terzi, né di nuove tecnologie come i sistemi di IA. In questo contesto, il rispetto della dignità umana implica che tutte le persone siano trattate con il riguardo che si deve a ogni soggetto morale, piuttosto che come semplici oggetti da vagliare, ordinare, classificare, raggruppare, condizionare o manipolare. I sistemi di IA dovrebbero quindi essere sviluppati in modo da rispettare, servire e proteggere l’integrità fisica e mentale degli esseri umani, il loro senso di identità personale e culturale e la soddisfazione dei loro bisogni essenziali».

La ‘scommessa’ umano-centrica dell’Unione europea

Non deve dunque destare stupore se il considerando n. 27 del Regolamento in corso di adozione richiede, richiamando proprio i lavori del Gruppo di esperti sull’IA, che i sistemi di IA siano “sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell’autonomia personale”. L’idea di mettere al centro la persona e la sua incalpestabile dignità altro non è che il precetto dato da quello che nel nostro ordinamento costituzionale è principio personalista. I rischi di fondo dell’IA sono quelli di una riduzione della persona umana a mera quantità fungibile, a oggetto manipolabile, classificabile e in qualche modo “computabile” sulla base dei dati personali rilasciati in rete. Ciò è stato bene espresso anche da papa Francesco nel suo messaggio del 1° gennaio dedicato appunto a intelligenza artificiale e pace: “il rispetto fondamentale per la dignità umana postula di rifiutare che l’unicità della persona venga identificata con un insieme di dati”. Tale risvolto etico non può essere affatto trascurato o visto come un elemento secondario della nuova disciplina europea. Le pratiche vietate dal nuovo Regolamento sono pratiche che si pongono in contrasto con la stessa dignità della persona. Si pensi al divieto di social scoring (art. 5, comma 1, lett. c), e cioè il divieto, in sostanza, di disconoscere la pari dignità sociale dei cittadini utilizzando gli insidiosi strumenti messi a disposizione dell’IA. Il fatto che neppure il consenso della persona interessata, per quanto serio, informato e liberamente dato, possa consentire tale utilizzo delle tecnologie di IA indica chiaramente che a venire in rilievo è un bene costituzionale non bilanciabile, quale è appunto la dignità umana (questa almeno è l’elaborazione datane dal Tribunale costituzionale in Germania, e recepita dal Gruppo di esperti). Questo approccio, dunque, che si vuole definire umano-centrico, altro non è che un’applicazione del classico approccio personalista ai diritti fondamentali tipico del secondo dopoguerra. Si apprezza così il tono costituzionale di queste iniziative, che rappresentano probabilmente la maggiore ambizione che si ponga al momento il diritto.

Solo una chimera?

Riuscirà la scommessa? O la regolamentazione, come ad esempio sostenuto dal filosofo Sadin, è solo una chimera che intorpidisce la mobilitazione sociale ed è impotente di fronte alla forza impetuosa dello sviluppo tecnologico? Il giurista, e soprattutto il costituzionalista, non può che credere in questa scommessa e nelle capacità del diritto. Certo, non si può sottacere il fatto che il nuovo Regolamento si pone pur sempre nell’ottica del mercato unico, dell’art. 114 TFUE, e mira non solo a regolare l’IA, ma anche a garantirne la commercializzazione e la libera circolazione di beni e servizi relativi a questa tecnologia. Né devono passare in secondo piano le numerose critiche che sono già state rivolte alla complessiva impostazione del Regolamento, accusato di non perseguire con strumenti idonei gli ambiziosi obiettivi di tutela dei diritti fondamentali (per una sintesi di queste critiche – e non solo – si legga il recente articolo di Almada e Radu). E però questo non può che essere il prezzo da pagare per arrivare a una regolazione, data l’attuale configurazione dei Trattati.

La direttiva sui lavoratori delle piattaforme digitali e il regolamento sulla pubblicità politica

D’altra parte, va pure notato che la regolazione dell’IA non è certo limitata al Regolamento sull’intelligenza artificiale. L’Unione europea ha in questi mesi preso anche ulteriori iniziative in materia. Con la Direttiva sui lavoratori delle piattaforme digitali, approvata dal Parlamento due giorni prima il Regolamento, si intende regolare, tra le altre cose, la gestione algoritmica del lavoro, e cioè l’uso dell’IA sul luogo di lavoro. Anche la tutela della persona lavoratrice nei confronti di una sua possibile oggettificazione/ mercificazione ad opera di una IA cieca di fronte ai diritti fondamentali (il caso dell’algoritmo Frank usato dalla piattaforma Deliveroo lo ha dimostrato) corrisponde a un’esigenza tipica del personalismo della nostra Costituzione. La Direttiva offre significative tutele garantendo maggiore trasparenza della gestione algoritmica del lavoro e un minimo di partecipazione dei lavoratori, oltre che il divieto di certe pratiche (ad es. il riconoscimento di stati emotivi e il riconoscimento facciale “uno a molti”), anche se può essere forse criticata nella misura in cui non esclude la possibilità di una sorveglianza capillare del lavoratore e consente l’impiego di meccanismi reputazionali. Di IA si occupa poi anche il Regolamento sulla pubblicità politica e sul targeting, approvato il 27 febbraio scorso. Questo atto, all’art. 19, impone infatti la trasparenza relativamente a “informazioni significative sull’uso di sistemi di intelligenza artificiale nel targeting o nella consegna dei messaggi di pubblicità politica”. La principale preoccupazione sta certamente nel garantire un determinato standard di digital campaigning, che consenta una competizione politica equa e un discorso pubblico non inquinato da contenuti fake. Nondimeno, anche in questo caso si staglia l’inquietante potenziale dell’IA, grande manipolatrice, che rischia di mortificare la stessa dignità delle persone classificandole, raggruppandole in “bolle”, suggestionandole e minandole nella loro capacità di autodeterminazione. Regolare l’IA nel contesto politico-elettorale assume quindi anche la valenza di garantire il diritto delle persone a “non essere manipolate” (considerando n. 74) quando prendono decisioni particolarmente significative per la vita pubblica.

Il procedimento che ha portato all’approvazione del Regolamento sull’IA è iniziato nell’aprile del 2021, con una comunicazione della Commissione UE dal titolo piuttosto significativo: “Promuovere un approccio europeo all’intelligenza artificiale”. Scopo dichiarato del Regolamento è dunque anche quello di “promuovere i valori europei nel mondo”. E non si può negare che questo approccio, per come sommariamente descritto, sia veramente “europeo”, nel senso che è espressivo di valori, come il rispetto della persona e della dignità umana, ormai radicati nelle comuni tradizioni costituzionali europee. Resta da vedere se lo strumentario giuridico sarà da solo sufficiente a domare le logiche commerciali e l’atteggiamento delle grandi multinazionali operanti nel settore dell’IA che per la gran parte hanno sede in paesi non europei.

Stampa o salva l’articolo in Pdf

Newsletter

Privacy *

Ultimi articoli pubblicati