Intelligenza Artificiale: la proposta di Regolamento Europeo e l’intervento del Garante
Il 21 aprile 2021 la Commissione Europea ha proposto un regolamento sull’Intelligenza Artificiale che, di fatto, istituisce un quadro di riferimento volto a normare il mercato dell’Unione Europea su questa attuale e delicata materia. La Commissione punta l’attenzione sull’interrelazione tra l’utilizzo di strumenti di IA nella nostra realtà quotidiana e tutela dei dati personali ed è sul bilanciamento di diritti e interessi che si fonda la Proposta di regolamento. Ecco cosa ha evidenziato a questo proposito il Garante privacy in un recente intervento
23 Marzo 2022
Patrizia Cardillo
Esperta di Protezione dati personali, Coordinatrice del Network dei RPD delle Autorità indipendenti
- 1 Intelligenza artificiale: definizione e quadro di riferimento
- 2 Regolamento UE sull’Intelligenza artificiale: la classificazione dei rischi
- 3 L’interrelazione tra la Proposta di Regolamento UE sull'Intelligenza artificialee il Regolamento 2016/679 (GDPR)
- 4 L’intervento del Garante sul Regolamento UE sull'Intelligenza artificiale
- 5 L’esperienza di New York: formazione, informazione e trasparenza
È del 21 aprile scorso la presentazione, da parte della Commissione europea, di una proposta di regolamento UE sull’Intelligenza artificiale che, di fatto, istituisce un quadro di riferimento volto a normare il mercato dell’Unione Europea su questa attuale e delicata materia. Con la proposta (“Regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione“, di seguito Proposta), la Commissione europea punta l’attenzione sull’interrelazione tra l’utilizzo di strumenti di IA nella nostra realtà quotidiana e tutela dei dati personali, sottolineando i limiti da dover imporre per assicurare un corretto uso di grandi quantitativi di informazioni (per lo più dati personali) quale premessa necessaria per un tale inevitabile processo di sviluppo.
Intelligenza artificiale: definizione e quadro di riferimento
È da tempo aperto il dibattito sul tema dell’intelligenza artificiale[1] (di seguito anche IA), le sue applicazioni nella nostra realtà quotidiana e le sue interrelazioni sotto diversi profili: politici, etici, sociologici e giuridico. Per la sua stessa natura, l’IA quale insieme di tecnologie che combina dati, algoritmi e potenza di calcolo[2] ha la sua ragion d’essere e trova fondamento per il suo sviluppo su una sempre più crescente disponibilità di una grande quantità di dati oltre che nei progressi compiuti nell’ambito degli strumenti di calcolo. È oramai una realtà (e da tempo) e non più fantascienza. I dati sono spontaneamente forniti dagli utenti, più o meno consapevolmente, ogni giorno e vanno ad alimentare, spesso gratuitamente, il mercato delle informazioni alla base dei processi di IA.
Già nel 2019 il Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (convenzione 108)[3] osservava come “Sistemi, software e dispositivi basati sull’intelligenza forniscono nuove e preziose soluzioni per affrontare i bisogni e le sfide in molti e differenti ambiti, quali la domotica, le smart cities, l’industria, la sanità e la prevenzione del crimine. Le applicazioni IA possono rappresentare uno strumento utile nei processi decisionali, specie nel supportare politiche inclusive e fondate su evidenze concrete. Come per altre innovazioni tecnologiche, queste applicazioni possono avere ripercussioni negative sugli individui e la società”.
Per evitare questo rischio, protezione della dignità umana e tutela dei diritti umani e delle libertà fondamentali, in particolare il diritto alla protezione dei dati personali, sono essenziali nello sviluppo e nell’adozione di applicazioni IA che possono avere conseguenze sugli individui e la società.
Esigenza che emerge dalla stessa definizione[4] di “sistema di intelligenza artificiale” e dalle tecniche e dei possibili approcci da utilizzare per il suo sviluppo[5] ma soprattutto la Commissione europea con la Proposta punta l’attenzione sull’interrelazione tra l’utilizzo di strumenti di IA nella nostra realtà quotidiana e la tutela dei dati personali, sottolineando i limiti da dover imporre per assicurare un corretto usodi grandi quantitativi di informazioni (per lo più dati personali) quale premessa necessaria per un tale inevitabile processo di sviluppo.
Questi gli obiettivi che chiaramente emergono dalla Proposta di Regolamento UE sull’Intelligenza artificiale:
- assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione;
- assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’IA;
- migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;
- facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.
Regolamento UE sull’Intelligenza artificiale: la classificazione dei rischi
La nuova disciplina vuole ridurre al minimo i rischi per la sicurezza e i diritti fondamentali che potrebbero essere generati dai sistemi di IA intervenendo prima della loro immissione sul mercato dell’UE. A tal fine, si procede a classificare una serie di casi di pratiche generali e di impieghi specifici in determinati settori valutandone il grado di rischio a cui vengono correlate differenti misure di attenuazione, o espliciti divieti.
I divieti
I divieti inseriti nel Regolamento UE sull’Intelligenza artificiale colpiscono una serie limitata di utilizzi dell’IA ritenuti incompatibili con i principi dell’Unione europea e i diritti fondamentali dell’uomo contenuti nella Carta europea:
- uso di sistemi di IA che distorcono il comportamento di una persona attraverso tecniche subliminali;
- uso di sistemi di IA che sfruttano qualsiasi vulnerabilità in modo da causare o essere suscettibili di causare danni fisici o psicologici;
- uso di sistemi di IA che consentono la valutazione/classificazione dell’affidabilità di persone fisiche mediante l’attribuzione di un punteggio sociale con finalità generali da parte di autorità pubbliche tali da determinare trattamenti pregiudizievoli o sfavorevoli;
- uso di sistemi di IA che consentono l’identificazione biometrica remota, salvo casi eccezionalmente autorizzati dalla legge riconducibili in linea di massima ad attività di prevenzione e contrasto del crimine, in ogni caso soggetti a garanzie specifiche[6].
I sistemi consentiti, ma ad alto rischio
I sistemi consentiti[7], ma classificati ad alto rischio, devono rispettare un insieme di requisiti tecnici specifici, quali l’utilizzo di set di dati di alta qualità, l’istituzione di una documentazione adeguata per migliorare la tracciabilità, la condivisione di informazioni adeguate con l’utente, la progettazione e l’attuazione di misure adeguate di sorveglianza umana e il conseguimento degli standard più elevati in termini di robustezza, sicurezza, cybersicurezza e precisione; accanto ai requisiti tecnici deve essere istituito, attuato, documentato e mantenuto uno specifico sistema di gestione dei rischi.[8]
I sistemi a basso rischio
Per i sistemi classificati a basso rischio nel Regolamento UE sull’Intelligenza artificiale sono previsti soltanto requisiti minimi di trasparenza: è il caso di chatbot (programmi in grado di simulare conversazioni umane), sistemi di riconoscimento delle emozioni o “deep fake” (foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce).
Gli obblighi per gli utenti dei sistemi di IA
L’articolo 29 del Regolamento UE sull’Intelligenza artificiale fissa anche gli obblighi a cui gli utenti dei sistemi di IA sono tenuti (seguire le istruzioni, garantire la pertinenza, rispetto al fine previsto, monitorarne il funzionamento, sospenderne l’uso in caso di incident ed informare il fornitore, conservare i log generati).
Un sistema di valutazione di conformità ex ante da parte di terzi, prima cioè della loro immissione sul mercato o in servizio, garantisce il rispetto dell’intero e complesso meccanismo che prevede anche misure di trasparenza, spazi di sperimentazione a sostegno dell’innovazione ma anche un articolato meccanismo sanzionatorio.
La Proposta non tralascia di prestare attenzione alla governance dei dati e dei meccanismi di registrazione dei sistemi di IA. Viene prevista (cfr. titolo VI) in ogni Stato membro l’istituzione di autorità nazionali competenti che cooperano tra loro e di un Comitato europeo per l’intelligenza artificiale, con il compito di facilitare l’attuazione del Regolamento UE sull’Intelligenza artificiale e sostenere la cooperazione tra le autorità nazionali di controllo e la Commissione, nonché di fornire consulenza e competenze alla Commissione e di consentire la condivisione delle migliori pratiche tra gli Stati membri.
Da tale quadro di riferimento emerge come il legislatore europeo si muove perseguendo due diverse esigenze: quella di favorire lo sviluppo del mercato digitale europeo, il cui bene di scambio (ma anche oggetto di condivisione) è costituito dall’informazione e dai dati personali, e quella di tutelare la persona nei suoi diritti fondamentali.
È proprio sul bilanciamento di diritti e interessi che si fonda la Proposta della Commissione quale strumento necessario per creare quel clima di fiducia essenziale perché l’IA possa svilupparsi ulteriormente.
L’interrelazione tra la Proposta di Regolamento UE sull’Intelligenza artificialee il Regolamento 2016/679 (GDPR)
Come si è visto, criteri e modalità operative che ritroviamo nella Proposta di Regolamento UE sull’Intelligenza artificiale sono le stesse che pervadono il GDPR:
- sono previste restrizioni de facto per gli operatori economici non-UE nella circolazione dei loro beni e servizi nell’UE;
- l’ambito territoriale: per entrambi le regole si applicano indipendentemente dal fatto che gli operatori economici come i fornitori o i titolari o i responsabili del trattamento siano stabiliti nell’UE (cfr. art. 2);
- il sistema di gestione del rischio e le soluzioni di mitigazione con una classificazione indicata a priori nella Proposta[9];
- l’uso di sistemi per monitorare e certificare il rispetto delle regole (cfr. art. 44);
- l’intervento delle autorità per supervisionare e controllare il mercato (cfr. Titolo VI);
- la previsione di multe e sanzioni in caso di infrazioni (cfr. Titolo X).
A fronte di tali elementi di contatto sicuramente si evidenziano aspetti di sostanziali differenze. Dalla difficoltà, a volte, ad individuare la stessa base giuridica: un sistema AI nell’ambito della propria “autonoma” capacità di adattamento all’ambiente circostante può mutare i suoi comportamenti e quinditrattare i medesimi dati per finalità diverse rispetto a quelle inizialmente prospettate, sulle quali né il soggetto interessato (cioè, il soggetto i cui dati sono trattati) né il titolare (cioè, il soggetto che tratta i dati) hanno consapevolezza e controllo.
Per loro natura i sistemi di AI elaborano e trattano molteplicità di dati personali e informazioni che possono far trasparire aspetti relativi non solo ai comportamenti e alle abitudini di vita e di consumo degli interessati, ma in alcuni casi anche alla sfera più intima e privata, con esiti difficili da seguire e regolamentare.
Inevitabili le implicazioni etiche che vanno trasformate in opportunità, la cui corretta gestione conferirà agli operatori di settore che sapranno cogliere queste sfide un evidente vantaggio competitivo.
L’intervento del Garante sul Regolamento UE sull’Intelligenza artificiale
La profonda interrelazione tra IA e protezione dati è stata sottolineata dal Garante per la protezione dei dati personali (di seguito: Garante) nella Memoria presentata lo scorso 9 marzo alle Commissioni IX e X riunite Camera dei Deputati sulla Proposta: entrambe trasversali e accomunate dal rappresentare la sfida, attuale e futura, lanciata dalla tecnica al diritto e alla sua possibilità di regolamentare anche ciò che appare, nella sua evoluzione incessante, più refrattario alla norma.
Rapporto tra normativa sulla protezione dati e Intelligenza artificiale
In primo luogo il Garante ha evidenziato il ruolo centrale che la normativa sulla protezione dati assume nel campo dell’IA: il trattamento di dati (in particolare personali) è funzionale, nel caso di specie, all’alimentazione dei sistemi di IA ed errori, imprecisioni o irregolarità nel trattamento dei dati funzionali all’alimentazione della macchina (sia in fase iniziale sia in fase esecutiva) si riflettono in altrettante distorsioni del processo algoritmico. E il GDPR da un lato disciplina già oggi il trattamento dei dati automatizzati e dall’altro esplora settori ancora non toccati nella Proposta.
Tale premessa porterà il Garante, nelle sue conclusioni, a suggerire al Governo di individuare nell’Autorità di protezione dei dati personali, le costituende autorità di controllo per l’IA,in linea con quanto emerge nel parere congiunto 5/2021 dell’European data protection supervisor (di seguito: Edps) e dell’European data protection board (di seguito: Edpb): la “designazione delle autorità per la protezione dei dati come autorità nazionali di controllo assicurerebbe un approccio normativo più armonizzato e contribuirebbe all’adozione di un’interpretazione coerente delle disposizioni in materia di trattamento dei dati nonché a evitare contraddizioni nella loro applicazione nei diversi Stati membri”.
I punti di contatto
Nel merito il Garante evidenzia come molte delle soluzioni adottate sono mutuate dalla disciplina di protezione dati considerata l’avanguardia nella regolazione del digitale. Molti i punti di contatto, inparticolare:
- l’approccio fondato sul rischio (modulato secondo una piramide di gravità ascendente), con la correlativa valutazione d’impatto, sia pur con lievi differenze nelle definizioni (sempre auspicalmente da uniformare);
- i doveri di trasparenza nei confronti degli utenti, da estendere a tutto il ciclo di vita dell’IA;
- il criterio della localizzazione dei destinatari dell’offerta produttiva quale parametro di applicazione territoriale della normativa;
- le certificazioni e i codici di condotta in funzione co-regolativa;
- la modulazione del trattamento sanzionatorio secondo il fatturato;
- la comunicazione obbligatoria degli “incidenti” potenzialmente pregiudizievoli;
- il coordinamento tra le autorità nazionali nell’ambito del Comitato europeo per l’IA, cui partecipa anche il Garante europeo per la protezione dati, destinatario peraltro di competenze specifiche in materia rispetto alle attività svolte dagli organi e dalle istituzioni europee.
Il Garante pone l’accento sulla stessa tassonomia dei divieti e dei gradi di rischio delle applicazioni di IA richiama i parametri previsti dalla disciplina di protezione dati laddovesi vieta il ricorso a sistemi di IA atti a condizionare il comportamento altrui o a sfruttare le vulnerabilità; a sistemi di social scoring fondati sul monitoraggio delle condotte individuali o all’identificazione biometrica in assenza di previsioni normative corredate di idonee garanzie[10].
I punti che richiedono modifica e allineamento
Su altri punti della Proposta il Garante evidenzia necessità di interventi di modifica o allineamento, come già rappresentato dall’Edps e dall’Edpb, in particolare:
- gli obblighi di conformità dei sistemi d’IA, riferiti all’osservanza della normativa europea nel suo complesso (dunque anche quella di protezione dati, ivi inclusi i principi di minimizzazione e privacy by design), devono rappresentare un requisito necessario per la stessa autorizzazione all’immissione sul mercato europeo;
- occorre assicurare un coordinamento più puntuale del sistema di certificazione proposto con quello proprio, in particolare, della disciplina di protezione dati, coinvolgendo le relative Autorità nella redazione di norme armonizzate e chiarendo se la protezione dei dati personali debba essere considerata uno dei «requisiti supplementari» nell’ambito dei codici di condotta;
- opportuno l’inserimento nell’articolato di una clausola di salvaguardia espressa e generale in favore della disciplina di protezione dati per evitare possibili antinomie tra i due plessi normativi e garantire un’applicazione coerente;
- suggerisce di vietare qualsiasi sistema d’IA funzionale a punteggi sociali, in qualsiasi ambito utilizzati, o alla deduzione delle emozioni, nonché quelli volti a categorizzare le persone in insiemi, sulla base di dati biometrici, dell’etnia, del genere, dell’orientamento politico o sessuale ovvero in base ad altri motivi di discriminazione di cui all’articolo 21 della Carta di Nizza;
- governance: si evidenzia la presenza di diversi soggetti qualificati titolari di competenze di supervisione (“autorità di notifica” e “autorità di vigilanza del mercato” facenti capo ad una “autorità nazionale di controllo”[11]) di cui non sono chiaramente distinguibili le caratteristiche proprie e i reciproci ambiti di azione;
- esigenzadi prevedere comunque il coinvolgimento, almeno negli ambiti di propria competenza, delle Autorità di protezione dei dati per la rilevante pervasività del tema della tutela di diritti fondamentali da cui deriva anche una garanzia di indipendenza.
Profili di responsabilità
Riguardo l’attribuzione della responsabilità per un danno conseguente all’uso di applicazioni di IA il dibattito oggi ancora aperto è centrato da un lato sull’individuazione del soggetto che ne trae vantaggio (l’autore del programma, il produttore, il venditore o l’utilizzatore) e dall’altro sull’opportunità o meno di introdurre una sorta di soggettività giuridica dell’applicazione o meglio, della macchina[12].
È evidente a tutti che siamo di fronte a scenari del tutto nuovi.
Occorre introdurre nuove norme o è possibile applicare, con una nuova prospettiva, le norme già esistenti? Pur volendo propendere per la tesi di chi ritiene che non vi sia l’esigenza di introdurre una nuova norma per ogni fenomeno nuovo, sicuramente il tema della responsabilità nelle applicazioni di IA necessita un approccio diverso.
Interessante la posizione di chi intende affrontare le problematiche connesse alla gestione del danno da IA, con una impostazione giuslavorista facendo riferimento alla responsabilità “oggettiva” in capo al datore di lavoro per l’utilizzo di mezzi e strumenti nell’ambito dell’attività lavorativa. Responsabilità oggettiva che potrebbe trovare un’esimente nella responsabilità per prodotto difettoso, una volta dimostrato il nesso di causalità tra il pregiudizio subito e il difetto lamentato con trasferimento diretto di responsabilità in capo al produttore a prescindere dall’elemento soggettivo del dolo e della colpa.
Altri profili di responsabilità possono essere comunque ricondotti anche al programmatore dell’algoritmo che governa il prodotto. L’algoritmo, infatti, nelle macchine self-learning è preposto ad impartire degli ordini responsabili del funzionamento della AI, quindi è proprio dall’algoritmo che trae origine il comportamento anche dannoso del prodotto. Ciò sembra sufficiente a configurare una responsabilità solidale, con quella del produttore del bene ultimo, del programmatore dell’algoritmo, potendo quindi il consumatore, rivolgersi alternativamente all’uno o all’altro.
Di fronte a tali implicazioni (e difficoltà) parte della dottrina propone di superare il paradigma basato sull’errore e sulla colpa e, invece, affrontare il problema sotto il profilo dell’allocazione del rischio. In altri termini, non è rilevante chi sbagli: la ricerca dell’errore è attività complessa, a volte costosa e soprattutto non priva di profili di rischi di risultato. Potrebbero essere introdotti meccanismi di mitigazione del rischio con l’allocazione del costo del danno cagionato, ad esempio mediante la costituzione di un fondo al quale attingere, prescindendo dall’individuazione delle modalità dell’incidente o dell’errore, introducendo, ad esempio, uno strumento analogo a quello previsto nel circuito delle carte di credito, per il caso di clonazione o furto. Si potrebbe così rassicurare i potenziali utilizzatori: otterranno un risarcimento a prescindere dagli esiti di ricerca sull’errore con riflessi favorevoli sul clima di fiducia presupposto necessario per un sano sviluppo.
L’esperienza di New York: formazione, informazione e trasparenza
Al di la delle soluzioni che verranno dal completamento del quadro normativo, europeo e nazionale, sul tema dell’intelligenza artificiale con tutte le implicazione necessarie è utile raccogliere l’esperienza americana laddove proprio per la pervasività con cui gli strumenti di AI sono entrati nella vita pubblica e privata dei cittadini oltre a mappare l’utilizzo di tutti i sistemi di IA all’interno del Municipio di New York la task force, appositamente istituita, formata da esperti in materia informatica e funzionari amministrativi, ha promosso forum pubblici al fine di rendere edotta la popolazione sull’utilizzo di detti sistemi di AI che di fatto sono divenuti essi stessi strumenti di trasparenza, oltre che di formazione e informazione, rendendo contemporaneamente anche note le modalità di affrontare un danno causato da una AI e per ottenerne il risarcimento.
Torna anche qui nuovamente prepotente e prioritario il tema della formazione, troppo spesso trascurata e che, al contrario deve assumere il suo ruolo centrale nella comunità.
[1] L’intelligenza artificiale (IA) consiste in una famiglia di tecnologie in grado di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.
[2] Cfr. Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, 19/2/ 2020
[3] cfr. Linee-Guida in materia di intelligenza artificiale e protezione dei dati – Strasburgo, 25/1/2019 T-PD(2019)01.
[4] Cfr. all’art. 3, par.1, 1) della Proposta un software che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.
[5] Cfr. Allegato 1 Tecniche e approcci di intelligenza artificiale: a) apprendimento automatico; b) basati sulla logica e sulla conoscenza; c) statistici.
[6] La Proposta precisa che l’uso di sistemi d’identificazione biometrica remota in tempo reale in spazi accessibili al pubblico a fini di legittima attività di contrasto debba tener conto: della natura della situazione che dà luogo al possibile uso (gravità, probabilità ed entità del danno causato dal mancato uso); delle conseguenze dell’uso del sistema per i diritti e le libertà di tutte le persone interessate (gravità, probabilità ed entità delle conseguenze). Tale impiego deve altresì rispettare le tutele e le condizioni necessarie e proporzionate in relazione all’uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali. Ogni singolo uso di un sistema di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto deve essere subordinato a un’autorizzazione preventiva rilasciata, su richiesta motivata e in conformità al diritto nazionale, da un’autorità giudiziaria o da un’autorità amministrativa indipendente dello Stato membro interessato. Rimane possibile, in una situazione di urgenza debitamente giustificata, iniziare a usare il sistema senza autorizzazione e richiederla solo successivamente.
[7] L’Allegato III della Proposta elenca gli impieghi che annoverano tecnologie di IA ritenute ad alto rischio, suscettibili di essere ampliati dalla stessa Commissione.
[8] Cfr. art. 9 della Proposta: Il sistema di gestione dei rischi è costituito da un processo iterativo continuo eseguito nel corso dell’intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un aggiornamento costante e sistematico.
[9] La Proposta stessa, in questa ottica interventista classifica direttamente i prodotti che utilizzano completamente o parzialmente il software AI in base al rischio di impatto negativo sui diritti fondamentali, come la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati e, in particolare salute e sicurezza.
Più il prodotto è suscettibile di mettere in pericolo questi diritti, più sono severe le misure adottate per eliminare o mitigare l’impatto negativo sugli stessi, fini al vietare quei prodotti che sono completamenti incompatibili con le tutele fondamentali.
[10] Indirizzo recepito in sede di conversione dell’art. 9, comma 9 del decreto legge 139/21 convertito, con modificazioni, dalla legge 205/21), attraverso una moratoria generale del ricorso a sistemi di riconoscimento facciale salvo per fini di pubblica sicurezza o giustizia, ma in presenza di idonee previsioni normative e con avviso favorevole del Garante (salvo per i trattamenti svolti dall’autorità giudiziaria) in sede di consultazione preventiva.
[11]Non sono peraltro chiaramente distinguibili i reciproci ambiti di azione, in quanto, in base all’art. 59, par. 2, l’autorità nazionale di controllo agirebbe in qualità di autorità di notifica e di autorità di vigilanza del mercato, a meno che uno Stato membro non abbia motivi organizzativi e amministrativi, da motivare nei confronti della Commissione (art. 59, par. 3) per designare più di un’autorità.
[12] Ampia la discesa in campo di studiosi di diritto dell’etica e della tecnologia per confutare la posizione di attribuire una personalità giuridica ad una macchina, sia pure intelligente. Personificare significa mutare da “res” a “esse”, e condizione di tale mutazione è possedere un’autocoscienza di tipo umano: la macchina sarebbe in grado non solo di capacità cognitive, ma anche emotive, capacità di pensare ed emozionarsi. quali reputano L’intelligenza artificiale va ricondotta ad un mero processo che si limita a riprodurre l’abilità del pensiero umano, imitandone le capacità di apprendimento e di generalizzazione necessarie per assumere decisioni, tale da non poterla considerare come centro autonomo di imputazione giuridica.