Sommario
Premessa
Nel 1932, un visionario Aldous Huxley scrive “Il mondo nuovo“, affascinante romanzo di fantascienza di genere distopico, ambientato nel 2540, narrante di una società disumanizzata e ipertecnologicamente avanzata. L’uomo sembra diventato un robot, nella sua spiccata fredda automazione. Il robot somiglia sempre più ad un uomo, nella sua componente cognitiva e decisionale.
Facendo un balzo indietro, ai nostri giorni, l’Intelligenza Artificiale (IA) ha la sua dimensione autonoma immateriale (mente) che non sempre, necessariamente, si incontra con il piano tangibile della robotica (corpo).
Del resto, per secoli, corpo e mente umana sono stati studiati in maniera distinta e parallela.
Gli stessi sistemi di imitazione del corpo e della mente sono stati implementati separatamente. Ciò ha condotto alla creazione di macchine di rara potenza e precisione (apparecchiature industriali, militari o sanitarie, robot), da una parte, e a calcolatori elettronici dalle notevoli capacità computazionali (elaboratori, dispositivi smart), dall’altra.
Nel tempo, si è giunti all’integrazione tra meccatronica, con prodotti di biomeccanica simile a quella del corpo umano, e sistemi di calcolo comparabili – e talvolta superiori – ad alcune delle funzioni cerebrali umane.
L’espressione “intelligenza artificiale” è stato probabilmente foggiata, nel 1956, dall’informatico americano John McCarthy[1], in un clima di grande fervore e entusiasmo. L’evoluzione tecnologica che ne è seguita è stata di tipo esponenziale.
Si assiste oggi ad un progresso tale da porsi non più solo la domanda se le macchine siano intelligenti ma anche se possano essere morali. Si tende sempre più a parlare di roboetica.[2]
La perenne tendenza all’antropomorfizzazione dei sistemi di IA, soprattutto da parte del profano, nasce dalla constatazione, più o meno immediata, di una capacità di ragionamento e di creatività simili a quella umana.
I considerevoli risultati conseguiti dalla tecnologia generativa spostano inevitabilmente il centro del dibattito, giuridico e non, dalla dimensione eminentemente artificiale a quella umana. L’utilizzo stesso del termine intelligenza – tipica capacità multifattoriale umana – è la prova indiretta di un’inconfutabile tendenza all’antropocentrismo.
E, in un contesto caratterizzato da apologia ed esaltazione da un lato, diffidenza e timore dall’altro, l’idea stessa, antropocentrica, di una “macchina pensante” sembra costituire l’anticamera per il riconoscimento di una nuova forma di personalità giuridica.
Si impone, in tutta la sua valenza sillogistica, il ragionamento secondo cui, se le macchine possono imparare e decidere, allora possono (e debbono) essere anche giuridicamente responsabili per le attività che compiono.
Tale rilievo conduce, ineludibilmente, a considerare non più sufficiente l’inquadramento nella mera dimensione fenomenologica e ontologica dell’Intelligenza Artificiale. Si appalesa più che mai necessario una riflessione sullo status giuridico della medesima.
Risoluzione europea del 2017 e “personalità elettronica”
Da più parti, si discute di “personalità elettronica”, sia perché la nostra cultura giuridica correla, pressoché in automatico, il concetto di persona (fisica o giuridica) al soggetto (fisico o non, individuale o collettivo) che abbia capacità giuridica e d’agire, ossia l’attitudine a produrre modificazioni nella sfera giuridica propria e altrui, sia per assicurare un’adeguata cifra di certezza e di tutela ai soggetti eventualmente lesi dall’attività autonoma della “macchina pensante”.
Invero, la seconda motivazione costituisce piuttosto una concreta specificazione della prima, quella che attiene al versante dell’attitudine ad incidere sulla sfera giuridica altrui, con particolare protezione dell’eventuale interlocutore umano che, a qualsivoglia titolo, di fatto o di diritto, entri in contatto con essa.
Riconoscere tale personalità e le connesse responsabilità sembra possa condurre ad esonerare il danneggiato dal peso di una dispendiosa e spesso dispersiva ricerca del possibile autore della componente tecnica specifica che è stata causa, più o meno diretta, della scelta errata e dunque del danno.
Ciò consentirebbe di superare tutta una pletora di questioni complicate in ordine ai criteri eziologici di riconducibilità del danno al funzionamento della singola componente, tenendo conto che praticamente tutte le decisioni “artificiali” sono frutto di interazioni e sinergie di più componenti, le cui effettive quote di incidenza non risultano distinguibili.
D’altro canto, così argomentando, si potrebbe andare oltre l’approccio, ormai antiquato e poco efficace, della responsabilità del produttore per prodotto difettoso[3], atteso il livello superiore della tecnologia “pensante”, capace di prendere decisioni in autonomia, a prescindere da una valutazione di difettosità ancorata a rigidi schemi meccanici anziché ai dinamici flussi elettronici.
L’idea della “personalità elettronica” è stata introdotta da una risoluzione del Parlamento europeo alla Commissione[4] adducendo giustappunto la necessità di “garantire una più equa distribuzione del rischio” con l’avanzare della tecnologia di Intelligenza Artificiale, in alvei particolarmente sensibili alla responsabilità per danni extracontrattuali.[5]
Numerose critiche sono state mosse dagli esperti a tale risoluzione.
In particolare, centocinquantasei esperti, a vario titolo, in Intelligenza Artificiale, hanno presentato una “lettera aperta” evidenziando, in buona sostanza, due macro contestazioni.
In primis, i caratteri tipici dell’IA, della robotica e dei sistemi tecnologici correlati, pur essendo teoricamente assimilabili al comportamento razionale umano, non presentano alcuna altra caratteristica essenziale e peculiare dell’essere umano, quali l’autocoscienza o un senso dell’identità personale, il libero arbitrio, la componente emotiva.
In secondo luogo, il fondamento giuridico dell’asserita “personalità elettronica” non troverebbe ispirazione né nella persona fisica per le suindicate ragioni, né tantomeno nella persona giuridica che, in ultima analisi, si compone comunque di persone fisiche che la rappresentano e l’amministrano, e dunque decidono se e come tenerla in vita.
Tali contestazioni si appalesano – ma solo prima facie – fondate.
Certamente il deciso segnale, in sede europea, di un trend alla regolamentazione dei robot – al punto da pensare di poter considerarli autonomi centri di imputazione giuridica – deve tenere nella debita considerazione le innegabili differenze ontologiche tra macchine intelligenti e attuali soggetti di diritto (persone fisiche, persone giuridiche ed altri enti, animali), nonché l’evidente gradualità di autonomia riscontrabile tra le diverse tipologie intelligenze artificiali.
Eppure, può ritenersi che il fondamento di un’ipotetica persona elettronica non dovrebbe cercarsi né nella persona fisica, né nella persona giuridica, ma fondare eventualmente un tertium genus le cui caratteristiche rispondano a un’utilità pratica che ne giustifichi l’esistenza.
Qualora questa utilità fosse riscontrata – e pure la semplice risoluzione del problema della prova del nesso di causalità ai fini del risarcimento del danno pare una valida ragione -, non dovrebbe, di principio, escludersi l’attribuzione di personalità, senza con ciò voler riconoscere un carattere di umanità ai robot.
Del resto, a ben guardare in prospettiva storica, la stessa introduzione della persona giuridica ha incontrato non pochi ostacoli.
Sconosciuta al diritto romano[6], l’idea che un’entità giuridica potesse avere un autonomo patrimonio ed essere centro di imputazione di posizioni giuridiche distinto dai membri che lo compongono è affiorata e fiorita solo nel Medioevo, figlia di una vibrante disputa dottrinale sulla plausibilità di un riconoscimento di diritti in capo ad un ente che, a tutti gli effetti, fosse una persona ficta.
Alla fine, le resistenze di matrice concettuale sono state sconfitte dalle esigenze di natura pratica che la nuova figura giuridica avrebbe consentito di risolvere.
L’istituto giuridico di societas, come ente distinto dalle persone che lo compongono, è oggi acquisito nella cultura giuridica di tutti gli ordinamenti, e mai gli si è voluto accostare, in qualche misura, un predicato di umanità.
Nel Medioevo, il collegium è nato quale centro di imputazione di interessi autonomi[7] – ancorché afferibili indirettamente ai membri – e titolare di un autonomo patrimonio.
Nel tempo, il diritto è giunto a riconoscere alla “persona giuridica” un complesso di diritti prima concepibili solo in relazione alle persone fisiche.
In tal senso, ammettere – alla stessa stregua della persona giuridica – la “persona elettronica” come centro di imputazione della responsabilità per un’equa distribuzione dell’obbligo di risarcimento del danno in sostituzione della disciplina del danno da prodotto difettoso, sarebbe una valida soluzione giuridica, efficace anche nel dissipare questioni specifiche di diritto industriale, come quelle inerenti all’attribuzione a persone fisiche e giuridiche di diritti sull’invenzione, alla paternità dell’opera dell’ingegno, alla responsabilità per condotte lesive della concorrenza, all’individuazione della specifica componente “incriminata“, et similia.
La ratio, a livello europeo, risiede dunque in un’esigenza altrettanto pragmatica: la tutela dei terzi di fronte alle azioni dei robot.
Nella suindicata Risoluzione europea, si invoca altresì l’urgenza di una Carta etica della robotica, funzionale a garantire sempre e comunque la prevalenza e la tutela essenziale dell’autonomia, dell’autodeterminazione, della sicurezza e della dignità umana.
In particolare, nel solco di tale esigenza, la Commissione europea ha inviato, nel 2019, una Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, “per creare fiducia nell’intelligenza artificiale antropocentrica”.[8]
Cenni di fenomenologia della soggettività e dei suoi derivati giuridici
Senza dubbio, gli impulsi europei riaccendono il dibattito sulla dogmatica tradizionale attinente ai concetti di soggettività giuridica, capacità giuridica e personalità giuridica.
Notorio è che, in ordine alle persone fisiche, la soggettività e la capacità giuridica si acquistano al momento della nascita[9], la prima costituendo l’astratta attitudine alla titolarità di diritti e doveri, la seconda è estrinsecazione della prima ed effettiva attitudine a tale titolarità.
Per gli enti è prevista la possibilità di divenire soggetti giuridici e dunque portatori di capacità giuridica solo ove acquisiscano – previo riconoscimento o taluni di diritto – la personalità giuridica.[10]
In tal senso, si appalesa evidente l’obiettivo di equiparare gli enti riconosciuti come persone giuridiche alle persone fisiche.
Tali precisazioni evidenziano subito la diversità ontologica tra l’attribuzione della personalità e il mero riconoscimento dello status di soggetto di diritto (soggettività).
La personalità giuridica comporta l’ulteriore passo dell’autonomia, ossia sul piano della capacità d’agire e dunque dell’attitudine a compiere atti giuridici, idonei a costituire, modifiche o estinguere rapporti giuridici nei confronti di altri soggetti, incidendo in qualche misura nella sfera di costoro.
La nozione di soggetto risulta riconducibile alla definizione classica elaborata da Hans Kelsen nella sua Dottrina pura del diritto: centro unitario di imputazione e quindi titolare di situazioni giuridiche soggettive.
La prefata definizione afferisce, evidentemente, al dato formale della titolarità di posizioni giuridiche, tralasciando ogni riferimento precipuo alla natura (umana) del titolare stesso della posizione giuridica, garantita o sanzionata, dalla norma giuridica.
Probabilmente, utilizzando tout court la definizione kelseniana, si giungerebbe agevolmente ad ammettere, per le macchine di IA, l’astratta possibilità di essere riconosciute quali soggetti giuridici (di natura non umana).[11]
Il dato formale ovviamente non può bastare. Va indagato se, in concreto, tali “macchine pensanti”, specialmente quelle maggiormente evolute, siano funzionalmente idonee ad assumere diritti ed obblighi, se si possano insomma considerare realmente capaci di interagire e partecipare scientemente alla vita sociale.
Questo costituisce il profilo di maggiore criticità, quello che dà luogo all’innegabile divario tra persona fisica (essere umano) e Intelligenza Artificiale (essere non umano), a cui evidentemente difetta la personalità così come tradizionalmente intesa.
Sebbene, nel corrente ordine dell’evoluzione tecnologica, la “macchina pensante” non sembri ancora mostrare tutto – proprio tutto – il ventaglio delle capacità tipicamente umane di esprimere giudizi, esercitare discrezionalità, intendere e volere nel senso più familiare secondo le nostre visioni, i nostri valori, le nostre pulsioni, non pare affatto necessario, per ascrivere uno status giuridico a tale macchina, doverne previamente esaminare e valutare il sostrato cognitivo-mentale-emotivo.
Il diritto ha insegnato che esistono soluzioni alternative alla realtà.
La teoria della fictio iuris potrebbe costituire la base dogmatica per attribuire soggettività ai robot non annoverabili nella categoria dei beni mobili.
Così come, la teoria della realtà giuridica potrebbe a sua volta essere posta a fondamento per riconoscere la soggettività alle macchine più evolute ed interattive, quelle munite di “animo sociale” e “cervello sociale”.[12]
Più recentemente, vi è chi[13] ha prospettato una riconfigurazione del concetto di soggettività che prenda le mosse dalle caratteristiche essenziali rinvenibili nelle odierne figure meccatroniche, secondo un tripartizione degli ambiti di interesse sussumibili nei parametri dell’essere, dell’avere e dell’agire giuridico, ossia considerando “le categorie logiche classiche con le quali si rappresentano i diritti dei soggetti nel mondo giuridico”[14].
Alla luce di tale teoria, la componente dell’agire costituisce la sola delle tre che meglio narra la prerogativa delle macchine di IA, non essendo, al contrario, possibile individuare connotazioni specifiche in ordine all’essere e all’avere.
In pratica, partendo dall’indubbia capacità delle “macchine pensanti” di compiere azioni complesse, nei settori più disparati, con particolare celerità e competenza, si potrebbe giustificare l’istanza per il riconoscimento dell’imputazione di diritti (e correlati obblighi), limitatamente – appunto – alla capacità d’agire, nell’ottica dell’attitudine a produrre modificazioni della realtà socio-giuridica.
Invero, in una proiezione antropocentrica, la soggettività e la personalità hanno un contenuto molto esteso ed articolato. La complessità umana – perché di complessità in senso moriniano[15] si tratta – costituisce, a ben vedere, il più cospicuo attributo impeditivo per un riconoscimento della soggettività ai dispositivi dal pensiero artificiale.
Si potrebbe ipotizzare una soluzione che scomponga e individui le peculiari condizioni soggettive attribuibili all’IA e da queste partire per calibrare forme più o meno estese di soggettività e di personalità.
La soggettività, per come tradizionalmente intesa, si compone dei seguenti elementi: l’imputazione (e dunque, di riflesso, la legittimazione), l’unità (e dunque, di riflesso, l’alterità) e l’autonomia patrimoniale più o meno perfetta (e dunque, di riflesso, la responsabilità patrimoniale più o meno estesa e più o meno diretta).
Per imputazione si intende la scelta discrezionale dell’ordinamento di rendere una entità destinataria di diritti e obblighi da cui, poi, deriva, per effetto, la legittimazione, intesa come riconosciuto titolo a compiere atti dispositivi della propria e, in qualche misura, della altrui sfera giuridica.
Per unità si intende la considerazione della detta entità, da parte dell’ordinamento considera, quale persona unica, connotata da una sua propria individualità, e dunque costituente un soggetto diverso (alterità) dagli altri.
Per autonomia patrimoniale si intende il livello di separatezza del patrimonio rispetto a quello di terzi, nella misura più o meno piena attribuita dall’ordinamento, a cui corrisponde un grado più o meno esteso e più o meno diretto di responsabilità patrimoniale, intesa quale garanzia, che l’ordinamento riconduce, per l’adempimento delle obbligazioni con tutti i beni imputati al soggetto responsabile.
In ordine alle “macchine pensanti”, il requisito dell’imputazione appare come più agevole da ottenere, essendo effetto di una formale decisione del legislatore. Tuttavia, presentando come altra faccia della medaglia il concetto di legittimazione, che deve necessariamente basarsi sulla capacità naturale (quale capacità di intendere e di volere), emerge in tutta la sua criticità la questione di un effettivo riconoscimento.
Infatti, la presunzione iuris tantum (rectius, “fino a prova contraria”) della capacità di intendere e di volere è prospettabile, senza dubbio, in rapporto ai soggetti che ne siano fisiologicamente dotati (essere umani).
Alla stessa stregua, negli enti – ove le azioni sono determinate da una sintesi di decisioni umane –, è parimenti naturale rilevare la capacità di intendere e di volere.
In riferimento all’Intelligenza Artificiale, si può delineare lo stesso ragionamento solo in presenza di figure meccatroniche molto elementari che mettono in esecuzione istruzioni particolarmente puntuali e realizzano azioni prevedibili, dunque agevolmente ai programmatori. Si pensi ai software azionati nei computer di uso comune.
Al cospetto di sistemi più avanzati di IA, per converso, si riscontrano quote di autonomia di scelta e di imprevedibilità di azione, al punto da non poter ridurle a mere proiezioni dell’ingegno e dunque della volontà del programmatore.
L’odierno grado di evoluzione delle macchine più progredite non pare aver conseguito la capacità di intendere e di volere, in senso antropologico, tale da poter condurre il legislatore al riconoscimento dell’imputabilità e quindi della legittimazione proprie delle persone fisiche e delle persone giuridiche.
Ciò in quanto la soggettività naturale del robot intelligente deriva invero dal riconoscimento allo stesso di una serie minima di caratteri – necessari e sufficienti – la cui individuazione è un’operazione di tipo prettamente assiologico.
In sostanza, va compiuta una scelta aprioristica tra il principio monista (omogeneità tra mente e cervello) e quello dualista (eterogeneità tra mente e cervello).
Il secondo orientamento è oggi prevalente ed è riconducibile alla tesi[16] della netta distinzione tra mondo numero uno (fisico) e mondo numero due (dei pensieri e dei sentimenti).
L’Intelligenza Artificiale si pone come una realtà completamente nuova, per cui è necessaria una regolamentazione basata su un senso di soggettività che non deve essere, per forza di cose, correlato con l’idea di individuo della specie umana.
Probabilmente, considerato il trattamento riservato dall’ordinamento agli enti (collegium, societas, persona giuridica), non può negarsi la possibilità di riconoscere forme di personalità limitata o minore, connotate dalla presenza parziale degli elementi tipici della soggettività suindicati.[17]
In definitiva, allo stato, appare equo e congruo alla “macchina pensante” una forma attenuata di personalità, nella prospettiva di rivedere tale posizione se e quando l’evoluzione dell’IA dovesse raggiungere livelli tali da giustificarne la revisione.
Tale rango attenuato potrebbe sostanziarsi in una soggettività limitata alla responsabilità patrimoniale diretta per danni.
Ove i robot dovessero conseguire più elevati gradi di autonomia e dunque della capacità di intendere e di volere, interagendo nelle forme maggiormente ampie ed indipendenti con i terzi (persone fisiche, persone giuridiche, animali, robot), si potrà perfezionarne lo status con l’attribuzione, da parte dell’ordinamento, della piena “personalità elettronica“, secondo le peculiarità delle singole macchine candidate al riconoscimento dello status stesso e prescindendo da una visione meramente antropocentrica.
Naturalmente, va tenuto conto che la ratio dell’attribuzione della soggettività giuridica elettronica, nell’attuale contesto – comunque parametrato su di un preminente senso di protezione dell’essere umano – non fonda tanto sulla finalità di ampliare la sfera giuridica della “macchina pensante”, ma sulla necessità sempre più sentita di garantire la più ampia quota di tutela per la controparte umana che dovesse entrare in relazione di fatto o di diritto con essa.
Diritti della “macchina pensante”? Possibile la “macchina emotiva”?
Svincolando il ragionamento da una visione fermamente antroprocentrica, un dibattito laico e obiettivo sulla “personalità elettronica” non può concernere unicamente la questione della responsabilità patrimoniale diretta e quindi all’aspetto degli obblighi di tutela, ma andrebbe esteso anche alla sfera dei diritti.
Il nodo è il seguente. La “macchina pensante”, ove dovesse conseguire un livello di intelligenza più simile possibile, nell’accezione multidimensionale, a quella umana, sarebbe altrettanto meritevole di tutela?
Qualora le forme di IA dovessero raggiungere, mediante i loro meccanismi di autoapprendimento, autosviluppo e autoevoluzione, una dimensione elevata di autonomia e indipendenza, si potrebbe accordare loro il riconoscimento e la titolarità di posizioni giuridiche attive?
In sostanza, è ipotizzabile, per i sistemi di IA più avanzati, un processo di transizione da res a persona?[18]
Si tende a parlare, in tal senso, di nuovi “schiavi meccatronici”[19], la cui evoluzione sembra simmetrica a quella della schiavitù umana.
Lo schiavo, in epoca antica, era considerato bene strumentale, dotato di capacità varie, di proprietà del dominus e sottoposto al suo potere assoluto (jus vitae ac necis).
Tuttavia, nel tempo, ne è emersa la natura umana e si è evoluto il diritto, di pari passo con la società, verso forme via via più estese di affrancamento, tutela e autonomia, fino al debellarsi stesso, almeno in punto di diritto, dell’istituto della schiavitù umana.
Con la personalità elettronica, la “macchina” si vedrebbe riconosciuta come capace di fruire anche “in proprio” dell’attitudine ad autonomamente decidere e comunicare.
La personificazione dell’IA diventa un problema davvero impegnativo – tanto sotto il profilo tecnoetico quanto sotto quello tecnogiuridico – specialmente in ordine al versante dei “diritti”, in qualche misura accostabili, per analogia, a quelli eminentemente “umani”.
Probabilmente, restando permeati di cultura antropocentrica, non si dischiuderebbero nuovi orizzonti e taluni legacci mentali continuerebbero a inibire il giusto volo verso forme di pensiero e concezioni di più ampio respiro.
Ecco così che, per attribuire la “personalità elettronica”, non è reputato sufficiente, ad oggi, il pensiero artificiale, fosse anche di tipo self-learning, ritenendosi invece necessaria l’autocoscienza (il cogito ergo sum di cartesiana memoria), o i presupposti soggettivi postulati da Wittgenstein[20], o il buon esito nell’imitation game di Turing.[21]
Dunque, davvero il solo criterio discriminante dovrà essere quello fondato sulla concezione antropomorfa e antropocentrica del “pensiero”, della “autocoscienza” e dell’imitazione convincente?
Sarebbe auspicabile separarsi da pregiudizi e modelli riduttivamente antropocentrici.
Si tratterebbe, beninteso, di un’operazione di distacco prettamente strumentale alla dimensione del riconoscimento di diritti e tutele all’IA, ove consono alla realtà e alla coscienza sociale, ma comunque, in ogni caso, subordinato alla preminenza dell’essere umano, in ordine alla protezione dei suoi precipui caratteri, dei principi inviolabili universalmente riconosciuti e dei suoi inalienabili diritti fondamentali.
Da cosa distaccarsi? Dalla comparabilità con sembianze umane; dalla citata “autocoscienza” cartesiana; dalla capacità di “sentire”; dalla volontà oltre il mero pensiero, di lettura wittgensteiniana; dall’attitudine al ragionamento deduttivo e non anche induttivo, ossia per causalità e non anche per inferenza.
Allo stesso modo, appare congruo potersi allontanare dalla concezione della “macchina di Turing“, vista la prevalente componente imitativa in re ipsa antropocentrica, ed atteso che, nel tentativo di emulare le caratteristiche specifiche dell’uomo, contemporaneamente le tradisce non sapendo fare null’altro, così finendo per svilire, d’altro canto, la dimensione volontaristica e socio-relazionale fondamentale per attribuire una soggettività e forme più o meno attenuate di personalità giuridica.
La visione laica e scevra da retaggi antroprocentrici, che si invoca, ovviamente attiene dunque ad una dimensione, quella del riconoscimento di quote più o meno estese di personalità, in senso giuridico attivo, che mai dovranno intaccare la piena e preminente tutela dell’autodeterminazione, dell’autonomia, della sicurezza e della dignità umana.
Di certo – e si conclude con una brevissima digressione – l’ulteriore interrogativo “vi sarà mai la macchina emotiva?” sembra altrettanto presupporre un’impostazione eccessivamente antropocentrica.
La risposta corrente nega la possibilità, per la macchina, di “sentire”, essendo le emozioni tecnicamente (allo stato) incomputabili.
L’Intelligenza Artificiale sinora implementata non è capace di provare emozioni. È in grado invece di leggere, analizzare, prefigurare lo stato emotivo di un soggetto umano.
In sostanza, la macchina può calcolare le emozioni, rilevarle ma non sentirle; né può essere indotta a comportamenti conseguenziali e a reazioni irrazionali.
Si tratta dunque di una questione che, allo stato dell’arte, ha tutte le sembianze dell’utopia.
Per converso, è augurabile prevenire innnaturali derive che possano condurre ad un’umanità del tutto priva degli attributi emotivi, come quella descritta dal visionario Huxley.
[1] Durante un seminario universitario estivo, presso il Dipartimento di Matematica della Dartmouth University, organizzato dal professore John McCarthy, viene illustrato un lavoro scientifico e ingegneristico finalizzato a “far usare il linguaggio alle macchine, formare astrazioni e concetti, risolvere problemi ormai riservati all’uomo, e migliorarsi”. Oggi la locuzione IA si utilizza in una duplice accezione, per descrivere sia le macchine intelligenti sia le conoscenze scientifiche e tecnologiche che mirano alla costruzione di queste ultime. Sul punto, si legga ZITO Luigi, Intelligenza artificiale, bias cognitivi e discriminazione. Premesse e prospettive sull’Intelligenza Artificiale (IA) alla luce delle criticità del sistema degli algoritmi e dei relativi rimedi tecnici e giuridici, in Altalex – Quotidiano di informazione giuridica (ISSN: 1720-7886), 2024. È del tutto evidente l’interesse umano a sviluppare macchine non solo per lo svolgimento del lavoro materiale, ma anche per trasfondere nelle stesse le istruzioni finalizzate allo svolgimento di prestazioni d’opera intellettuale. Invero, l’idea di delegare a congegni meccanici determinate operazioni tipiche della mente è antica quasi come l’uomo. Si pensi alle operazioni aritmetiche svolte con l’abaco, inventato intorno al 5000 a.C. dai Cinesi, ai quali risale pure il primo esempio conosciuto di dispositivo di controllo automatico, utile a regolare il livello dell’acqua nelle risaie. In epoca moderna, le prime macchine da calcolo sono dovute a Pascal (1623-1662) che costruisce un’addizionatrice meccanica, e a Leibniz (1646-1716) che la perfeziona per consentire anche le moltiplicazioni. Nel 1840, Charles Babbage, matematico e filosofo britannico, presenta la sua “macchina analitica”, sulla quale, prima l’ingegnere italiano Luigi Federico Menabrea e poi la matematica britannica Ada Lovelace, elaborano un lavoro scientifico, in cui, per la prima volta, viene canonizzata la distinzione fra “aspetti meccanici” e “capacità analitiche”, ossia tra gli attuali concetti di hardware e software.
[2] WALLACH Wendel – ALLEN Colin, Moral machines: Teaching robots right from wrong, Oxford University Press, Oxford, 2009.
[3] La prima base normativa è costituita dalla Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nel D.Lgs. n. 206/2005 e successive modifiche, noto come “Codice del Consumo”. Attualmente la disciplina inerente alla responsabilità per danno da prodotti difettosi è contenuta agli articoli 114-127 del Titolo II, Parte IV del Codice del Consumo, quadro normativo distinto da quello riferibile alla garanzia per vizi della cosa venduta, come regolata dagli articoli 1490 e seguenti del Codice Civile.
[4] Si tratta della Risoluzione del Parlamento europeo del 16 febbraio 2017, recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica” (2015/2013 (INL)). Tuttavia, il dibattito sul punto sembra risalire al noto saggio di SOLUM Lawrence B., Legal Personhood for Artificial Intelligences, in North Carolina Law Review, 70, 1992, n. 4, pagg. 1231-1287.
[5] Nel settembre del 2024, la Commissione dell’Unione Europea ha formalizzato una proposta di Direttiva inerente alla necessità di adeguare, in rapporto all’IA, le norme in tema di responsabilità extracontrattuale. Si tratta di un ulteriore segnale nella più ampia prospettiva della regolamentazione dell’IA, di cui il Regolamento UE n. 2024/1689 (IA Act) ne costituisce un primo sistematico passo.
[6] Interessante il saggio di FLORIDI Luciano – TADDEO Mariarosaria, Romans would have denied robots legal personhood, su Nature (ISSN: 1476-4687), maggio 2018. Essi, aderendo alla lettera aperta dei centocinquantasei esperti, rinvengono nel diritto romano la soluzione al problema, indicandola nella disciplina attinente agli schiavi e, in genere, alle persone alieni iuris, ove la tutela risarcitoria dei soggetti danneggiati dai loro comportamenti lesivi era garantita forme di responsabilità lato sensu vicaria (da proprietà o custodia), senza attribuire loro alcuna personalità né il diritto al patrimonium.
[7] La concezione dell’idea di collegium da parte di Papa Innocenzo IV, al secolo Sinibaldo dei Fieschi, era correlata all’esigenza pratica di permettere ai frati francescani di ricevere donazioni, nonostante fossero vincolati al voto di povertà che glielo vietava. La costruzione giuridica dell’Ordine dei Francescani consentiva di risolvere tale complicazione, potendosi così attribuire al patrimonio dell’ordine, e non a quello dei singoli frati che ne erano membri, il gettito delle donazioni. Sul punto, si legga BELVISI Francesco, Alle origini dell’idea di istituzione: il concetto di “collegium” come “persona ficta” in Sinibaldo dei Fieschi, in Materiali per una storia della cultura giuridica (ISSN: 1120-9607), Il Mulino, Bologna, 1993, pagg. 3-23.
[8] Creare fiducia nell’intelligenza artificiale antropocentrica, 8 aprile 2019, COM (2019), recante i sette requisiti essenziali per assicurare un congruo livello di affidabilità: intervento e sorveglianza umani; robustezza tecnica e sicurezza; riservatezza e governance dei dati; trasparenza; diversità; accountability.
[9] Vi è l’eccezione dei diritti del concepito, prevista dall’articolo 1, comma 2, del Codice civile che afferisce alla capacità di succedere a causa di morte (articolo 462 del Codice civile) e di ricevere per donazione (articolo 784 del Codice civile).
[10] Sono persone giuridiche le associazioni riconosciute, le fondazioni, i comitati riconosciuti, le società di capitali e gli enti pubblici. Sono dotate di autonomia patrimoniale perfetta.
[11] SOLUM, opera citata.
[12] Qui il richiamo riporta evidentemente alla social robotics, introdotta negli anni quaranta dal neurofisiologo americano William Grey Walter, finalizzata a teorizzare la costruzione di robot autonomi o semi-autonomi capace di interagire e comunicare, con modalità tipicamente umane (conversare, comprendere emozioni, reagire, gesticolare, etc.), con gli esseri umani o con altri agenti fisici autonomi, seguendo regole e condotte sociale proprie di un ruolo specifico assegnato. Il campo della robotica sociale ha trovato sviluppo pratico, sin dai primi anni novanta, per opera dei ricercatori dell’IA, tra cui Kerstin Dautenhahn, Maja Mataric, Cynthia Breazeal, Aude Billard, Yiannis Demiris e Brian Duffy. Ad essa è collegato anche il movimento di ingegneria Kansai della scienza e tecnologia giapponese
[13] MOROTTI Emanuela, Una soggettività a geometrie variabili per lo statuto giuridico dei robot, in F. Bilotta, F. Raimondi (a cura di), Il soggetto di diritto. Storia ed evoluzione di un concetto nel diritto privato, Jovene, Napoli, 2020, pagg. 291-306.
[14] MOROTTI, opera citata.
[15] Edgar Morin, filosofo e sociologo francese, è uno dei principali teorici della complessità applicata alle scienze umane, paventando i rischi insiti in ogni paradigma che pretenda di comprendere la realtà in forma disgiuntiva e specialistica, incapace di vedere le connessioni profonde che legano le parti di un sistema, di qualsiasi tipo esso sia. La “teoria della complessità” si approssima alla realtà dal punto di vista culturale, economico, politico, sociale, etc., sulla base di un’interdipendenza stretta e profonda tra i vari ambiti. Si tratta di un approccio che tratta olisticamente gli elementi critici dei problemi da cui conseguire le risoluzioni funzionali alla ricomposizione finale.
[16] POPPER Karl R., Epistemologia, razionalità e libertà, Armando, Roma, 1972, pag. 7.
[17] Si pensi alle associazioni non riconosciute o alle società di persone (società semplice, s.n.c., s.a.s.) che hanno unicamente gli elementi minimi dell’imputazione (e legittimazione). Le persone fisiche e le persone giuridiche, hanno anche l’ulteriore elemento della unità (e alterità). In ordine ad autonomia e responsabilità patrimoniale, di cui comunque godono entrambe le categorie, i relativi regimi, disomogenei, non permettono di indicarne un confine netto.
[18] RUFFOLO Ugo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies (ISSN: 2612-1920), Volume 2, Aprile 2020, pagg. 76-88.
[19] RUFFOLO, opera citata.
[20] Wittgenstein sottolinea, nei Quaderni 1914-1916 (Q), che “un soggetto che vuole c’è” (Q.5.8.16), mentre, nel Tractatus logico-philosophicus (T), “un soggetto che pensa, immagina, non c’è” (T.5.631). Sostiene dunque che un soggetto pensante è tale solo in quanto capace di compiere anche altre azioni, oltre al mero pensare. La volontà è considerata base dell’azione, l’atto “che mette in moto il corpo umano” (Q. 21.7.16 – T.6.423): “se la volontà non fosse, non vi sarebbe nemmeno quel centro del mondo che chiamiamo l’io e che è il portatore dell’etica” (Q.5.8.16). In qualche misura, non può che intravedersi una delle facce della capacità di intendere e di volere posta alla base della capacità di agire e dei regimi di responsabilità di natura personale e soggettiva, come è quella penale.
[21] Nel noto articolo “Computing machinery and intelligence” (1950), Turing propone di sottoporre le macchine al gioco dell’imitazione: in qualche misura, viene svuotata di contenuto la domanda se le macchine possano pensare, per focalizzarsi sulla questione se sia possibile immaginare calcolatori digitali che possano avere successo nel gioco dell’imitazione. Breviter, una macchina può essere capace di farsi passare per essere umano di fronte a un soggetto interrogante che ne ignori l’identità? Ove vi riesca, mostrando un comportamento intelligente, conseguendo un’imitazione efficace e convincendo appieno l’interlocutore, allora la macchina ha superato il test della soggettività. Ciò che avviene nel film avveniniristico Ex Machina (2014), dove la coscienza artificiale pare addirittura in grado di andare oltre, fino a manipolare l’essere umano che ha di fronte.
Avv. Luigi Zito