AI: responsabilità dei suoi creatori e utenti

La settimana scorsa, in questa rubrica, ho affrontato alcune delle principali sfide che comporterà la regolamentazione dell'intelligenza artificiale in Messico. Il problema nasce dalla definizione giuridica del concetto stesso e dalle sue implicazioni per la regolamentazione delle materie correlate, ma non si limita a questi aspetti. Un'altra sfida posta dalla regolamentazione in questo ambito è la delimitazione delle responsabilità tra chi progetta i sistemi di intelligenza artificiale e chi li utilizza.
L'intelligenza artificiale è entrata nelle nostre vite in modo così improvviso che a volte la società la percepisce come se fosse autonoma, un'entità anonima che si costruisce e si sviluppa da sola, come se agisse di propria spontanea volontà, senza il cordone ombelicale che la collega ai suoi creatori e senza l'interferenza dell'utente che le impartisce istruzioni e formula richieste. Il problema di questa concezione è che, se fosse replicata in ambito legale, non ci sarebbe modo di definire i responsabili di eventuali violazioni dei diritti commesse tramite l'uso dell'intelligenza artificiale, poiché gli algoritmi non sono entità giuridiche identificabili che possono assumersi la responsabilità.
Ecco perché, quando si regolamenta questa materia, è necessario analizzare attentamente la portata delle responsabilità sia dei creatori che degli utenti, per preservare la certezza del diritto e i diritti e le libertà di entrambi. Così come il diritto ha sviluppato la teoria della finzione giuridica per consentire la creazione di entità giuridiche, con i rispettivi ambiti giuridici, ora è necessario adattare la legislazione per consentire e incoraggiare lo sviluppo e l'espansione dei sistemi di intelligenza artificiale, senza lasciare scoperti i diritti di tutti i soggetti coinvolti.
Per quanto riguarda gli sviluppatori di intelligenza artificiale, è chiaro che la loro responsabilità include il processo di identificazione e selezione dei database e delle informazioni che alimenteranno i loro sistemi o piattaforme. Un chiaro esempio sono le controversie sorte in diversi Paesi sulla potenziale violazione dei diritti di proprietà intellettuale quando gli sviluppatori di sistemi di intelligenza artificiale incorporano nei loro sistemi database o contenuti di proprietà di terze parti senza ottenere la loro autorizzazione o pagarne lo sfruttamento commerciale. Per quanto riguarda l'implementazione di algoritmi distorti, eventuali restrizioni dovrebbero essere valutate attentamente per garantire il rispetto della libertà di espressione.
Per quanto riguarda gli utenti, molti di loro hanno sviluppato una fiducia quasi cieca nelle informazioni che ottengono dai sistemi di intelligenza artificiale. Alcuni li percepiscono come una sorta di oracoli moderni, responsabili della risoluzione dei loro problemi, al punto che prendono decisioni che hanno un profondo impatto sulle loro vite basandosi sui consigli generati da una piattaforma di intelligenza artificiale.
Alcune persone chiedono all'IA supporto psicologico o consigli personalizzati per risolvere una situazione specifica e accettano i risultati della consulenza anche al di sopra del proprio giudizio. Secondo la dottoressa Mara Dierssen, presidente del Consiglio spagnolo del cervello, quando all'intelligenza artificiale vengono delegati compiti eccessivi, si riduce lo sforzo neurologico, il che diminuisce anche la capacità di pensare in modo critico e di risolvere i problemi in modo autonomo (Vademecum, Reale Accademia nazionale di medicina di Spagna). Ci sono anche casi in cui gli utenti utilizzano strumenti di intelligenza artificiale per generare o distribuire contenuti illegali.
In questi casi, i creatori di intelligenza artificiale non dovrebbero assumersi la responsabilità dell'uso che ogni persona fa delle loro piattaforme o delle decisioni che prendono in base a esse. Forse dovrebbero semplicemente essere obbligati a includere etichette di avvertenza, anziché ridurre o verificare ampiamente i contenuti che generano, poiché ciò ridurrebbe drasticamente i vantaggi dell'intelligenza artificiale.
Eleconomista