Il sempre maggiore utilizzo dei sistemi di intelligenza artificiale (c.d IA) pone per lo studioso, giurista ma non solo, molteplici questioni, derivanti dalla considerazione che l’IA, soprattutto nelle intenzioni degli sviluppatori, possa progredire al punto tale da poter agire in una misura di autonomia dall’uomo più o meno marcata. Da qui, la necessità di indagare e identificare i casi in cui, sempre se possibile, i sistemi di intelligenza artificiale operino al di là dell’intervento umano. Lo scritto, prendendo atto della vastità dell’argomento e delle diverse ripercussioni sulle molteplici branche del diritto, intende in un primo momento approfondire, e conseguentemente proporre, la possibilità di garantire la maggiore trasparenza possibile dell’IA e degli algoritmi che ne sono alla base, individuando i riferimenti normativi ai quali fare riferimento e le correlate conseguenze sul duplice piano dello sviluppo della tecnologia e su quello della tutela della persona. Diretti sarebbero, di conseguenza, i riflessi in ambito di risarcimento del danno derivante dall’uso dell’IA, quale questione che ad oggi non ha ancora trovato pacifica soluzione, né in dottrina, né in giurisprudenza, ma che, invece, ha di recente chiamato il legislatore europeo ad intervenire direttamente con la proposta di Direttiva “sulla responsabilità da intelligenza artificiale”, la quale, insieme alla proposta di Regolamento europeo “sull’intelligenza artificiale”, sembra aderire alla tesi della necessaria trasparenza dei sistemi di intelligenza artificiale e, quindi, alla possibilità di conoscere chiaramente le modalità di azione dell’IA e, così, imputare o meno, con precisione, il fatto dannoso in capo ad un soggetto correttamente identificato.

LUCARELLI TONINI, L.M. (2023). L’IA tra trasparenza e nuovi profili di responsabilità: la nuova proposta di “Ai Liability Directive”. IL DIRITTO DELL'INFORMAZIONE E DELL'INFORMATICA(2), 327-362.

L’IA tra trasparenza e nuovi profili di responsabilità: la nuova proposta di “Ai Liability Directive”

lorenzo maria lucarelli tonini
2023-01-01

Abstract

Il sempre maggiore utilizzo dei sistemi di intelligenza artificiale (c.d IA) pone per lo studioso, giurista ma non solo, molteplici questioni, derivanti dalla considerazione che l’IA, soprattutto nelle intenzioni degli sviluppatori, possa progredire al punto tale da poter agire in una misura di autonomia dall’uomo più o meno marcata. Da qui, la necessità di indagare e identificare i casi in cui, sempre se possibile, i sistemi di intelligenza artificiale operino al di là dell’intervento umano. Lo scritto, prendendo atto della vastità dell’argomento e delle diverse ripercussioni sulle molteplici branche del diritto, intende in un primo momento approfondire, e conseguentemente proporre, la possibilità di garantire la maggiore trasparenza possibile dell’IA e degli algoritmi che ne sono alla base, individuando i riferimenti normativi ai quali fare riferimento e le correlate conseguenze sul duplice piano dello sviluppo della tecnologia e su quello della tutela della persona. Diretti sarebbero, di conseguenza, i riflessi in ambito di risarcimento del danno derivante dall’uso dell’IA, quale questione che ad oggi non ha ancora trovato pacifica soluzione, né in dottrina, né in giurisprudenza, ma che, invece, ha di recente chiamato il legislatore europeo ad intervenire direttamente con la proposta di Direttiva “sulla responsabilità da intelligenza artificiale”, la quale, insieme alla proposta di Regolamento europeo “sull’intelligenza artificiale”, sembra aderire alla tesi della necessaria trasparenza dei sistemi di intelligenza artificiale e, quindi, alla possibilità di conoscere chiaramente le modalità di azione dell’IA e, così, imputare o meno, con precisione, il fatto dannoso in capo ad un soggetto correttamente identificato.
2023
LUCARELLI TONINI, L.M. (2023). L’IA tra trasparenza e nuovi profili di responsabilità: la nuova proposta di “Ai Liability Directive”. IL DIRITTO DELL'INFORMAZIONE E DELL'INFORMATICA(2), 327-362.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11590/459269
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact