#AGeditoria
AG ha trattato il tema “Sistema di IA e gestione dei rischi nella prova in condizioni reali: riflessi giuridici e organizzativi” nell’articolo edito da Wolters Kluwer a firma di Luca Barbieri.
Il capo VI dell’AI Act disciplina gli spazi di sperimentazione normativa per l’intelligenza artificiale, prevedendo una specifica regolamentazione della prova di un sistema di IA ad alto rischio in condizioni reali. Nell’articolo sono esplorate le correlazioni di natura giuridica e organizzativa che intercorrono tra le norme dettate in tema di prova di un sistema di IA ad alto rischio e l’articolato impianto delineato dal Capo III dell’AI Act, nel quale sono riunite le disposizioni applicabili in via generale ad un sistema di IA ad alto rischio. Per quanto concerne gli obblighi ai quali il deployer-datore di lavoro è tenuto ad adempiere nel corso dello svolgimento del piano di prova (real-world testing plan), assumono particolare rilievo l’accordo stipulato con il fornitore del sistema – e mediante il quale sono definiti i ruoli e le responsabilità attribuiti alle parti – e l’obbligo di sorveglianza umana (human oversight), entrambi decisivi ai fini di una ponderata valutazione circa l’opportunità di avvalersi del sistema di IA in prova.
Il Regolamento (UE) 2024/1689 del 13 giugno 2024, che, in vigore dal 1° agosto 2024, stabilisce regole armonizzate sull’intelligenza artificiale, mira a costituire «un insieme proporzionato ed efficace di regole vincolanti» seguendo un approccio basato sul rischio, in modo che l’impianto normativo sia delineato avendo in considerazione natura, intensità e portata dei rischi ai quali l’utilizzo di un sistema di IA espone con riferimento alla salute, alla sicurezza e all’esercizio dei diritti sanciti dalla Carta dei diritti fondamentali dell’Unione europea.

 

APPROFONDISCI