(Adnkronos) – L’AI Act, il regolamento europeo che disciplinerà l’intelligenza artificiale nell’Unione, entrerà in vigore a breve ma sarà pienamente applicabile tra poco più di due anni. Nel frattempo la Commissione ha lanciato un AI Pact, cioè un patto che incoraggia le aziende a prepararsi in anticipo alle nuove regole. In che modo dovranno farlo? “Senza ansia, con grande competenza e consapevolezza” dice all’Adnkronos l’avvocato Licia Garotti, partner dello studio legale PedersoliGattai ed esperta di diritto delle Tecnologie e Proprietà Industriale. “Ogni realtà dovrebbe porsi due domande: sto già usando tecnologie IA? Spesso sono tecnologie già implementate nei processi aziendali, ma in modo inconsapevole. Siamo pronti a trarne il meglio? Senza fermarci alla sola IA generativa, le diverse forme di intelligenza artificiale comportano vantaggi importantissimi per produttività, innovazione e, dunque, competitività sui mercati. Le tecnologie di IA vanno inoltre affrontate in un contesto non solo normativo (necessario, ma non sufficiente). È tessuto composti di fili diversi: tecnologia, industria e governance, etica (imprescindibile), regolamentazione, risposta economico-sociale, impatti sulla sostenibilità. Senza i fili giusti, si rischiano dei buchi, dei vuoti. Ed è proprio questo il momento giusto per un’organizzazione (e una protezione) ragionata di dati e processi”, spiega Garotti. Una domanda che ci si pone, soprattutto in ambito imprenditoriale, riguarda l’effetto-freno che il regolamento potrebbe avere sull’innovazione. “L’errore più grave per le imprese europee e, per prime, quelle italiane, è vivere l’adeguamento all’AI Act come un “ingessamento”, un blocco allo sviluppo e all’operatività”, spiega l’avvocato. “Il Regolamento può in realtà rappresentare una guida efficace per sviluppatori e utilizzatori. Ciò sfruttando, ad esempio, in maniera strategica l’AI Pact. È un sistema di conformità anticipata e volontaria (Anticipated Voluntary Compliance) che inizia dalla valutazione di impatto sul rischio. Con un adeguamento anticipato alle norme già bene delineate nella versione approvata dal Coreper lo scorso 2 febbraio, le imprese europee hanno la possibilità di accogliere le opportunità di una tecnologia in continua evoluzione”. Il quadro normativo non si esaurisce con l’AI Act: bisogna considerare anche la direttiva sulla responsabilità da sistemi di IA (AI Liability Directive), il digital service package (Digital Markets Act e Digital Services Act), le leggi nazionali e, a seconda del settore, le diverse normative di riferimento. Tra queste, l’avvocato Garotti cita “il Regolamento Dora rivolto ai servizi finanziari e assicurativi per la sicurezza e la resilienza delle infrastrutture digitali in Europa; o la disciplina dell’intelligenza artificiale nella legislazione europea sui dispositivi medici”. Tra gli elementi positivi di avere una legge che vale per tutta l’Unione c’è la standardizzazione: “In questo campo operano varie organizzazioni che cercano di uniformare i processi per tutti gli europei, riducendo i costi e le difficoltà burocratiche. Tra queste c’è il CEN-CENELEC che, attraverso il Comitato tecnico misto CEN-CENELEC 21 dedicato all’IA, è responsabile dello sviluppo e dell'adozione di standard per l'IA e dati correlati, oltre a fornire indicazioni agli altri comitati tecnici coinvolti. Nel contempo, gioca un ruolo decisivo la legislazione europea e italiana sui progetti, iniziative e incentivi adottati per incoraggiare gli investimenti per la produzione di semiconduttori e chip. In questo contesto, l'Italia sta svolgendo un ruolo primario nella predisposizione di misure idonee ad attrarre investimenti – anche di soggetti esteri – nel settore dei semiconduttori e della microelettronica”, precisa all’Adnkronos l’avvocato Licia Garotti. Per alcuni si è dato più spazio alla competitività – per non rimanere troppo indietro rispetto a Cina e Stati Uniti che al momento non hanno una legislazione in materia – che ai diritti fondamentali. Per Garonna bisogna guardare non a Bruxelles ma a Strasburgo, sede del Consiglio d’Europa, e New York, nel palazzo delle Nazioni Unite: “Sui diritti cercherà di dare una risposta anche il progetto di Convenzione quadro sull'intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto, pubblicato dal Comitato sull'intelligenza artificiale (CAI) del Consiglio d'Europa a Strasburgo il 14 marzo 2024 (ancora in forma confidenziale, ancorché reso non ufficialmente disponibile). Le Parti devono adottare le opportune misure legislative, amministrative o di altro tipo per dare attuazione alle disposizioni contenute nella Convenzione, che possono includere misure specifiche o orizzontali indipendentemente dal tipo di tecnologia utilizzata. In questo quadro, si inserisce anche l’ultima risoluzione dell'Assemblea generale delle Nazioni Unite sulla promozione di sistemi di intelligenza artificiale (IA) "sicuri, protetti e degni di fiducia", a beneficio dello sviluppo sostenibile per tutti. L'UE è però ancora in ritardo sugli investimenti (5-10 volte inferiori rispetto agli Stati Uniti, spesso senza coordinamento tra i Paesi dell’Unione)”, conclude Garotti. —tecnologiawebinfo@adnkronos.com (Web Info)