Pe, la proposta di codici per l’IA solleva preoccupazioni per Big Tech

I parlamentari europei esprimono preoccupazione per il codice di buone pratiche sull’intelligenza artificiale, temendo un indebolimento delle norme dell’AI Act e rischi per diritti e democrazia.

Un gruppo di parlamentari europei attivamente coinvolti nei negoziati riguardanti la legge europea sull’intelligenza artificiale ha recentemente indirizzato una lettera alla vicepresidente della Commissione europea, Henna Virkkunen, per esprimere una “grande preoccupazione” in merito al codice di buone pratiche riguardante l’IA per finalità generali, come nel caso di GPT-4 di OpenAI. La stesura finale di questo documento è prevista per il mese di maggio 2025.

Il codice di buone pratiche

Questo codice si propone di chiarire le norme dell’AI Act applicabili ai fornitori di modelli di IA destinati a scopi generali, con particolare attenzione a quelli che presentano rischi sistemici. Tuttavia, secondo le prime bozze del codice, gli eurodeputati sostengono che le norme dell’AI Act stiano venendo indebolite, al punto da “reinterpretare completamente e restringere un testo giuridico concordato dai co-legislatori” attraverso un codice di buone pratiche.

Critiche alla manovra

Gli europarlamentari definiscono questa manovra come “pericolosa e non democratica”, evidenziando che crea una incertezza giuridica. Criticano il fatto che il testo attuale risulti eccessivamente sbilanciato a favore delle Big Tech. Secondo le disposizioni dell’AI Act, i fornitori di modelli con rischi sistemici hanno l’obbligo di valutare e ridurre tali rischi, segnalare incidenti gravi, effettuare test avanzati e garantire la sicurezza informatica dei loro modelli.

Valutazione dei rischi

Nella lettera, i parlamentari denunciano che “la valutazione e la mitigazione di vari rischi per i diritti fondamentali e la democrazia è ora improvvisamente del tutto volontaria”. Sottolineano che “questa non è mai stata l’intenzione dell’accordo di trilogo”. I rappresentanti dell’Unione Europea affermano che i rischi per i diritti fondamentali e la democrazia sono considerati rischi sistemici che i fornitori di IA con un maggiore impatto devono necessariamente valutare e mitigare.

Il dibattito sull’intelligenza artificiale

La questione rimane aperta e il dibattito sul futuro dell’intelligenza artificiale in Europa continua a suscitare attenzione e preoccupazione tra i legislatori e i cittadini.

Change privacy settings
×