Home PoliticaMondo La presa di potere da parte di Francia, Germania e Italia minaccia di far fallire la legge sull’intelligenza artificiale dell’UE

La presa di potere da parte di Francia, Germania e Italia minaccia di far fallire la legge sull’intelligenza artificiale dell’UE

da Notizie Dal Web

Le tre maggiori economie europee si sono ribellate alla regolamentazione dei tipi più potenti di intelligenza artificiale, mettendo a rischio il destino delle tecnologie pionieristiche del blocco. Legge sull’intelligenza artificiale sulla linea.

Francia, Germania e Italia stanno ostacolando i negoziati su una sezione controversa del progetto di legislazione dell’UE sull’intelligenza artificiale in modo da non ostacolare lo sviluppo stesso dell’Europa di “modelli di base”, infrastrutture di intelligenza artificiale che sostengono modelli di ampio linguaggio come GPT di OpenAI e Bard di Google.

Funzionari governativi sostengono che imporre severe restrizioni a questi nuovi modelli danneggerebbe i campioni dell’UE nella corsa per sfruttare la tecnologia dell’intelligenza artificiale.

In un documento congiunto condiviso con gli altri governi dell’UE, ottenuto da POLITICO, i tre pesi massimi europei hanno affermato che l’Europa ha bisogno di un “quadro normativo che promuova l’innovazione e la concorrenza, in modo che gli attori europei possano emergere e portare la nostra voce e i nostri valori nella corsa globale dell’intelligenza artificiale”. Il documento suggerisce modelli di autoregolamentazione delle fondazioni attraverso impegni aziendali e codici di condotta.

L’accusa franco-tedesco-italiana li contrappone ai legislatori europei, che vogliono fortemente frenare i modelli di fondazione.

“Questa è una dichiarazione di guerra”, ha detto un membro del gruppo negoziale del Parlamento europeo, a cui è stato concesso l’anonimato a causa della delicatezza dei colloqui.

Lo stallo potrebbe anche significare la fine totale dei colloqui sulla legge sull’intelligenza artificiale. I negoziati interistituzionali sulla legge sono a un punto morto a livello europeo dopo che i membri dello staff parlamentare hanno abbandonato un incontro con i rappresentanti governativi del Consiglio europeo e i funzionari della Commissione europea a metà novembre, in risposta alla resistenza dei tre paesi alla regolamentazione modelli di fondazione.

I colloqui sono sotto forte pressione, poiché i negoziatori devono affrontare la scadenza del 6 dicembre. Con la rielezione del Parlamento europeo nel giugno 2024, la finestra di opportunità per approvare la legge si sta rapidamente chiudendo.

Un atto antieuropeo

La spinta a ridimensionare il modello normativo europeo è sorprendente perché rompe con il pensiero tradizionale del continente secondo cui il settore tecnologico necessita di una regolamentazione più forte.

Inoltre, arriva in un momento in cui i principali leader del settore dell’intelligenza artificiale hanno chiesto una rigorosa regolamentazione della loro tecnologia e paesi come gli Stati Uniti – da lungo tempo sostenitori delle leggi sulla tecnologia leggera – stanno lanciando la propria agenda normativa attraverso un un radicale ordine esecutivo sull’intelligenza artificiale.

Ignorare i modelli di base (e di conseguenza i più all’avanguardia tra questi, chiamati “modelli di frontiera” dagli addetti ai lavori del settore) sarebbe “folle” e rischierebbe di rendere la legge sull’intelligenza artificiale dell’UE “come la legge della giungla”, ha affermato l’informatico canadese Yoshua Bengio. una voce di spicco sulla politica dell’IA, ha affermato in un intervista la settimana scorsa.

“Potremmo finire in un mondo in cui i sistemi di IA benigni sono pesantemente regolamentati nell’UE… e i sistemi più grandi, che sono i più pericolosi, i più potenzialmente dannosi, non sono regolamentati”, ha aggiunto Bengio.

L’Unione Europea sostiene ampiamente divieti e regole severe sulle applicazioni di intelligenza artificiale basate sul loro utilizzo in scenari sensibili come l’istruzione, l’immigrazione e il posto di lavoro. I modelli di fondazione possono eseguire più attività, rendendo difficile prevederne il livello di rischio.

Nella loro proposta, i parlamentari europei prevedevano di aggiungere obblighi per gli sviluppatori di modelli di base, indipendentemente dall’uso previsto del sistema, compresi i test obbligatori del modello da parte di esperti di terze parti. Alcuni obblighi si applicherebbero solo a modelli supportati da maggiore potenza di calcolo, creando un insieme di regole a due livelli che i tre governi hanno esplicitamente cestinato nel loro documento.

Mentre altri paesi dell’UE – in particolare la Spagna, che detiene la presidenza di turno del Consiglio – sono favorevoli ad espandere la portata dell’AI Act per coprire i modelli di fondazione, ora c’è poco spazio perché il Consiglio si discosti dalla posizione dei Tre Grandi.

Fonte: ilpolitico.eu

Articoli correlati