Soprattutto, i modelli di IA open-source [in tedesco] non dovrebbero essere eccessivamente regolamentati, chiede LAION, poiché essi, in particolare, consentono una maggiore trasparenza e sicurezza nel suo utilizzo. Inoltre, l’intelligenza artificiale open-source potrebbe impedire a poche aziende di controllare e dominare la tecnologia. In questo modo, una regolamentazione moderata contribuirebbe a far progredire la sovranità digitale dell’Europa.
Troppa poca regolamentazione indebolisce i diritti dei consumatori
Al contrario, la Federazione delle organizzazioni dei consumatori tedeschi (vzbv) [in tedesco] chiede maggiori diritti. Secondo una sua dichiarazione, in futuro, le decisioni degli utenti saranno sempre più influenzate da sistemi di raccomandazione basati sull’intelligenza artificiale, come ChatGPT. Per escludere i rischi dell’IA generativa, la prevista AI Act deve garantire diritti forti ai consumatori, e la possibilità di una valutazione indipendente dei rischi.
“Il rischio che i sistemi di intelligenza artificiale portino a raccomandazioni di acquisto, valutazioni e informazioni errate o manipolate è elevato. L’intelligenza artificiale [in tedesco] non è sempre così intelligente come promette il suo nome”, ha dichiarato Ramona Pop, direttore esecutivo del vzbv. Le conseguenze potrebbero essere gravi. “È necessario garantire che i consumatori siano adeguatamente protetti contro la manipolazione, l’inganno e la frode, per esempio da parte dei sistemi di raccomandazione controllati dall’intelligenza artificiale. L’accesso ai sistemi per valutarne i rischi e il funzionamento deve essere consentito a scienziati indipendenti”.
“Abbiamo bisogno di diritti individuali delle persone interessate da far valere nei confronti degli operatori di IA”, ha proseguito Pop. Le persone devono avere la facoltà di correzione e cancellazione se, per esempio, sistemi come ChatGPT causano svantaggi danneggiando la loro reputazione”. Le richieste del vzbv: L’AI Act deve garantire che le applicazioni di intelligenza artificiale rispettino le leggi europee e siano conformi ai valori europei.
Valutazione dei rischi: l’autovalutazione da parte dei produttori non è sufficiente
TÜV ha un’opinione simile [in tedesco]. Sebbene l’associazione TÜV accolga con favore, in linea di principio, il fatto che i gruppi politici del Parlamento europeo siano riusciti a concordare una posizione comune per la legge sull’intelligenza artificiale, vede un ulteriore potenziale di miglioramento. “Sono necessarie basi giuridiche chiare per proteggere le persone dalle conseguenze negative della tecnologia e allo stesso tempo per promuovere l’uso dell’IA nell’economia”, ha dichiarato Joachim Bühler, CEO dell’associazione TÜV.
Bühler chiede che venga garantito il rispetto delle specifiche, soprattutto per quanto riguarda la trasparenza degli algoritmi. Tuttavia, un audit indipendente è previsto solo per una piccola parte dei sistemi di IA ad alto rischio. “La maggior parte delle applicazioni di IA critiche, come il riconoscimento facciale, il software di reclutamento o il controllo della solvibilità, potranno continuare a essere immesse sul mercato con una semplice autodichiarazione del produttore”, critica l’uomo del TÜV. Inoltre, la classificazione come applicazione ad alto rischio si baserà in parte su un’autovalutazione da parte dei fornitori. “Gli errori di valutazione sono inevitabili”, conclude Bühler.