L'Intelligenza Artificiale (IA) è una tecnologia emergente che sta rapidamente trasformando il mondo. L'IA viene utilizzata in una vasta gamma di applicazioni, tra cui la medicina, la finanza, la produzione e la difesa.
Con la crescita dell'IA, aumenta anche il rischio di abusi. Ad esempio, l'IA potrebbe essere utilizzata per creare sistemi di sorveglianza invasivi, per diffondere disinformazione o per discriminare le persone.
Per questo motivo, l'Unione Europea (UE) sta lavorando a una legge sull'IA. Questa legge mira a garantire che l'IA sia sviluppata e utilizzata in modo responsabile e sostenibile.
La Proposta della Legge UE sull'IA
La legge proposta dall'UE sull'IA, introdotta nell'aprile 2021, mirava a creare un quadro legale per l'IA. L'obiettivo era prevenire una situazione di "far west" in cui le regole vengono stabilite solo dopo che i problemi sono già sorti, come è successo con i social media e la disinformazione online.
La legge proposta dall'UE avrebbe coperto tutti i sistemi di IA, compresi quelli considerati ad alto rischio. I sistemi ad alto rischio sono quelli che possono avere un impatto significativo sulla vita delle persone, ad esempio i sistemi di sorveglianza, i sistemi di valutazione del credito e i sistemi di assunzione.
La legge proposta dall'UE prevedeva una serie di misure per garantire che i sistemi di IA siano sviluppati e utilizzati in modo responsabile. Queste misure includevano:
Trasparenza: i sistemi di IA devono essere trasparenti e comprensibili per le persone.
Non discriminazione: i sistemi di IA non devono discriminare le persone sulla base della loro razza, religione, sesso, orientamento sessuale o altro status protetto.
Sicurezza: i sistemi di IA devono essere sicuri e protetti da attacchi informatici.
Responsabilità: gli sviluppatori di sistemi di IA devono essere responsabili delle conseguenze dei loro sistemi.
L'Opposizione da Italia, Germania e Francia
Tuttavia, i governi di Germania, Francia e Italia si sono opposti a queste regole. Essi temono che tali regole possano ostacolare lo sviluppo delle loro imprese nazionali di IA.
I governi di questi paesi propongono invece forme di autoregolamentazione con la sottoscrizione di impegni e codici di condotta. L'autoregolamentazione è un processo in cui le imprese si impegnano a rispettare determinate regole e norme senza l'intervento del governo.
Il Futuro dell'IA in Europa
Nonostante l'opposizione, l'UE rimane determinata a regolamentare l'IA. La Commissione europea ha accolto con favore l'intesa a livello G7 sui principi guida internazionali sull'IA e su un codice di condotta volontario per gli sviluppatori di IA.
Questi principi e il codice di condotta integreranno, a livello internazionale, le norme dettate nella legge europea sull'IA.
La Questione della Regolamentazione dell'IA
La questione della regolamentazione dell'IA in Europa è complessa e multi faccettata.
Mentre alcuni vedono la necessità di regole rigide per prevenire abusi, altri temono che tali regole possano ostacolare l'innovazione e la crescita economica.
Come si svilupperà questa situazione rimane da vedere.
Innovazione vs Protezione
Il conflitto tra innovazione e protezione è uno dei temi centrali del dibattito sulla regolamentazione dell'IA.
I sostenitori di regole rigide sostengono che sono necessarie per prevenire abusi e danni. Essi sottolineano che l'IA è una tecnologia potente che può essere utilizzata per scopi negativi, come la sorveglianza di massa, la diffusione della disinformazione e la discriminazione.
I sostenitori dell'autoregolamentazione sostengono che le regole rigide possono ostacolare l'innovazione e la crescita economica. Essi sottolineano che l'IA è una tecnologia emergente che si sta ancora sviluppando. Le regole rigide potrebbero frenare l'innovazione e impedire agli sviluppatori di IA di sperimentare nuove idee.
Un Quadro Normativo Equilibrato
È importante trovare un equilibrio tra innovazione e protezione. Le regole sull'IA dovrebbero essere sufficienti a prevenire abusi, ma non dovrebbero essere così rigide da ostacolare l'innovazione.
La legge proposta dall'UE sull'IA rappresenta un tentativo di trovare un tale equilibrio. La legge prevede regole rigide per i sistemi di IA ad alto rischio, ma consente anche forme di autoregolamentazione per i sistemi di IA a basso rischio.
Disposizioni in materia attuate dall'Europa
Dopo un lungo dibattito, il Parlamento europeo ha approvato la legge sull'intelligenza artificiale (AI Act) il 14 giugno 2023. La legge è entrata in vigore il 1º gennaio 2024.
La legge sull'IA è la prima regolamentazione completa dell'IA a livello mondiale. Si applica a tutti i sistemi di IA, compresi quelli utilizzati in ambito privato e pubblico.
La legge sull'IA prevede un sistema di classificazione dei sistemi di IA in base al loro livello di rischio. I sistemi di IA ad alto rischio sono quelli che possono avere un impatto significativo sulla vita delle persone, ad esempio i sistemi di sorveglianza, i sistemi di valutazione del credito e i sistemi di assunzione.
Per i sistemi di IA ad alto rischio, la legge sull'IA prevede una serie di requisiti obbligatori, tra cui:
· Trasparenza: i sistemi di IA devono essere trasparenti e comprensibili per le persone. Ciò significa che gli sviluppatori di sistemi di IA devono fornire informazioni sui dati utilizzati per addestrare il sistema, sul funzionamento del sistema e sui potenziali rischi associati al sistema.
· Non discriminazione: i sistemi di IA non devono discriminare le persone sulla base della loro razza, religione, sesso, orientamento sessuale o altro status protetto.
· Sicurezza: i sistemi di IA devono essere sicuri e protetti da attacchi informatici.
· Responsabilità: gli sviluppatori di sistemi di IA devono essere responsabili delle conseguenze dei loro sistemi. Ciò significa che gli sviluppatori di sistemi di IA devono adottare misure per mitigare i rischi associati ai loro sistemi e devono essere in grado di dimostrare che hanno adottato tali misure.
L'Intelligenza Artificiale e la Legge UE: Un Conflitto di Interessi
Disposizioni in materia attuate dall'Europa
Dopo un lungo dibattito, il Parlamento europeo ha approvato la legge sull'intelligenza artificiale (AI Act) il 14 giugno 2023. La legge è entrata in vigore il 1º gennaio 2024.
La legge sull'IA è la prima regolamentazione completa dell'IA a livello mondiale. Si applica a tutti i sistemi di IA, compresi quelli utilizzati in ambito privato e pubblico.
La legge sull'IA prevede un sistema di classificazione dei sistemi di IA in base al loro livello di rischio. I sistemi di IA ad alto rischio sono quelli che possono avere un impatto significativo sulla vita delle persone, ad esempio i sistemi di sorveglianza, i sistemi di valutazione del credito e i sistemi di assunzione.
Per i sistemi di IA ad alto rischio, la legge sull'IA prevede una serie di requisiti obbligatori, tra cui:
Trasparenza: i sistemi di IA devono essere trasparenti e comprensibili per le persone.
Ciò significa che gli sviluppatori di sistemi di IA devono fornire informazioni sui dati utilizzati per addestrare il sistema, sul funzionamento del sistema e sui potenziali rischi associati al sistema.
Immagine di Requisito di trasparenza per i sistemi di IA ad alto rischio si apre in una nuova finestra
Requisito di trasparenza per i sistemi di IA ad alto rischio
Non discriminazione: i sistemi di IA non devono discriminare le persone sulla base della loro razza, religione, sesso, orientamento sessuale o altro status protetto.
Immagine di Requisito di non discriminazione per i sistemi di IA ad alto rischiosi apre in una nuova finestra
Requisito di non discriminazione per i sistemi di IA ad alto rischio
Sicurezza: i sistemi di IA devono essere sicuri e protetti da attacchi informatici.
Immagine di Requisito di sicurezza per i sistemi di IA ad alto rischio si apre in una nuova finestra
Requisito di sicurezza per i sistemi di IA ad alto rischio
Responsabilità: gli sviluppatori di sistemi di IA devono essere responsabili delle conseguenze dei loro sistemi. Ciò significa che gli sviluppatori di sistemi di IA devono adottare misure per mitigare i rischi associati ai loro sistemi e devono essere in grado di dimostrare che hanno adottato tali misure.
Immagine di Requisito di responsabilità per i sistemi di IA ad alto rischio si apre in una nuova finestra:
Requisito di responsabilità per i sistemi di IA ad alto rischio
Inoltre, la legge sull'IA prevede un sistema di conformità per i sistemi di IA ad alto rischio. I sistemi di IA ad alto rischio devono essere conformi ai requisiti della legge sull'IA prima di essere immessi sul mercato o utilizzati nell'Unione Europea.
Per i sistemi di IA a basso rischio, la legge sull'IA prevede un regime di autovalutazione.
Gli sviluppatori di sistemi di IA a basso rischio devono valutare se i loro sistemi soddisfano i requisiti della legge sull'IA.
Se i sistemi di IA a basso rischio non soddisfano i requisiti della legge sull'IA, devono essere conformati prima di essere immessi sul mercato o utilizzati nell'Unione Europea.
· Migliore protezione delle persone: la legge sull'IA mira a proteggere le persone dagli abusi dell'IA. Ad esempio, la legge vieta la discriminazione basata sull'IA e richiede che i sistemi di IA ad alto rischio siano trasparenti e sicuri.
La legge sull'IA è una legge complessa che rappresenta un tentativo di trovare un equilibrio tra innovazione e protezione.
La legge è ancora in fase di attuazione, ma è probabile che avrà un impatto significativo sullo sviluppo e sull'utilizzo dell'IA nell'Unione Europea.
Effetti della legge sull'IA
La legge sull'IA è destinata ad avere una serie di effetti sull'Unione Europea, tra cui:
· Sviluppo sostenibile dell'IA: la legge sull'IA mira a promuovere lo sviluppo sostenibile dell'IA. Ad esempio, la legge richiede che gli sviluppatori di sistemi di IA a basso rischio valutino l'impatto ambientale dei loro sistemi.
· Leadership globale nell'IA: la legge sull'IA mira a rendere l'Unione Europea un leader globale nell'IA. La legge è la prima regolamentazione completa dell'IA a livello mondiale e potrebbe incoraggiare altri paesi a seguire l'esempio dell'Unione Europea.
In conclusione , è ancora presto per dire quali saranno gli effetti a lungo termine della legge sull'IA. Tuttavia, la legge è un passo importante verso il garantire che l'IA sia sviluppata e utilizzata in modo responsabile e sostenibile nell'Unione Europea.
L’importante è a non arrivare a sistemi invasivi e a punteggio come sono applicati ora in Cina.
Yuri Lucarini Informatico Forense – Criminologo
Comments