MindTheChart.io
MINDTHECHART CRYPTO BUBBLES
MINDTHECHART STOCK BUBBLES
UNISCITI A PACMIND! L'INDICATORE PER ACCUMULAZIONE!

"Intelligenza Artificiale: Verso un Trattato Globale per la Regolamentazione e la Tutela dei Diritti Umani"

"Intelligenza Artificiale: Verso un Trattato Globale per la Regolamentazione e la Tutela dei Diritti Umani"

Giorno: 05 settembre 2024 | Ora: 14:20

Il Primo Trattato Internazionale sul AI: Un Passo Verso la Regolamentazione Globale

Il mondo ha fatto un passo avanti nella unificazione degli obiettivi e dei valori legati all'intelligenza artificiale dopo un incontro tra leader mondiali per firmare la Convenzione sul AI del Consiglio d'Europa. Gli Stati Uniti, l'Unione Europea e il Regno Unito si preparano a firmare il trattato, che pone al centro i diritti umani e i valori democratici nella regolamentazione dei modelli di AI pubblici e privati.

UNITI NELL'AI

La convenzione sul AI rappresenta il primo trattato internazionale legalmente vincolante per i suoi firmatari. Questo accordo rende tutti i firmatari responsabili per qualsiasi danno o discriminazione derivante dai sistemi di AI. Inoltre, richiede che gli output di tali sistemi rispettino i diritti di uguaglianza e privacy dei cittadini, offrendo risorse legali alle vittime di violazioni dei diritti legati all'AI. Tuttavia, le misure di enforcement, come le multe, devono ancora essere implementate.

Attualmente, la conformità al trattato è monitorata, come sottolineato dal ministro britannico per la scienza, l'innovazione e la tecnologia, Peter Kyle, che ha dichiarato che la firma del trattato rappresenta un “passo importante” a livello globale. “Il fatto che speriamo che un gruppo così diversificato di nazioni firmi questo trattato dimostra che stiamo emergendo come comunità globale di fronte alle sfide poste dall'AI”, ha aggiunto.

NORMATIVE GLOBALI SULL'AI

Durante l'estate, l'Unione Europea è diventata la prima regione a implementare norme che governano lo sviluppo e l'implementazione dei modelli di AI, in particolare quelli di alto livello dotati di elevate capacità di calcolo. L'AI Act dell'UE è entrato in vigore il 1° agosto e ha introdotto regolamenti significativi per l'AI attraverso un'implementazione graduale e obblighi di conformità chiave.

Sebbene il progetto di legge sia stato sviluppato con la sicurezza in mente, è stato anche un punto di contesa tra gli sviluppatori nel settore dell'AI, poiché si sostiene che ostacoli l'innovazione nella regione. Questo è evidente in aziende come Meta, la società madre di Facebook, che ha interrotto il lancio dei loro ultimi prodotti nell'UE a causa di regolamenti che impediscono agli europei di accedere agli strumenti di AI più recenti e avanzati.

AI NEGLI STATI UNITI

Negli Stati Uniti, il Congresso non ha ancora implementato un quadro normativo nazionale per l'AI. Tuttavia, sono stati istituiti comitati e gruppi di lavoro per la sicurezza dell'AI dall'Amministrazione Biden. Nel frattempo, in California, i legislatori sono stati impegnati a redigere e approvare regolamenti sull'AI. Negli ultimi due settimane, due progetti di legge sono stati approvati dall'Assemblea Statale e sono in attesa di una decisione finale dal Governatore della California, Gavin Newsom.

Il primo progetto di legge regolamenta e penalizza la creazione di repliche digitali AI non autorizzate di personalità decedute. Il secondo è un progetto di legge altamente controverso, opposto da molti dei principali sviluppatori di AI, che rende obbligatori i test di sicurezza per la maggior parte dei modelli di AI più avanzati e richiede di avere un piano per un “kill switch” per tali modelli. La regolamentazione dell'AI in California è cruciale poiché ospita le sedi di alcune delle aziende leader nel settore, come OpenAI, Meta e Alphabet (Google).