L’evoluzione dell’intelligenza artificiale ha innescato, comprensibilmente, un’ondata di critiche, dubbi e perplessità. In questi giorni però qualcosa sta cambiamento, il 9 dicembre ha infatti segnato un momento storico per la regolamentazione dell’intelligenza artificiale in Europa. La Commissione, il Consiglio e il Parlamento europeo hanno approvato l’AI Act, una normativa che stabilirà le regole per l’uso dell’intelligenza artificiale. Il primo decreto al mondo sull’intelligenza artificiale volto proprio a garantire la sicurezza dell’AI in Europa, che rappresenta anche un passo significativo verso la risoluzione di dubbi e incertezze esistenti. Una novità che non solo mette da parte le chiacchiere, o banalmente ne crea di nuove, ma rappresenta anche il primo tassello concreto nell’ambito di quello che riguarda tutto ciò che ruota intorno all’AI e alla sua sicurezza.
I primi freni dell’AI
La questione principale quando si tratta di intelligenza artificiale, è la necessità di garantire un livello di trasparenza per la sicurezza nella creazione e nell’utilizzo dell’intelligenza artificiale. Ed è proprio questo il fulcro di ciò che le istituzioni europee hanno recentemente raggiunto in un accordo politico sull’AI Act. La Ai Act introduce una serie di regole essenziali per assicurare che l’intelligenza artificiale in Europa sia sicura, tenendo contemporaneamente conto dell’importanza dell’innovazione. L’AI Act presta particolare attenzione alla regolamentazione dei sistemi di intelligenza artificiale, trasformando limitazioni precedentemente vaghe in leggi concrete.
La discussione principale riguardava la necessità di controllare i sistemi di intelligenza artificiale che rappresentano un rischio, che manipolano il comportamento umano o che compromettono la dignità umana. Inoltre, l’AI Act impone requisiti rigorosi ai sistemi di intelligenza artificiale considerati ad alto rischio, come quelli utilizzati nei settori sanitario, giudiziario, della sicurezza o dei trasporti. Questi sistemi devono essere trasparenti, affidabili e accurati, e devono essere sottoposti a una valutazione di conformità prima di essere immessi sul mercato.
I punti focali dell’AI Act
Le nuove regole dell’Unione Europea sull’intelligenza artificiale rappresentano un cambiamento significativo, ma non sarà istantaneo ci vorrà del tempo per vedere in atto le regole tanto discusse, 6 mesi e 12 mesi. Nel dettaglio, le regole introducono limiti nell’uso della biometria, come il riconoscimento facciale, per prevenire potenziali abusi e proteggere la privacy dei cittadini. Inoltre, sono state apportate modifiche importanti alle leggi sul copyright, che ora tengono conto delle sfide poste dall’uso dell’intelligenza artificiale nella creazione e distribuzione di contenuti.
Un altro aspetto fondamentale delle nuove regole riguarda i requisiti di trasparenza. Ad esempio, le aziende che sviluppano e implementano soluzioni di intelligenza artificiale sono ora tenute a fornire informazioni chiare e comprensibili su come funzionano i loro sistemi. Un equilibrio delicato tra il promuovere l’innovazione e la protezione dei diritti dei cittadini. Con queste nuove regole, l’Unione Europea si pone come leader nella regolamentazione dell’intelligenza artificiale, ponendo le basi per uno sviluppo tecnologico che rispetti i diritti umani e le libertà fondamentali. Ma non solo, diversi limiti anche per l’analisi di dati biometrici e il divieto del riconoscimento delle emozioni.
I no dell’AI
Nonostante la confusione su quando e come le nuove regole dell’AI Act entreranno in vigore, è chiaro che esse pongono dei limiti significativi per proteggere i diritti dei cittadini. L’AI Act proibisce l’uso dell’IA per l’analisi di dati biometrici sensibili e lo scraping non mirato di immagini. In particolare, è vietato raccogliere immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza obiettivi specifici. Questa regola è stata introdotta per tutelare la privacy e prevenire la sorveglianza di massa. Inoltre, l’AI Act estende il divieto al riconoscimento delle emozioni nei luoghi di lavoro e nelle istituzioni educative. Le persone non potranno essere analizzate da sistemi di AI basandosi su comportamenti o caratteristiche personali, né potranno essere utilizzate tecniche che mirano a manipolare il comportamento umano.
Al centro del dibattito vi è il divieto di pratiche come il riconoscimento delle emozioni e la polizia predittiva, che sono espressamente vietate, riflettendo una preoccupazione per la privacy e l’integrità personale. Tuttavia, esistono alcune eccezioni per la polizia e le forze dell’ordine, che potranno utilizzare sistemi di riconoscimento biometrico solo in casi eccezionali, come situazioni di minaccia terroristica imminente, la ricerca di vittime di gravi crimini, o la persecuzione di reati gravi. Nel caso invece si ritenesse necessario procedere all’uso di sistemi AI, le forze dell’ordine hanno l’obbligo di dichiara l’utilizzo dei sistemi AI. Dopodiché, saranno previste dei controlli specifici del caso, con l’obiettivo di assicurare che l’impiego sia conforme alle regole e non violi i diritti fondamentali.
Ai tra le regole e l’innovazione
L’AI Act prevede misure di supervisione e controllo da parte delle autorità nazionali, nonché la creazione di un comitato europeo specificamente dedicato all’intelligenza artificiale. L’obiettivo principale dell’AI Act è assicurare un utilizzo dell’intelligenza artificiale che sia etico, responsabile e in linea con i valori europei.
Inoltre, l’AI Act mira a promuovere l’innovazione e la competitività dell’Europa nel campo dell’intelligenza artificiale. Le misure rappresentano un passo importante verso un futuro in cui l’intelligenza artificiale può essere utilizzata in modo sicuro e responsabile, garantendo al contempo il rispetto dei diritti fondamentali e la promozione dell’innovazione.