ChatGPT, l’UE spinge per una normativa ad hoc

ChatGPT, l’UE spinge per una normativa ad hoc

ITALIA – Negli ultimi giorni non si fa altro che parlare di ChatGPT, la chat virtuale basata su intelligenza artificiale che, dal suo lancio nel novembre 2022, è già stata usata da centinaia di milioni di persone, rendendola l’applicazione per utenti in più rapida crescita nella storia, secondo uno studio di UBS. Il server è stato sviluppato da OpenAI, una società di ricerca sull’intelligenza artificiale che nasce nel 2015 come non-profit e che si muove nell’ottica di sviluppare AI in sicurezza e promuovere lo sviluppo delle cosiddette AI amichevoli (“Friendly Artificial Intelligence” FAI), intelligenze capaci di contribuire al bene dell’umanità.

In poche parole, ChatGPT, che ancora in realtà ha status di prototipo, è in grado si esprimersi normalmente attraverso strumenti testuali ed è in grado di fornire un livello di conversazione al pari di un umano, anche a livelli intellettuali illustri, tanto che nelle università di diversi paesi, fra cui Stati Uniti e Australia, è già stato vietato il suo impiego per la realizzazione di tesine o studi accademici.

Una settimana fa, l’Italia è diventata il primo paese a bloccare ChatGPT in Occidente, dopo Cina, Corea del Nord, Russia e Iran. L’autorità italiana per la protezione dei dati, meglio nota come Garante della Privacy, ha, infatti, affermato che OpenAI ha esposto a violazione le conversazioni e i dettagli di pagamento di alcuni utenti. L’autorità competente ha, inoltre, aperto un’indagine per aver raccolto illegalmente dati personali dagli users senza disporre di un sistema di verifica dell’età per impedire ai minori di essere esposti a materiale illecito.

Il Garante ha ordinato ad OpenAI di impedire agli utenti italiani di accedere a ChatGPT fino a quando la società non chiarirà la sua posizione. L’azienda ha 20 giorni di tempo per fornire all’Agenzia il materiale e le conseguenti modifiche da apportare prima che possa essere presa una decisione definitiva sul futuro della chatbot nel nostro Paese. OpenAI potrebbe essere multata fino a 20 milioni di euro o per il 4% delle sue entrate annuali mondiali, 200 milioni di dollari previsti per il 2023.

I problemi posti dall’uso indiscriminato e incontrollato dell’Intelligenza artificiale riguardano ogni aspetto della civiltà sociale e giuridica nonché imponenti domande etiche sulla natura del progresso e il concetto di “intelligenza” stessa. Elon Musk, tra i fondatori di OpenAI poi costretto a rinunciare per conflitti di interessi con Tesla e ora critico dell’uso spericolato dell’intelligenza artificiale, ha persino chiesto una pausa alla ricerca sulle IA in modo che le autorità di regolamentazione governative possano mettersi al passo. Microsoft ha risposto a tutti questi tipi di problemi licenziando il suo intero comitato etico, motivo per cui ha subito pesanti critiche.

Uno dei temi più caldi associati all’AI è il lavoro. Secondo un’analisi di Goldman Sachs, l’AI potrebbe portare alla perdita di 300 milioni di posti di lavoro. Basti pensare alle tempistiche relative alla stesura di una relazione o di una grafica, che DALL-E, il fratello minore di ChatGPT, produce in mezzo secondo.

L’Unione Europea (UE) sta valutando un nuovo quadro giuridico che mira a rafforzare in modo significativo le normative sullo sviluppo e l’uso dell’intelligenza artificiale.

Dopo la decisione italiana di limitare l’accesso alla chatbot, la BEUC (Bureau Europea per l’Unione dei Consumatori) sta premendo le autorità affinché vengano investigate tutti i server di intelligenza artificiale, simile a ChatGPT. Secondo Ursula Pachl, direttore della BEUC, i consumatori non sono ancora pronti a questo tipo di tecnologia. Il caso italiano potrebbe essere una sveglia d’allarme per l’Unione Europea che deve elaborare un corpus normativo affinché la materia sia regolata dal punto di vista legislativo e tuteli gli utenti da eventuali violazioni e forzature.

La Commissione Europea sta attualmente discutendo la prima legislazione al mondo sull’intelligenza artificiale chiamata “Artificial Intelligence Act”. La legislazione proposta si concentra principalmente sul rafforzamento delle norme in materia di qualità dei dati, trasparenza, controllo umano e determinazione della responsabilità. È bene tenere a mente che l’eventuale attuazione della legislazione sull’AI secondo i tempi burocratici di Bruxelles richiederebbe almeno quattro anni, a fronte di un’innovazione velocissima che incontrollata nello stesso periodo di tempo potrebbe ottenere risultati impensabili. Mira inoltre ad affrontare questioni etiche, come quelle soprammenzionate, e sfide di attuazione in vari settori che vanno dalla sanità e dall’istruzione alla finanza e all’energia.

Si auspica che la regolamentazione normativa di tale fenomeno renda possibile un utilizzo sicuro dell’AI e che la consapevolezza dei suoi meccanismi lo ponga al servizio dell’uomo come strumento e non come lo descrivono i media, il primo atto di un film di fantascienza.

AVV. ELENA CASSELLA