INTELLIGENZA ARTIFICIALE - Una potenza apocalittica da regolamentare
L'Unione Europea ha già iniziato a mettere le basi per una legislazione in grado di limitare quel che gli stessi sviluppatori affermano essere un'attività capace di sterminare il genere umano

Fatto
Nella corsa all’intelligenza artificiale ci sono per prime le aziende impegnate nello sviluppo di quella che ancora oggi sembra una magia, subito dietro ci sono i legislatori chiamati a definire al più presto il perimetro delle regole.
In gioco non c’è soltanto la definizione di quel che sarà giudicato illegale ma qualcosa di molto più rilevante: la sopravvivenza del genere umano.
L’intelligenza artificiale è una spettacolare opportunità ma è anche qualcosa capace di annientarci, come una pandemia o una guerra nucleare.
Non si tratta di un allarme lanciato da un gruppo di fanatici apocalittici, è un avvertimento contenuto in una lettera firmata da scienziati, sviluppatori e soprattutto dirigenti di società in prima linea nello sviluppo.
Quadro normativo
Serve al più presto un quadro normativo capace di “mitigare il rischio di estinzione derivante dall’AI”, si legge nel testo diffuso a maggio.
Per i governi, il laissez faire non è una via percorribile, visto che sono gli stessi spiriti animali del capitalismo a chiedere un intervento di regolamentazione.
Il Financial Times ha dato conto questa settimana dell’approccio al tema in Europa, nel Regno Uniti, negli Stati Uniti e in Cina.
L'Unione Europea si è mossa subito, per cui, un quadro di regole dovrebbe vedere la luce prima della fine dell’anno.
La normativa in via elaborazione impone alle aziende tecnologiche di garantire che le loro pratiche non violino le regole.
Il Regno Unito invece, sta cercando di sfruttare la sua nuova posizione al di fuori dell'UE per creare un proprio regime più flessibile basato sull’appartenenza a un determinato settore piuttosto che al software che ne è alla base. L'approccio britannico dovrebbe essere più favorevole all'industria rispetto alla legge in via di definizione a Bruxelles.
Le restrizioni più severe per i creatori di IA, tuttavia, potrebbero essere introdotte dalla Cina, impegnata in un rafforzamento della vigilanza sui modelli generativi che però non indebolisca le aziende domestiche nella competizione tecnologica con le rivali statunitensi.
Negli Stati Uniti, i legislatori sono ancora al lavoro preparatorio, impegnati nella determinazione degli elementi della nuova tecnologia da assoggettare a una nuova regolamentazione.
In questo quadro, ieri più di 20 persone, in rappresentanza del mondo accademico, delle società private e della società civile, hanno partecipato a una riunione a porte chiuse al Senato, obiettivo del summit organizzato dal leader della maggioranza del Senato, Chuck Schumer, era la regolamentazione dell'IA.
Gli amministratori delegati di Alphabet , Microsoft , Meta e Tesla si sono ritrovati in una stanza a confrontarsi con i rivali nel business e con gli esperti che mettono in evidenza i rischi di questa nuova tecnologia.
Bloomberg riporta che sono emerse forti differenze sull’open source tra Mark Zuckerberg, Sam Altman (ceo di OpenAI) e Bill Gates.
Elon Musk è stato criticato dalla ricercatrice di Berkeley, Deb Raji, per aver minimizzato le preoccupazioni sulle auto a guida autonoma alimentate dall'intelligenza artificiale. Musk avrebbe chiesto una "struttura di regolamentazione" capace di abbassare i rischi per la civiltà posti dalla tecnologia nascente.
Effetto
La Borsa italiana offre alcuni strumenti specifici per operare direttamente sull'Intelligenza Artificiale e sulla Robotica. Segnaliamo i seguenti ETF:…
Non perdere questa occasione, iscriviti a Websim e riceverai 1 mese di prova del Pass Exclusive. Potrai decidere successivamente se acquistare uno dei nostri abbonamenti o meno.