l'allarme

«Con l’intelligenza artificiale l’uomo rischia l’estinzione»

Anche il fisico trentino Roberto Battiston tra i firmatari di un appello pubblico. Servono regole chiare e rigorose per incanalare una tecnologia pericolosa quanto il nucleare



TRENTO. L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità: è l'avvertimento di esperti del settore tra cui Sam Altman, Ad del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic. Lo riporta la Bbc. “Mitigare il rischio di estinzione dell'Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, si afferma in una dichiarazione pubblicata sulla pagina web del Center for AI Safety. Anche Geoffrey Hinton, un cosiddetto “padrino” dell'IA, ha sostenuto l'appello.

Fra i firmatari, anche un famoso scienziato trentino.

Servono regole per gestire algoritmi potenti come quelli dell'intelligenza artificiale e per evitare effetti imprevisti: è questo il senso dell'allerta lanciata dal Center for AI Safety, secondo il fisico Roberto Battiston, dell'Università di Trento e tra i firmatari della dichiarazione. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell'interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti”, osserva Battiston. “Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione - prosegue il fisico - per realizzare regole e norme che permettano di gestire l'efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l'umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società”. Pensiamo ad esempio, aggiunge, “alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”. Per questo, osserva, “occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web”. Di solito, dice ancora Battiston, “quando l'uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell'uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”.

A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell'intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell'atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C'è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l'enorme potenzialità positiva”.

 













Scuola & Ricerca

In primo piano