Lo strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano a svilupparle.

Una sola frase, una ventina di parole appena, per ribadire una volta di più la preoccupazione per il veloce sviluppo delle intelligenze artificiali: “Ridurre il rischio di estinzione rappresentato dalle IA dovrebbe essere una priorità globale insieme con la riduzione di altri rischi come le pandemie e la guerra nucleare”.

Questo è l’appello diffuso online dal Center for AI Safety, un’organizzazione no profit, e firmato (al momento) da circa 350 personalità, fra scienziati, matematici, ricercatori nel campo delle IA e imprenditori.

Quarto appello sul rischio estinzione

Il documento, che appunto si esaurisce nella breve frase riportata all’inizio, è solo l’ultimo di una serie di allarmi sui rischi potenziali di questa nuova tecnologia ed è il quarto in un arco di tempo relativamente breve a parlare di rischio estinzione per la razza umana. In precedenza c’era stato Stephen Hawking, poi lo scrittore Eliezer Yudkowsky, che su Time aveva scritto che “il risultato più probabile dello sviluppo di un’IA la cui intelligenza superi quella umana è che tutti sulla Terra moriranno”, e più di recente lo scienziato Geoffrey Hinton, che ha deciso di licenziarsi da Google per “poter parlare liberamente dei pericoli rappresentati dalle IA”.

Contattato dal New York Times, il presidente del Center for AI Safety, Dan Hendrycks, ha spiegato che “abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco, prima di avere proficue discussioni” e che la scelta di limitare la lettera a una sola frase sarebbe utile per “mostrare che i rischi sono abbastanza gravi da avere bisogno di proposte proporzionate”.

La mano destra che non sa quel che fa la sinistra?

A fare notizia, più che l’appello in sé (come forse dovrebbe essere), sono soprattutto i nomi dei firmatari: fra loro ci sono lo stesso Hinton e anche Yoshua Bengio, due dei 3 ricercatori che hanno vinto un Premio Turing proprio per il lavoro sulle IA (il terzo è Yann LeCun, che lavora per Meta e al momento non ha firmato), c’è Sam Altman, attuale CEO di OpenAI, Demis Hassabis, CEO di Google DeepMind, e anche l’italo americano Dario Amodei, CEO di Anthropic.

Non c’è Elon Musk, che pure aveva firmato una petizione simile lo scorso marzo, ma che adesso non firma più probabilmente perché si è messo a fare quello contro cui aveva firmato. Ed è in effetti questo, quello che dovrebbe fare notizia: il fatto che chi ha firmato per ridurre i potenziali rischi provocati dalle IA stia intanto lavorando per aumentarli, questi rischi.

Il caso di Altman, considerato il padre di ChatGPT (la madre è probabilmente Microsoft, che l’ha ricoperto di soldi per farcela), è emblematico:

  • a inizio marzo ha pubblicato una lettera aperta in cui investiva la sua società del compito di contribuire a sviluppare una IA Forte (una IA senziente, semplificando), che è la fonte principale dei rischi di cui parla la comunità scientifica;
  • a fine marzo, quando Musk firmava l’appello sui rischi legati proprio allo sviluppo di una IA Forte, ha ammesso di essere “un po’ preoccupato e spaventato” dalla sua creazione (di cui aveva parlato 3 settimane prima);
  • il 18 maggio, davanti al Congresso degli Stati Uniti, ha ricordato che “servono regole per l’IA”, perché “temo gravi danni per la società”;
  • il 24 maggio ha lasciato intendere che se in Europa quelle stesse regole da lui auspicate saranno troppo severe, OpenAI potrebbe andarsene definitivamente dall’Ue;
  • salvo poi, pochi giorni dopo, presentare al mondo una sua iniziativa per stimolare (a pagamento) il dibattito su metodi e strategie da applicare alle IA.

I rischi collegati allo sviluppo delle IA

Per citare un popolare modo di dire, sembra un po’ la storia del “la mano sinistra non sappia quel che fa la destra”, con Altman (e Musk, e altri) che da un lato si dice preoccupato ma dall’altro lato, con il suo stesso lavoro, non fa altro che aumentare quelle preoccupazioni.

Non è una critica, è un dato di fatto: molti dei firmatari di quest’ultimo appello sono sì scienziati, ricercatori, sviluppatori ma sono anche imprenditori, dipendenti e CEO. E se da una parte vogliono essere prudenti (o vogliono mostrarsi prudenti, soprattutto agli occhi dei regolatori europei e americani), dall’altra vogliono anche primeggiare nel loro campo, battere i concorrenti sul tempo e pure guadagnare un sacco di soldi. È il loro lavoro, è abbastanza normale che sia così.

Il problema, come su Italian Tech abbiamo scritto spesso, è che in questo specifico campo la fretta e la corsa al profitto rischiano di essere più pericolose che in altri, perché (come sostengono in molti) una volta sbagliato è quasi impossibile tornare indietro. Inteso con una volta creata una IA Forte piena di pregiudizi o addestrata in modo sbagliato, cui si sono date le chiavi dell’arsenale nucleare (non è fantascienza, gli Usa hanno appena approvato una legge per richiedere sempre un intervento umano per l’impiego di armi atomiche), che gestisca le forze di polizia in una città o in uno Stato, che si occupi di decidere a chi dare un lavoro e a chi negarlo, chi ha probabilità di essere curato dopo un incidente e chi no e così via.

Perché è poi questo che inizia a spaventare, delle IA: non che scatenino una guerra all’umanità come accade in Terminator o Matrix, ma che minino le fondamenta della nostra società in maniera irrecuperabile, aumentando ulteriormente il divario fra chi può e chi no, fra chi ce la fa e chi viene lasciato indietro, fra i primi e tutti gli altri. Portandoci appunto all’estinzione.

di Emanuele Capone

Fonte: La Repubblica