Intelligenza artificiale e sicurezza nazionale: nuova minaccia o solite vecchie bufale?

102 Visite

Credo, che molte persone sono convinte che l’intelligenza artificiale sia un beneficio per la nostra vita quotidiana. Potrebbe renderci semplice adempiere a molte attività. Le domande che si pongono sono molteplici. L’intelligenza artificiale da chi viene controllata? Quali sono i protocolli di sicurezza? Come tutela la riservatezza delle persone? Come posso averne il controllo?

 

Guardiamo questa foto. Ovviamente sono foto false. Però basta poco a creare una trappola per i cittadini, a creare forte limitazioni alle libertà personali.

 

Su Avanti.it, Francesco Santoianni scrive:

 

“Ancora mistero fitto sul perché in Italia, dal 31 marzo, improvvisamente, sia stata interdetta ChatGpt, la piattaforma di intelligenza artificiale e apprendimento automatico che, incrociando i dati da un enorme database, crea plausibili testi o immagini su qualsiasi argomento. Tra le spiegazioni più o meno ufficiali, ma non vere, quella secondo la…”

 

Leggi l’articolo: https://avanti.it/intelligenza-artificiale-e-sicurezza-nazionale-nuova-minaccia-o-solite-vecchie-bufale/

 

High-Tech e accademici cogliono fermare l’intelligenza artificiale

 

Un gruppo di accademici e di potenti dirigenti dell’industria tecnologica hanno firmato una lettera https://futureoflife.org/open…/pause-giant-ai-experiments/ per chiedere una moratoria sullo sviluppo dell’intelligenza artificiale.

Fra i quasi 2.000 firmatari troviamo il CEO di SpaceX e Tesla Elon Musk, il co-fondatore di Apple Steve Wozniak, il capo scienziato di IBM Grady Booch, l’etico per la tecnologia Tristan Harris. Fra gli accademici compaiono anche Stuart Russell, direttore del Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley, Yuval Noah Harari, storico dell’Università Ebraica di Gerusalemme, e Sean O’Heigeartaigh, direttore esecutivo del Center for the Study of Existential Risks dell’Università di Cambridge. La lista completa di nomi (in fondo alla lettera) è impressionante.

La lettera apre “chiedendo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”.

Il testo così prosegue: “I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Come affermato nei principi di intelligenza artificiale di Asilomar https://futureoflife.org/open-letter/ai-principles/, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono concentrati su una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero e in astuzia, rendendoci obsoleti e infine sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli.” Siamo d’accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. […]”

Tutto bello, tutto giusto, tutto sacrosanto.

A questo punto però sorge un dubbio: tutti questi personaggi si sono accorti solo adesso del pericolo a cui andiamo incontro? E’ possibile che nessuno di loro abbia visto “2001 Odissea nello Spazio”, oppure che non abbia mai letto un racconto di fantascienza? Bisognava davvero arrivare sull’orlo del precipizio per accorgersi del rischio di un cambiamento irreversibile nella società umana?

Fonte: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 

 

La replica di Massimo Mazzucco

Io sinceramente sono stupito, e mi domando se tutta questa improvvisa preoccupazione sia il frutto genuino di un ripensamento tardivo, oppure se sia la solita messinscena mediatica (un pò come quella sul riscaldamento globale) che nasconde magari una feroce guerra fra bande, per decidere CHI dovrà essere colui che si assicura il controllo dei cervelli dell’umanità?

Perché una cosa è certa: se tutti questi soloni si sono accorti solo adesso del rischio che corriamo, forse allora vale davvero la pena di mettere il nostro futuro in mano ad un algoritmo. Quello rischia certamente di fare meno danni di questa banda di pericolosi decerebrati.

Fonte: https://luogocomune.net/

 

 

 

Promo