GOOGLE ABBANDONA LA PROMESSA DI NON UTILIZZARE L’INTELLIGENZA ARTIFICIALE PER LE ARMI

DiRedazione

6 Febbraio 2025
Nelle sue nuove linee guida Alphabet non parla più di “non perseguire tecnologie che possano causare, anche solo potenzialmente, danni generali”, riferisce The Guardian. L’obiettivo è ora brutalmente “proteggere la sicurezza nazionale”, spiega il capo dell’intelligenza artificiale di Google, Demis Hassabis. Ennesima svolta di Silicon Valley, che segue a ruota il nuovo paradigma dell’amministrazione appena insediata. Viviamo in un mondo multipolare, ha detto pochi giorni fa il Segretario di Stato Marco Rubio. All’atto pratico, significa che la concorrenza con la Cina e i nuovi potenziali soggetti globali impone oggi agli USA di guardare unicamente ai propri interessi senza dissimularli dietro la retorica dei diritti umani e del diritto internazionale. America first, in purezza.
Un post sul blog di Google ha sostenuto che da quando l’azienda ha pubblicato per la prima volta i suoi principi di intelligenza artificiale nel 2018, la tecnologia si è evoluta rapidamente. Foto: Dado Ruvić/Reuters

Fonte: The Guardian

Il proprietario di Google, Alphabet, ha abbandonato la sua promessa di non utilizzare l’intelligenza artificiale per scopi come lo sviluppo di armi e strumenti di sorveglianza.

La società tecnologica statunitense ha dichiarato martedì, poco prima di riportare utili inferiori alle previsioni, di aver aggiornato le sue linee guida etiche sull’intelligenza artificiale e di non fare più riferimento al fatto di non perseguire tecnologie che potrebbero “causare o potrebbero causare danni complessivi”.

Il capo dell’intelligenza artificiale di Google, Demis Hassabis, ha affermato che le linee guida sono state riviste in un mondo che cambia e che l’intelligenza artificiale dovrebbe proteggere la “sicurezza nazionale”.

In un post sul blog in cui difende la mossa, Hassabis e il vicepresidente senior dell’azienda per la tecnologia e la società, James Manyika, hanno scritto che con l’aumento della competizione globale per la leadership nell’intelligenza artificiale, l’azienda ritiene che “le democrazie dovrebbero guidare lo sviluppo dell’intelligenza artificiale” guidato da “libertà, uguaglianza e rispetto dei diritti umani”.

Hanno poi aggiunto: “Crediamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un’intelligenza artificiale che protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale”.

Il motto di Google quando è stato lanciato per la prima volta era “Don’t be evil” (Non essere cattivo), anche se questo è stato successivamente declassato nel 2009 a un “mantra” e non è stato incluso nel codice etico di Alphabet quando la società madre è stata creata nel 2015.

The rapid growth of AI has prompted a debate about how the new technology should be governed, and how to guard against its risks.

The British computer scientist Stuart Russell has warned of the dangers of developing autonomous weapon systems, and argued for a system of global control, speaking in a Reith lecture on the BBC.

Il post sul blog di Google ha sostenuto che, da quando l’azienda ha pubblicato per la prima volta i suoi principi di intelligenza artificiale nel 2018, la tecnologia si è evoluta rapidamente. “Miliardi di persone utilizzano l’intelligenza artificiale nella loro vita quotidiana. L’intelligenza artificiale è diventata una tecnologia di uso generale e una piattaforma che innumerevoli organizzazioni e individui utilizzano per creare applicazioni”, hanno scritto Hassabis e Manyika.

“Si è passati da un argomento di ricerca di nicchia in laboratorio a una tecnologia che sta diventando pervasiva quanto i telefoni cellulari e Internet stesso; con numerosi usi benefici per la società e le persone in tutto il mondo, supportata da un vivace ecosistema di sviluppatori di intelligenza artificiale“.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *