La recente modifica dei principi etici di Google in materia di intelligenza artificiale ha sollevato preoccupazioni significative. La decisione, riportata da diverse fonti, sembra indicare una rimozione di formulazioni chiave che vincolavano l'azienda a non sviluppare tecnologie di AI per applicazioni militari o di sorveglianza che violano i diritti umani e le normative internazionali.
In questo articolo
cambiamenti nei principi sull'AI
In precedenza, Google si era impegnata a non applicare AI in contesti che potessero portare a danni complessivi. Queste aree comprendevano:
- Applicazioni di sorveglianza contrarie alle norme internazionali.
- Sistemi d'arma.
- Tecnologie che violano i principi di diritto internazionale e diritti umani.
nuove formulazioni e preoccupazioni
I nuovi principi sono caratterizzati da linguaggio più generico, incentrato su “innovazione”, “collaborazione” e sviluppo “responsabile” dell'AI. Tale mancanza di specificità potrebbe consentire interpretazioni più ampie e l'utilizzo dell'AI in contesti precedentemente esclusi dalla discussione.
contestualizzazione del cambiamento
Il CEO di DeepMind, Demis Hassabis, e James Manyika, dirigente senior di Google, hanno citato il “complesso panorama geopolitico” e la “competizione globale” come fattori che hanno influenzato questa revisione. Nonostante le affermazioni riguardanti la leadership delle democrazie nello sviluppo dell'AI, la rimozione dei divieti solleva interrogativi sull'applicazione concreta di valori come libertà e diritti umani.
il passato di Google con contratti militari
È opportuno ricordare che Google ha già subito critiche per il proprio coinvolgimento in contratti con l'esercito, tra cui Project Maven, dedicato all'analisi dei filmati dei droni, e Project Nimbus, un contratto cloud stipulato con il governo israeliano. Questo recente cambiamento di politica suggerisce un’ulteriore inclinazione verso l'adozione di tecnologie AI con potenziali implicazioni militari o di sorveglianza.
conclusione sull'impatto dell'AI
Il potenziale dell'intelligenza artificiale è indubbio, ma le rischiosità associate rimangono evidenti. Questa revisione delle politiche da parte di Google suscita inquietudine e alimenta conversazioni imprescindibili riguardo all'utilizzo dell'AI in ambiti delicati che toccano i diritti umani e le questioni etiche fondamentali.
Scopri di più da Chromebook Observer
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.