Recentemente, Google ha annunciato una revisione significativa delle sue linee guida etiche riguardanti l’intelligenza artificiale (AI), rimuovendo il divieto esplicito sull’utilizzo della sua tecnologia AI per scopi militari e di sorveglianza. Questa modifica segna un cambiamento sostanziale nella posizione dell’azienda riguardo all’applicazione dell’AI in ambiti sensibili, suscitando dibattiti sulle implicazioni etiche e sulle future direzioni dello sviluppo dell’intelligenza artificiale.

Nel 2018, Google aveva introdotto una serie di principi etici per l’AI, impegnandosi a non sviluppare tecnologie destinate a causare danni, armi o sistemi di sorveglianza invasivi. Questi principi erano stati adottati in risposta a critiche interne riguardo alla partecipazione dell’azienda a progetti militari, come il contratto con il Dipartimento della Difesa degli Stati Uniti per l’analisi di video droni. Tuttavia, con la recente revisione, Google ha rimosso specifiche proibizioni, consentendo potenzialmente l’impiego della sua tecnologia AI in contesti militari e di sorveglianza.

Secondo le dichiarazioni di James Manyika, vicepresidente senior di Google per la ricerca, la tecnologia e la società, e Demis Hassabis, CEO di Google DeepMind, la decisione di rivedere le linee guida è stata influenzata dall’uso sempre più diffuso dell’AI e dall’evoluzione degli standard globali. Essi sottolineano la necessità di una collaborazione tra aziende, governi e organizzazioni che condividono valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani, per sviluppare un’AI che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale.

La modifica delle linee guida ha suscitato preoccupazioni tra i dipendenti di Google e gli esperti del settore. Parul Koul, ingegnere del software e presidente dell’Alphabet Union Workers-CWA, ha espresso preoccupazione per la mancanza di coinvolgimento dei dipendenti nel processo decisionale, temendo compromessi etici. Inoltre, esperti avvertono dei potenziali rischi associati all’uso dell’AI in contesti militari, inclusi scenari catastrofici come la produzione di armi biologiche o minacce esistenziali per l’umanità.

La decisione di Google potrebbe influenzare altre aziende tecnologiche nel rivedere le proprie politiche etiche riguardo all’AI. Mentre alcuni vedono questa mossa come un’opportunità per sviluppare applicazioni AI avanzate in collaborazione con enti governativi, altri temono che possa portare a un’accelerazione dello sviluppo di tecnologie AI destinate a scopi militari, con potenziali conseguenze imprevedibili. La comunità internazionale dovrà affrontare la sfida di stabilire normative e linee guida che bilancino l’innovazione tecnologica con la responsabilità etica e la sicurezza globale.

Di Fantasy