Gli sviluppatori di modelli di intelligenza artificiale all’avanguardia, tra cui OpenAI, Google, Meta e Anthropic, hanno accettato di introdurre un “kill switch” per garantire la sicurezza durante lo sviluppo dell’Intelligenza Artificiale Generale (AGI).
Il primo ministro britannico Rishi Sunak ha annunciato che 16 aziende di intelligenza artificiale provenienti da diversi paesi hanno firmato un impegno a sviluppare in modo sicuro modelli di IA all’avanguardia durante il “AI Meet”.
Sunak ha sottolineato che questa è la prima volta che aziende di IA di diverse parti del mondo si impegnano allo stesso modo per garantire la sicurezza dell’IA. Ha dichiarato che questo impegno promuoverà la trasparenza e la responsabilità nell’ambito dello sviluppo dell’IA.
Le aziende annunceranno impegni volontari nell’ambito di questo accordo e prevedono di introdurre un framework di sicurezza che affronti sfide come la prevenzione dell’abuso della tecnologia e rischi legati alla sicurezza.
Questo framework include la possibilità di attivare un “kill switch” per interrompere lo sviluppo del modello in caso di minacce inaccettabili, come attacchi informatici automatizzati o rischi legati alle armi biologiche.
Tra le aziende coinvolte ci sono giganti dell’IA come Amazon, Google, Meta e Microsoft, insieme a altre aziende internazionali come Mistral AI in Francia, G42 negli Emirati Arabi Uniti e Zifu in Cina.
È degno di nota che gli Emirati Arabi Uniti siano rappresentati da due entità, G42 e il Technology Innovation Institute (TII), entrambi attivi nello sviluppo dell’IA. Anche l’azienda cinese Zifu è leader nel settore dei chatbot.
Il concetto di “kill switch” è stato sostenuto dal professore Stuart Russell dell’UC Berkeley, ma resta da vedere come verrà effettivamente implementato e se sarà efficace, dato che l’impegno non ha valore legale e mancano dettagli specifici sul suo funzionamento.