Scale AI, la startup specializzata nell’etichettatura dei dati per l’intelligenza artificiale, è finita al centro di una grave controversia sulla gestione delle proprie informazioni riservate. Nonostante abbia recentemente incassato un investimento record di 14,3 miliardi di dollari da Meta – pari a circa 20 trilioni di won – la società ha lasciato emergere una vulnerabilità clamorosa nei suoi sistemi di condivisione.

Secondo un’inchiesta pubblicata il 24 aprile da Business Insider, basata su testimonianze interne e documenti trapelati, Scale AI ha archiviato i documenti sensibili di clienti di prim’ordine come Google, Meta e xAI su Google Docs impostati in modalità “pubblica”: chiunque avesse un link poteva visualizzarli e persino modificarli. Tra questi spiccavano oltre ottantacinque file contenenti migliaia di pagine di informazioni dettagliate sui progetti in corso, incluse strategie operative, istruzioni per migliorare le prestazioni dei chatbot e materiali audio per l’addestramento vocale dell’IA.

In particolare, i documenti di Google rivelavano le strategie adottate per potenziare il chatbot Bard con l’ausilio di ChatGPT e indicavano specifiche tecniche per superare le difficoltà del modello nel rispondere a domande complesse. Alcuni file mostravano persino il logo ufficiale di Google, compromettendo l’anonimato delle informazioni. Nel caso di Meta, invece, erano presenti i materiali di formazione utilizzati per affinare l’espressività vocale della propria IA generativa, corredati da link diretti a file audio di esempio e dai dettagli di ventuno progetti top-secret.

Anche xAI, la società fondata da Elon Musk, ha visto trapelare il suo “Progetto Xilofono”, con istruzioni dedicate al miglioramento delle capacità conversazionali della propria intelligenza artificiale. A rendere la situazione ancora più delicata, alcuni fogli di calcolo rimasti accessibili contenevano dati personali di fornitori esterni di Scale AI: nomi, indirizzi email e persino annotazioni su presunte irregolarità lavorative. Molti collaboratori hanno espresso sorpresa nel venire a sapere che i loro dati erano pubblicamente disponibili.

Gli esperti di sicurezza hanno avvertito che, sebbene non sia stato accertato alcun attacco informatico concreto, questa esposizione poteva facilmente sfociare in gravi minacce: dalle campagne di phishing e impersonificazione fino all’inserimento di codice malevolo nei documenti condivisi. Di fronte all’emergenza, Scale AI ha annunciato di aver disabilitato la possibilità di condividere pubblicamente file sensibili e di aver avviato un’investigazione interna approfondita.

Le ripercussioni sul mercato non si sono fatte attendere: prima ancora di questa rivelazione, nomi di spicco come Google, OpenAI e xAI avevano già sospeso alcuni contratti per progetti di intelligenza artificiale su larga scala, sulla scia di precedenti fughe di informazioni. Gli analisti prevedono ora un impatto significativo sulla reputazione di Scale AI, con possibili contenziosi legali e una revisione dei protocolli di sicurezza da parte dei suoi partner.

In un post pubblicato sul proprio blog aziendale, Scale AI ha voluto rassicurare: “Siamo un partner indipendente e imparziale, la protezione dei dati dei nostri clienti resta la nostra priorità assoluta”. Resta da vedere se queste parole basteranno a ricostruire la fiducia persa e a evitare nuove crisi di sicurezza.

Di Fantasy