Questa settimana, la Federal Trade Commission (FTC) ha dato il via libera a una risoluzione omnibus che espande notevolmente la sua autorità investigativa riguardo ai prodotti e ai servizi che coinvolgono l’intelligenza artificiale (AI). Nonostante le immense possibilità offerte dall’intelligenza artificiale, il suo crescente ruolo in una varietà di settori ha attirato l’attenzione delle autorità di regolamentazione.
Questa azione segna un significativo rafforzamento dell’attenzione verso le pratiche legate all’intelligenza artificiale in futuro. La FTC avrà ora strumenti semplificati a sua disposizione per raccogliere informazioni tramite richieste investigative civili (CID), come dichiarato in un comunicato diffuso lunedì.
In passato, la FTC ha già utilizzato i CID nel settore tecnologico per affrontare le chiamate robotizzate illegali, ottenendo ordinanze dai tribunali federali contro fornitori VoIP come XCast Labs e Deltracon per il mancato rispetto delle richieste CID pendenti nel 2022. Samuel Levine, direttore dell’ufficio per la protezione dei consumatori della FTC, ha sottolineato che i CID hanno forza di legge e la non conformità può comportare accuse di oltraggio. Le azioni legali precedenti hanno dimostrato questo punto, evidenziando il fatto che le aziende devono fornire tempestivamente tutta la documentazione e i dati richiesti.
La risoluzione estesa della FTC sull’intelligenza artificiale riflette la sua autorità su altre aree regolamentari, il che richiede alle aziende tecnologiche una maggiore attenzione. Prepararsi in modo proattivo, mantenendo registri interni relativi alle richieste di intelligenza artificiale, alle pratiche di sviluppo dei prodotti, alla supervisione di terze parti e altro ancora, prepara le aziende a rispondere rapidamente in caso di ispezioni.
La FTC ha sottolineato che questa risoluzione mira a facilitare la “rapida raccolta di fatti” riguardo all’uso dell’intelligenza artificiale in contesti che coinvolgono la protezione dei consumatori e la concorrenza leale. Un’area di particolare interesse sarà la verifica delle affermazioni di marketing. Se un’organizzazione promuove le capacità di una soluzione AI, dovrà fornire prove concrete a sostegno delle caratteristiche prestazionali presentate a clienti e partner.
Registrazioni dei dati di addestramento del modello, studi di validazione, casi di studio che dimostrano l’impatto nel mondo reale e rapporti di monitoraggio continuo sono esempi di informazioni che possono aiutare a convalidare le dichiarazioni relative alle soluzioni di intelligenza artificiale. Anche le revisioni tra pari, la supervisione delle fonti di dati di terze parti e la documentazione degli sforzi per identificare e mitigare i rischi possono conferire credibilità. Senza tali materiali a disposizione, dichiarazioni vaghe o infondate sulle funzionalità di un sistema di intelligenza artificiale rischiano l’applicazione di normative se si rivelano ingannevoli.
L’equità algoritmica e la mitigazione dei pregiudizi involontari rimarranno problematiche cruciali, dato che l’intelligenza artificiale sarà sempre più integrata nei processi decisionali critici. La FTC intende assicurarsi che le aziende affrontino proattivamente questi problemi durante l’intero ciclo di vita dello sviluppo del prodotto. Documentare i processi di progettazione, le valutazioni d’impatto, i meccanismi di registrazione dei rischi, i programmi di supervisione e i protocolli di risposta può servire come prova dell’adempimento degli obblighi.
Per le organizzazioni che già utilizzano l’intelligenza artificiale operativamente, i programmi di conformità devono dimostrare monitoraggio continuo e impegno nell’affrontare le sfide emergenti. La correzione reattiva e la trasparenza tendono a generare buona volontà con le autorità di regolamentazione, ma le posizioni proattive sono preferibili quando si tratta di controllo.
La FTC sottolinea che la supervisione ora si estende oltre le squadre interne, coinvolgendo anche terze parti coinvolte in fonti di dati, formazione dei modelli, miglioramenti e altri aspetti delle soluzioni di intelligenza artificiale. Tuttavia, sono essenziali solide tutele contrattuali che richiedono trasparenza, verifica delle richieste e controlli. Audit regolari e documentazione di due diligence delle terze parti proteggono l’organizzazione e gli utenti finali, riconoscendo che la responsabilità normativa si espande con la crescente esternalizzazione dei componenti tecnici.
Inoltre, a inizio novembre, la FTC ha annunciato un’iniziativa di clonazione vocale, con l’obiettivo di proteggere gli utenti da frodi finanziarie o violazioni della privacy legate a voci sintetiche. Questo sforzo mira a coinvolgere la cooperazione tra diverse parti interessate per affrontare abusi delle nuove tecnologie di clonazione vocale.
Inoltre, durante lo studio del Copyright Office degli Stati Uniti sulle implicazioni dell’intelligenza artificiale generativa, la FTC ha presentato commenti in ottobre sottolineando la sua giurisdizione sulla protezione dei consumatori e sulla concorrenza. Nonostante alcune critiche affermino che ciò possa sfidare le dottrine legali esistenti, la FTC sta cercando di bilanciare l’innovazione con una supervisione responsabile attraverso una serie di iniziative di consulenza e strumenti di applicazione tradizionali.
In definitiva, la FTC sta affrontando il cambiamento tecnologico in modo proattivo, cercando di garantire che l’intelligenza artificiale venga utilizzata in modo equo, sicuro e conforme alle leggi. Questa nuova risoluzione amplia il suo raggio d’azione e pone l’accento sulla necessità di trasparenza, responsabilità e conformità nelle operazioni legate all’IA.