Il noto fornitore di servizi di videoconferenza e messaggistica Zoom è al centro di una controversia a seguito delle modifiche silenziose apportate ai suoi Termini di servizio (TOS) a marzo riguardanti l’intelligenza artificiale, sollevando serie preoccupazioni sulla privacy, la scelta e la fiducia dei clienti. Queste preoccupazioni riguardano non solo Zoom, ma tutte le aziende che utilizzano l’intelligenza artificiale in un momento in cui il dibattito sull’uso dei modelli linguistici di grandi dimensioni (LLM) addestrati sui dati delle persone è in aumento. Tuttavia, la situazione è particolarmente critica per Zoom, che è diventato un nome familiare per una vasta gamma di utilizzi, dalle riunioni in ufficio all’istruzione a distanza.

La notizia delle modifiche ai TOS di Zoom è stata divulgata attraverso un post su X (ex Twitter) di Ted Gioia, che ha accumulato oltre 2 milioni di visualizzazioni. In risposta al tumulto, Zoom ha rilasciato una dichiarazione su X (ex Twitter), sottolineando il loro impegno per la trasparenza e il controllo degli utenti e fornendo chiarezza su come gestiscono le funzionalità AI e la condivisione dei contenuti dei clienti per migliorare il prodotto. Tuttavia, un post successivo sul blog dell’azienda ha lasciato molti utenti confusi riguardo alle politiche AI e al consenso dei clienti.

Le nuove funzionalità di intelligenza artificiale generativa di Zoom, come Zoom IQ Meeting Summary e Zoom IQ Team Chat Compose, hanno suscitato preoccupazione tra gli utenti. Sebbene Zoom abbia assicurato che i proprietari e gli amministratori degli account possono controllare queste funzionalità, molti utenti hanno evidenziato che l’opzione di disattivarle non è chiaramente presentata agli utenti durante le chiamate. Ciò ha sollevato domande sulla reale possibilità per gli utenti di lasciare una riunione di lavoro o un’aula virtuale senza dover accettare l’uso dei propri dati per l’addestramento dell’intelligenza artificiale.

Il problema più ampio riguarda la comprensione da parte degli utenti di come le aziende utilizzano i loro dati, specialmente quando si tratta di dati audio e video. Anche se viene data loro la possibilità di esercitare scelte, il linguaggio tecnico e la complessità dei documenti legali possono rendere difficile per la maggior parte delle persone capire come vengono utilizzati i loro dati.

Questo non è il primo caso in cui Zoom è stato coinvolto in controversie riguardanti l’uso dell’IA nei suoi prodotti. In passato, la società è stata criticata per la possibile inclusione di funzionalità di intelligenza artificiale emotiva, considerata una violazione della fiducia degli utenti e un espediente di marketing.

L’attuale controversia sta mettendo Zoom sotto una luce negativa in un momento critico per la sua attività. Dopo aver beneficiato del boom del lavoro da remoto durante la pandemia di COVID-19, l’azienda ha subito un calo delle azioni quando le persone hanno iniziato a tornare al lavoro in ufficio. La reputazione compromessa potrebbe allontanare ulteriormente gli utenti.

Questa discussione va oltre Zoom e riguarda tutte le aziende tecnologiche e gli editori che utilizzano l’intelligenza artificiale. Come l’America aziendale affronterà lo sfruttamento dell’IA mantenendo al contempo la fiducia, la privacy e il consenso dei clienti? Zoom e altre aziende possono imparare dall’epico fallimento delle pubbliche relazioni di Zoom riguardo a questo tema.

Un portavoce di Zoom ha cercato di rassicurare gli utenti, affermando che i clienti hanno il potere di abilitare o disabilitare le funzionalità di intelligenza artificiale generativa e la condivisione dei contenuti dei clienti per il miglioramento del prodotto. Hanno ribadito che non verranno utilizzati contenuti audio, video o chat dei clienti per addestrare i modelli di intelligenza artificiale senza il consenso degli utenti.

In sintesi, la situazione attuale solleva gravi questioni sulla privacy e la fiducia dei clienti riguardo all’uso dell’intelligenza artificiale e dei dati personali da parte di Zoom e altre aziende. È essenziale fornire maggiore chiarezza e trasparenza nelle politiche riguardanti l’IA e il consenso dei clienti per garantire un rapporto di fiducia tra le aziende e i loro utenti.

Di Fantasy