L’intelligenza artificiale è incompatibile con il futuro della comunicazione: ecco perché


Il futuro del lavoro non è più solo un concetto, ma una realtà – Covid-19 si è assicurato di questo. La pandemia ha accelerato l’innovazione sul posto di lavoro in tutti i settori fino al punto di non ritorno, con le aziende contemporanee che ora fanno quasi interamente affidamento sulle nuove tecnologie semplicemente per esistere.

Quale ruolo deve quindi svolgere l’intelligenza artificiale (AI) in questo drastico cambiamento? Da qualche tempo, ho fermamente sostenuto la convinzione che l’IA avrebbe assunto la maggior parte del lavoro guidato dai processi entro 15 anni. Tuttavia, con anni di sviluppi chiave nel mondo del lavoro che sono stati recentemente stipati in pochi mesi, il futuro si è sviluppato in modo molto diverso da come immaginavamo.

Anziché realizzare un’attenta pianificazione, le aziende sono state spinte in questo nuovo modo di lavorare. Senza dubbio, molti erano impreparati per questo e hanno dovuto muoversi rapidamente per mettere in atto soluzioni di lavoro a distanza per far andare avanti le attività. Semplicemente non hanno avuto il tempo di gestire il cambiamento e implementare soluzioni basate sull’intelligenza artificiale.

Tuttavia, molti prevedono che vedremo il lavoro a distanza diventare parte della “nuova normalità” anche dopo che le misure di blocco sono state allentate. Aziende come Twitter, ad esempio, hanno già annunciato che i loro dipendenti possono lavorare da casa a tempo indeterminato. Supponendo che la tendenza crescente verso il lavoro remoto permanente continui, le organizzazioni dovranno considerare attentamente le soluzioni di intelligenza artificiale a cui si rivolgono per automatizzare il lavoro guidato dai processi. Tuttavia, in che modo ciò influisce sulle considerazioni sulla sicurezza necessarie per rendere efficace il funzionamento remoto per le aziende?

Ogni volta che inviamo un messaggio a un collega o condividiamo un file aziendale, condividiamo elettronicamente bit di dati. I dati, ovviamente, sono la linfa vitale di ogni organizzazione moderna, quindi quando vengono condivisi, devono essere fatti in modo sicuro. Se aggiungiamo l’intelligenza artificiale al mix, incontriamo un potenziale problema di sicurezza dei dati.

Questo perché, fondamentalmente, l’IA ha bisogno dei dati per funzionare correttamente. Il suo scopo è di accedere ai dati, analizzarli e generare risultati migliori per le organizzazioni attraverso l’automazione. In tal modo, sostituisce determinate attività, ma consente anche ai dipendenti di eseguire i lavori esistenti in modo più efficace.


Costruire un motore empatico per l’istruzione superiore
Tuttavia, nonostante l’aumento della produttività, questa nuova era del telelavoro non si presta necessariamente all’intelligenza artificiale utilizzata in modo appropriato quando si tratta della trasmissione sicura dei dati. Le comunicazioni basate sull’intelligenza artificiale sono vulnerabili ai difetti di sicurezza quanto quelle eseguite dagli umani.

Ciò è particolarmente evidente quando osserviamo attentamente il tipo di tecnologia utilizzata dalle aziende per comunicare internamente, un componente cruciale di qualsiasi modello di business al di fuori delle quattro mura di un ufficio. Secondo Morten Brøgger, CEO della piattaforma di messaggistica e collaborazione Wire , l’IA potrebbe non essere così intrecciata con il futuro del lavoro come pensiamo: “L’IA e il futuro del lavoro non sono necessariamente compatibili. Sicuramente non nel mercato della collaborazione e della comunicazione o nel futuro del lavoro 2.0. ”

Brøgger continua: “Il motivo è che se inizi a sviluppare molta intelligenza artificiale negli strumenti di comunicazione, ciò significa sorveglianza per i tuoi utenti, il che costituisce una chiara violazione della loro privacy. Se hai bisogno di un’intelligenza artificiale, devi disporre dei dati per esaminare i modelli comportamentali. Ciò significa interrompere la crittografia end-to-end, perché ci sarà una macchina che riceverà una copia di tutto ciò che un utente sta facendo. ”

Wire è uno dei tanti strumenti di collaborazione che hanno consentito a molte organizzazioni di continuare a operare durante COVID-19. Ha trovato la sua nicchia rivolgendosi in particolare alle grandi imprese già nel 2017, che Brøgger ritiene abbia una comprensione avanzata dell’importanza della sicurezza e della privacy. Con il suo gruppo dirigente composto da ex dipendenti di Skype, l’azienda ora si posiziona come una missione per cambiare il modo in cui i dipendenti comunicano sul posto di lavoro.

Sebbene le organizzazioni possano integrare in modo sicuro la tecnologia dell’IA, questa brusca nuova iterazione del posto di lavoro in cui ci siamo improvvisamente trovati è forse andata in qualche modo per esporre perché l’IA non è la panacea per tutto – almeno non senza un’attenta pianificazione della sicurezza all’inizio .

Come osserva Brøgger: “C’erano molte aziende che erano sostanzialmente catturate in questa situazione e che non erano pronte per questo. Quindi, come possono realizzare infrastrutture sufficientemente sicure da consentire alle persone di lavorare da casa e lavorare su cose assolutamente confidenziali? Non ci sono più regole globali, nessuna taglia è adatta a tutti. Non è così che va il mondo, anche con la collaborazione. “

È chiaro che il mondo del lavoro sta cambiando, sebbene ci sia voluta una pandemia per accelerare quel cambiamento. Le aziende devono fare il punto su come possono sfruttare al massimo gli strumenti a loro disposizione per ridurre le inefficienze, e continuo a sostenere che l’IA è, in molti modi, al centro di ciò. Ma deve essere fatto in un modo che non vada a scapito della violazione della sicurezza di un’azienda e della messa a rischio dei suoi dati più preziosi.

Di ihal