Immagine AI

Quando si pensa all’intelligenza artificiale che conversa con l’utente, capita di immaginare un’interazione piuttosto generica: domande, risposte, suggerimenti. Ma con l’ultima evoluzione di ChatGPT si apre un nuovo capitolo: non più semplicemente un assistente conversazionale, ma un alleato che legge, comprende e agisce anche all’interno del contesto specifico di un’organizzazione.

OpenAI ha introdotto la funzione chiamata “Company Knowledge” per gli utenti Business, Enterprise ed Education, permettendo all’assistente di accedere ai dati aziendali — da strumenti come Slack, Google Drive, SharePoint, GitHub — e di fornire risposte contestuali, integrate e mirate.

Il cuore dell’evoluzione sta nella capacità di ChatGPT di andare oltre la semplice lettura di una domanda: ora, quando un utente chiede “Che cosa dobbiamo presentare al cliente X?” oppure “Quali sono gli aggiornamenti del progetto Y?”, l’assistente può scavare tra chat, documenti, repository e messaggi interni, ricostruire il contesto, individuare punti chiave e rispondere con una bozza o una spiegazione che ha davvero “dentro” la memoria collettiva dell’azienda. È un passo che cambia l’esperienza: non più “facciamo una ricerca esterna e troviamo informazioni”, ma “usiamo ciò che già esiste dentro l’azienda per agire”.

Non si tratta però di un’opzione che va in automatico per tutti: l’attivazione dell’accesso ai dati aziendali richiede che l’amministratore abiliti la funzione e che l’utente dia il consueto livello di autorizzazione. Importante è sapere che le credenziali di accesso, i permessi, le politiche di sicurezza e la crittografia sono stati predisposti da OpenAI per garantire che l’assistente veda solo ciò che l’utente già era autorizzato a vedere. In pratica, non si crea un “occhio totale” dell’intelligenza artificiale sull’azienda, ma si integrano gli strumenti esistenti in modo rispettoso delle credenziali e dei permessi.

Quanto alla tecnologia sottostante, viene comunicato che il sistema è alimentato da una versione avanzata del modello generativo (si parla genericamente di “GPT-5 training” nell’articolo) che è capace di integrare e ragionare su fonti eterogenee, produrre risposte con citazioni chiare degli strumenti interni e fornire visioni più articolate in caso di domande “ambigue” o non specifiche. Da un punto di vista pratico, si ipotizza che un team possa interrogare ChatGPT su “quali decisioni sono ancora aperte in questo progetto” e ricevere un resoconto che combina messaggi Slack, note di riunione su Google Docs e commenti in GitHub, con link attivi alle fonti.

Per un’organizzazione che ha dato valore al know-how distribuito, a documenti sparsi, a conversazioni continue, questa funzionalità assume un significato strategico: riduce il tempo speso a cercare materiali interni, facilita la presa di decisioni, aiuta a non perdere tracce di informazioni critiche che restano “nascoste” in chat o file in cloud. È come se l’assistente diventasse un compagno che sa “cosa sta succedendo” dentro l’azienda, e non solo “cosa potresti chiedermi”.

Di Fantasy