Il percorso evolutivo di Notion nel campo dell’intelligenza artificiale segna un punto di rottura significativo rispetto alle metodologie tradizionali dell’ingegneria del software. Inizialmente, il team di sviluppo aveva approcciato la creazione di agenti basati su modelli linguistici di grandi dimensioni seguendo i binari classici dell’informatica: schemi complessi, istruzioni rigide e una modellazione dei dati estremamente dettagliata. Tuttavia, l’esperienza sul campo ha dimostrato che questo eccesso di tecnicismo, anziché potenziare il sistema, finiva per appesantirlo. Ryan Nystrom, responsabile dell’ingegneria dell’intelligenza artificiale presso Notion, ha raccontato come la vera chiave del successo sia stata invece una drastica semplificazione, preferendo la chiarezza del linguaggio naturale alla rigidità del codice puro.
Questa nuova filosofia di design si è concretizzata nella terza versione del software di Notion, lanciata a settembre, che ha introdotto agenti AI personalizzabili capaci di integrarsi nei flussi di lavoro in modo quasi invisibile. Il miglioramento non è stato incrementale ma ha rappresentato un vero e proprio salto di qualità, descritto dagli sviluppatori come la sensazione di un prodotto che viene “tirato fuori” dalle necessità dell’utente anziché essere forzato verso di esso. La scoperta fondamentale del team è stata che i modelli linguistici non hanno bisogno di regole codificate su come comportarsi in ogni scenario, poiché sono progettati per ragionare e interpretare i contenuti proprio come farebbe un essere umano.
Un passaggio cruciale di questa trasformazione ha riguardato il modo in cui i dati vengono presentati all’intelligenza artificiale. Abbandonando formati complessi come JSON o XML, Notion ha scelto di rappresentare le proprie pagine utilizzando il markdown, un linguaggio di markup semplice e leggibile che definisce struttura e significato attraverso testo piano. Questa scelta ha permesso ai modelli di interagire con le informazioni in modo molto più fluido, rendendo la lettura, la ricerca e la modifica dei file un’operazione naturale per l’agente. Di conseguenza, l’azienda ha dovuto riorganizzare i propri sistemi interni, spostando l’attenzione sul livello di transizione che funge da ponte tra l’utente e l’intelligenza artificiale.
Oltre alla semplicità del linguaggio, un altro fattore determinante per le prestazioni degli agenti è stata la gestione del contesto. Sebbene la tentazione comune sia quella di fornire al modello la maggior quantità possibile di informazioni, il team di Notion ha identificato un limite ottimale oltre il quale l’accuratezza e la velocità iniziano a degradare pericolosamente. Troppi dati finiscono per confondere il ragionamento della macchina, aumentando la latenza e riducendo la precisione delle risposte. Per questo motivo, si è scelto di adottare un approccio spartano, limitando le informazioni fornite e curando attentamente il menu degli strumenti messi a disposizione dell’agente.
In ultima analisi, il successo di Notion AI 3.0 risiede nel ritorno all’essenziale. Evitare la proliferazione infinita di funzionalità e concentrarsi su pochi strumenti ben definiti previene il cosiddetto paradosso della scelta, sia per l’utente che per il modello stesso. Il consiglio che emerge dall’esperienza di Nystrom è quello di non cercare di essere inutilmente elaborati o complicati: l’obiettivo deve essere quello di incanalare la potenza dei modelli attraverso istruzioni semplici e comprensibili, trattandoli non come rigide macchine da programmare, ma come collaboratori a cui fornire indicazioni chiare e contestualizzate.