Immagine AI

In un momento storico in cui l’intelligenza artificiale permea sempre più aspetti della nostra vita quotidiana, dall’assistenza personale alla produttività professionale, emerge un dibattito fondamentale: l’AI può essere progettata in modo etico, trasparente e realmente al servizio dell’essere umano? A questa domanda prova a rispondere TetiAI, un progetto italiano che punta a riscrivere in chiave diversa il rapporto tra persone e intelligenze artificiali, presentato recentemente anche dalla stampa tecnologica italiana.

TetiAI nasce dall’idea di due imprenditori italiani, Marcello Violini e Lorenzo Nargiso, e si presenta come un’alternativa ai tradizionali chatbot che oggi dominano il mercato. La caratteristica che distingue Teti, l’assistente AI sviluppato dalla startup, è la memoria permanente: a differenza dei modelli che rispondono a input isolati e senza contesto, questo sistema è progettato per ricordare preferenze, progetti, informazioni personali e stili di lavoro, così da instaurare un rapporto continuativo con l’utente nel tempo. Questo significa che Teti non si limita a fornire risposte, ma può essere una sorta di alleato cognitivo che accompagna l’utente nei suoi compiti, aiutandolo a riflettere, pianificare e creare piuttosto che sostituirsi a lui.

L’approccio di TetiAI si fonda su un concetto chiave: non sostituire il pensiero umano, ma potenziarlo. Mentre molti sistemi di intelligenza artificiale vengono criticati per promuovere una dipendenza cognitiva — dove l’utente finisce per delegare troppo alle macchine e perde abilità critiche — la filosofia di TetiAI è orientata a uno sviluppo che stimoli l’autonomia, il ragionamento e la creatività delle persone. In questo senso, l’AI non diventa un sostituto del lavoro umano o delle competenze individuali, ma un supporto capace di amplificare le capacità di chi la usa.

Un altro elemento centrale del progetto è la trasparenza e la protezione della privacy. TetiAI ha adottato una Carta Etica e ha istituito un comitato indipendente che guida lo sviluppo del sistema secondo principi chiari e verificabili: l’intelligenza artificiale non deve sfruttare i dati personali per carpirli o monetizzarli, non può essere utilizzata per scopi militari o di sorveglianza, e include protezioni specifiche per utenti in fasce di età più vulnerabili, come gli under 25. Questo quadro mira a creare fiducia e a dimostrare che una tecnologia avanzata non deve necessariamente sacrificare i diritti individuali per funzionare.

La visione dietro TetiAI non si limita a un prodotto tecnologico, ma abbraccia una riflessione più ampia sul ruolo dell’etica nell’intelligenza artificiale. Nel dibattito globale sull’AI etica si parla sempre più spesso di concetti come trasparenza, responsabilità, privacy e rispetto dei diritti umani, che sono riconosciuti come principi fondamentali per lo sviluppo sostenibile di queste tecnologie. Mentre molte aziende e istituzioni lavorano a linee guida e regolamentazioni — come ha fatto l’Unione Europea con l’AI Act, un regolamento che mira a normare l’uso e lo sviluppo dell’intelligenza artificiale su un quadro giuridico condiviso — progetti come TetiAI cercano di tradurre questi principi in realtà pratiche e quotidiane.

Questo nuovo tipo di assistente, con una memoria permanente e un orientamento human-centric, apre anche scenari interessanti sul modo in cui pensiamo all’interazione con le macchine intelligenti. Se da un lato l’AI oggi può automatizzare compiti e fare previsioni, TetiAI propone di farla diventare uno strumento che “impara con” l’utente e “cresce con” lui, consolidando conoscenze e contesti nel tempo anziché dimenticarli alla chiusura di ogni conversazione. È una visione che sfida l’idea di AI come mero fornitore di risposte e spinge verso un modello di cooperazione cognitiva tra uomo e macchina.

Nonostante le grandi promesse, resta da osservare come questo tipo di approccio si confronterà con le sfide tecniche, etiche e normative che accompagnano l’adozione dell’intelligenza artificiale su larga scala. Questioni come la tutela dei dati sensibili, il potenziale di bias nei modelli e le implicazioni sociali di un’assistenza AI di lungo termine richiedono non solo sviluppi tecnologici, ma anche un dialogo continuo con filosofi, regolatori, educatori e cittadini.

Di Fantasy