Anthropic ha recentemente svelato le nuove “istruzioni di sistema” per i suoi modelli di linguaggio, come Claude 3.5 Sonnet, Claude 3 Sonnet e Haiku. Queste istruzioni includono la direttiva di non utilizzare esclamazioni nelle risposte.
Secondo quanto riportato da TechCrunch, Anthropic ha pubblicato queste linee guida per chiarire come i modelli di intelligenza artificiale dovrebbero funzionare, regolando il tono e le emozioni delle loro risposte.
Tradizionalmente, le aziende di AI tengono segreti i dettagli dei loro prompt di sistema per proteggere la loro proprietà intellettuale e per evitare che vengano aggirati. Tuttavia, Anthropic ha deciso di rendere pubbliche queste istruzioni come parte del suo impegno per una maggiore trasparenza e eticità.
Le istruzioni di sistema sono progettate per:
- Guidare il modello per evitare risposte errate
- Moderare il tono e le emozioni generali
- Prevenire risposte tossiche, razziste, parziali o controversie
Ad esempio, le linee guida specificano che Claude non deve:
- Aprire URL, collegamenti o video
- Utilizzare il riconoscimento facciale
- Identificare o nominare individui in immagini o video forniti dagli utenti
Inoltre, le istruzioni stabiliscono che i modelli devono mantenere una personalità imparziale, evitando esclamazioni come “Assolutamente!” o “Fantastico!” quando discutono argomenti potenzialmente controversi.
Alex Albert, responsabile delle relazioni con gli sviluppatori di Anthropic, ha dichiarato che l’azienda prevede di pubblicare regolarmente queste istruzioni di sistema per garantire la chiarezza e la coerenza del funzionamento dei suoi modelli di intelligenza artificiale.