In un’epoca in cui la neutralità giornalistica può celare opinioni e influenze sotterranee, un nuovo sistema chiamato JOA-ICL (Journalism-Guided Agentic In-Context Learning) promette di portare alla luce le vere intenzioni degli articoli lunghi, anche quando sono mascherate da citazioni, inquadrature o un’apparente “obiettività”. Grazie a un approccio gerarchico che scompone i testi in parti strutturali — titolo, incipit, citazioni e conclusione — e affida a modelli di linguaggio dedicati il compito di valutare ogni segmento, JOA-ICL ottiene performance superiori rispetto ai metodi tradizionali sia nella lingua coreana che in quella tedesca. I risultati, ottenuti su un database di 2.000 articoli annotati da esperti, mostrano un miglior riconoscimento delle posizioni “favorevoli”, storicamente più difficili da individuare, aprendo scenari promettenti non solo per l’analisi del bias, ma anche per l’evoluzione stessa del giornalismo e della trasparenza informativa.
Il linguaggio giornalistico, soprattutto negli articoli di approfondimento, evita quasi mai dichiarazioni di parte esplicite, preferendo segnali impliciti come la scelta delle fonti, la cornice narrativa o addirittura il silenzio su alcuni dettagli. Queste sfumature rendono l’interpretazione automatica particolarmente ostica: un semplice sistema di classificazione sentence-by-sentence (ad esempio “supporto” vs “opposizione”) non è sufficiente quando i segnali sono dispersi e stratificati lungo tutto il testo.
I modelli pre-addestrati soffrono di vincoli sul numero di token gestibili in un’unica interrogazione, il che penalizza l’analisi di testi lunghi come i saggi o le inchieste giornalistiche. Mentre per tweet o post brevi il rapporto testo-intento è più diretto, negli articoli professionali le posizioni si insinuano attraverso citazioni contrastanti e sfumature di tono che un classico approccio “end-to-end” rischia di perdere.
JOA-ICL innova suddividendo ogni articolo in parti chiave — titolo, lead, citazioni e conclusione — e assegnando a un “agent” ridotto il compito di valutare la stance di ciascun segmento. Solo in un secondo momento un modello più grande aggrega queste valutazioni locali per definire la posizione complessiva dell’articolo.
A differenza dei sistemi che si limitano a fornire esempi generici nel prompt, JOA-ICL sfrutta esempi specifici per ogni tipo di segmento, in linea con le pratiche redazionali professionali. Questo “in-context learning” segment-aware consente di mantenere coerenza con le modalità di scrittura dei giornalisti ed è alla base dei successi sperimentali riportati dagli autori.
Fra giugno 2022 e giugno 2024 è stata raccolta una base di 2.000 articoli da 31 testate coreane, scegliendo soltanto generi “analisi” e “opinione”, dove il framing soggettivo è più probabile. Ogni articolo è stato etichettato due volte: una per la posizione globale sul tema e una per i singoli segmenti, per un totale di 19.650 etichette segmentali ottenute con il supporto di esperti di studi sui media.
Per il “fine-tuning” sono stati utilizzati sia modelli autoregressivi di ultima generazione (GPT-4o-mini, Claude 3 Haiku, Gemini 2 Flash) che encoder-decoder come LKI-BART e PT-HCL. Il ciclo di addestramento ha impiegato tre GPU RTX A6000, framework PyTorch 2.5.1 e librerie Transformers 4.52.0, con tecniche di few-shot basate su similarità semantica (KLUE-RoBERTa-large).
JOA-ICL ha ottenuto il miglior macro-F1 e accuratezza su tutte e tre le architetture testate, primeggiando soprattutto nell’individuazione delle stance “favorevoli”, un punto debole dei sistemi concorrenti: la versione Claude ha raggiunto il 64,8% di macro-F1 e il 66,1% di accuratezza, contro valori inferiori per RoBERTa e CoT embeddings fine-tuned. Anche nel dataset tedesco CheeSE, privo di annotazioni segmentali, JOA-ICL ha mantenuto un vantaggio netto, sfruttando il “distant supervision” e dimostrando che il metodo è adattabile a lingue diverse senza perdere efficacia.
L’approccio segment-aware apre nuove strade non solo per il monitoraggio del bias nei media, ma anche per la gestione della trasparenza editorial e per strumenti di fact-checking più sofisticati. Un’area ancora poco esplorata riguarda il ruolo dei link ipertestuali: spesso scelti in modo selettivo per rinviare a risorse concordi con la testata, potrebbero costituire un ulteriore indicatore di “agenda” non dichiarata. Affinare l’analisi includendo questo elemento potrebbe ulteriormente potenziare la capacità di AI nell’identificare la retorica implicitamente politica.