Home / Società / L’intelligenza artificiale dovrebbe intervenire se rileva dei testi suicidi ?

L’intelligenza artificiale dovrebbe intervenire se rileva dei testi suicidi ?

Ho pensato al suicidio così tanto oggi mi sta spaventando’: l’intelligenza artificiale dovrebbe intervenire sui testi suicidi?

Rilevamento del comportamento AI
L’intelligenza artificiale che rileva quando ti stai comportando diversamente può aiutare a migliorare le relazioni delle persone. Ma quali sono le implicazioni morali quando quel comportamento si riferisce alla depressione o al suicidio? MEI

La tecnologia è spesso vista come l’esatto opposto dell’emozione. I robot nei film sono ritratti come assassini insensibili o incapaci di provare un’emozione senza esplodere – con l’implicazione che i sentimenti umani sono troppo complessi per essere gestiti dai computer. Ma questo non è più il caso, dal momento che l’IA ora può registrare segnali emotivi , rispondere in modo appropriato e persino costruire un profilo emotivo usando informazioni come messaggi di testo o post sui social media.

Confrontando le comunicazioni con i modelli di comportamento “normali”, l’IA può rilevare depressione e intenzioni suicide e contribuire ad evitare potenziali situazioni di crisi. Tuttavia, le implicazioni morali dell’intervento dell’IA in tali scenari sono controverse e l’efficacia delle app per la salute mentale viene già messa in discussione.

Le app per la consapevolezza progettate per alleviare lo stress quotidiano e l’ansia stanno rapidamente diventando un’industria da molti milioni di dollari , ma ci sono legittime preoccupazioni sulla loro mancanza di approvazione clinica. Con app come queste che guadagnano notorietà tra i professionisti della salute mentale , l’AI potrebbe aiutare ad affrontare i problemi emotivi alla fonte, o c’è il pericolo che le persone utilizzino questi servizi come sostituto della terapia clinicamente approvata?

C

“La gente pensa che i robot siano l’inverso completo delle emozioni”, afferma Es Lee, fondatore della startup newyorkese Mei , “ma le emozioni sono il caso d’uso perfetto per l’intelligenza artificiale, perché non siamo sempre a nostro agio a parlare delle nostre emozioni con altri persone.’ Mei è principalmente un’app di messaggistica per Androidche sostituisce l’app SMS standard (iOS è in esecuzione), ma include un algoritmo opzionale che utilizza l’elaborazione del linguaggio naturale per aiutare gli utenti con le loro relazioni. L’utilizzo dell’IA per riconoscere i pattern nelle conversazioni non è una novità, ma Mei crea anche un profilo emotivo degli utenti e delle loro interazioni con i contatti, al fine di fornire “consigli sommariamente” agli utenti sul tono che potrebbero usare in una conversazione o suggerire di raggiungere a qualcuno che sembra comportarsi diversamente. ‘Nella versione iniziale, quando vide un paio di anomalie, Mei avrebbe detto: “Ehi, stai interagendo in modo diverso con Tom, va tutto bene?” “L’app registrerebbe quindi le risposte di un utente (sì o no, con l’opzione di dare più informazioni) per capire meglio la loro relazione con quella persona.

Ma il team di Mei ha scoperto rapidamente che potevano tracciare più di semplici relazioni con gli utenti, e si rese conto che la mole di dati che avevano – “l’utente medio ha circa un romanzo di messaggi nella loro storia SMS”, dice Lee – potrebbe consentire loro per controllare comportamenti molto più sfumati come la depressione e le intenzioni suicide, persino acquisendo intuizione che gli psichiatri non potevano. “Abbiamo chiesto ai professionisti della salute mentale,” come fai a sapere se qualcuno è depresso? Quali sono le parole che usano? “Non una sola persona potrebbe rispondere a questo”, dice Lee. Su una semplice scansione del database di Mei, il team ha rilevato “centinaia di casi di contatti che hanno usato la frase” tentato di uccidermi “[e] una decina di esempi di utenti che hanno dato una data effettiva quando hanno tentato il suicidio, cosa che ha permesso noi per identificare gli schemi nelle loro comunicazioni prima di quello.

Angelo custode?

Questo livello di conoscenza degli utenti e delle loro conversazioni con i contatti è possibile solo a causa della natura del set di dati. Esiste un precedente legale negli Stati Uniti ( Stato contro Marcum e Stato contro Ryan H. Tentoni) che, una volta inviati, gli utenti non hanno più “una ragionevole aspettativa di privacy” sui propri messaggi SMS, consentendo loro di essere di dominio pubblico. Lee sottolinea che Mei ‘[non] conosce l’identità dei nostri utenti, abbiamo solo il numero di telefono che è sottoposto a un ID che è accessibile solo internamente a un numero molto ristretto di persone’ e che Mei intende rimuovere questo umano nel loop il prima possibile ‘in modo che un algoritmo possa farlo da solo’. Usando questa intuizione nelle conversazioni di testo dei loro utenti (e le risposte che i loro contatti rimandano indietro), Mei può ‘osservare anomalie in tutte le conversazioni e dire cose come “hey sembri diverso in generale, va tutto bene?”‘

L’analisi di questi dati offre a Mei una prospettiva senza precedenti sulla salute mentale e su come si manifesta nella conversazione e fornisce un modello di comunicazione depressiva o suicida che semplicemente non esisterebbe altrimenti. “Quando chiedevamo agli psichiatri se ci fosse qualcuno che avrebbe potuto passare attraverso [depressione o pensieri suicidi] in modo da poter osservare il loro comportamento linguistico, ci veniva sempre data una risposta in merito alle preoccupazioni sulla privacy, o persone che dicevano” non abbiamo i dati “Ora che i dati esistono, sono” protetti in ogni fase del percorso “e forniti consensualmente quando l’IA è accesa (tramite ‘un enorme messaggio a comparsa non andare oltre se sei non a suo agio con [i tuoi dati raccolti] ‘), rimangono le ovvie domande su come Mei dovrebbe gestire questi dati, se intraprendere qualsiasi azione,l’arduo processo di ricevere cure .

L’imperativo morale

Facebook ha lanciato un progetto simile negli Stati Uniti nel 2017 , in base al quale la piattaforma monitora i messaggi degli utenti per i segnali di allarme prima di contattare l’utente, i suoi amici o anche le forze dell’ordineper fornire aiuto. Lee afferma chiaramente che questo è contrario a quello che sta cercando di ottenere Mei e che contattando direttamente le autorità, Facebook “è stato superfluo, non era nel loro diritto farlo”. Prendendo una posizione meno attiva, Mei trova invece “quale dei tuoi contatti è il più simpatico, altruista, che si prende cura di te e ti rimanda a quella persona” come mezzo per fornire una soluzione al problema. Questo approccio pone Mei in un’area più grigia in termini di integrazione o sostituzione della terapia, ma come afferma Lee, “molti sanno [servizi di salute mentale] esistono e non raggiungono a causa dello stigma molto reale … per un sacco di gente l’unica cosa che potrebbe aiutarli è qualcuno a cui importa mostrare loro che contano “.

Suggerire un contatto per raggiungere o chiedere a qualcuno di fare il check-in al proprio amico viene fornito con una serie di dilemmi morali (il contatto suggerito potrebbe non essere in grado di fornire il supporto emotivo necessario o il set di dati SMS potrebbe non essere rappresentativo di un rapporto di vita reale) ma è probabilmente meno invadente di contattare direttamente le autorità. I messaggi di Mei sono sempre attenti ‘a non suggerire che c’è qualcosa [sbagliato], e usano un testo morbido come “non fa male al check-in”, “ma con così tanti fattori sfumati in gioco in un’arena così sensibile, l’IA coinvolto non ha spazio per fare errori o passi falsi sociali – qualcosa che l’ intelligenza artificiale non ha tradizionalmente eccelso . Mei offre agli utenti il ​​diritto di essere dimenticati (qualcosa che non è richiesto dalle normative statunitensicome è in Europa) e Lee afferma “è del tutto normale che le persone non contribuiscano alla conoscenza collettiva e continuino a utilizzare l’app di messaggistica”. In effetti, gli utenti di Mei diminuiscono di circa la metà al punto di chiedere se vogliono accendere l’intelligenza artificiale, ma “la grande maggioranza delle risposte diciamo che vogliono che prendiamo più dati, perché Mei li aiuta”.

Una materia grigia

Mei focalizza l’attenzione sul dibattito sull’etica dell’uso dell’intelligenza artificiale per migliorare la salute mentale e sul fatto che le persone a rischio di suicidio possano essere tenute in condizione di fornire il loro consenso in caso di grave disagio. Sebbene le operazioni di Mei siano trasparenti e gli utenti ottengano crediti per le loro risposte, il che significa che “hanno effettivamente pre-acquistato tutti i nuovi servizi che ci vengono proposti”, il trattamento di tali dati sensibili in primo luogo sembra rischioso con violazioni dei dati ad un livello sempre più alto e risorse per la salute mentale tese .

Poiché la tecnologia apporta rapidi miglioramenti alla nostra vita quotidiana, ei giganti dei dati continuano a raccogliere i nostri dati , i limiti legislativi che proteggono gli individui vulnerabili da soluzioni non verificate o lo sfruttamento potrebbero dover essere mantenuti, nonostante le lunghe attese per il trattamento della salute mentale. Ma se l’intelligenza artificiale può rassicurare una persona instabile a cui è affidata in un momento cruciale, o aiutarli a raggiungere una persona cara mentre aspettano il trattamento, i benefici potrebbero superare i rischi?

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi