COSA SUCCEDE QUANDO UN ALGORITMO TAGLIA LA TUA ASSISTENZA SANITARIA
Per la maggior parte della sua vita, Tammy Dobbs, che ha una paralisi cerebrale, ha fatto affidamento sulla sua famiglia nel Missouri per le cure. Ma nel 2008, si è trasferita in Arkansas, dove ha firmato un programma statale che prevedeva un custode per darle l’aiuto di cui aveva bisogno.
Lì, nell’ambito di un programma di esonero Medicaid, i valutatori hanno intervistato i beneficiari e hanno deciso con quale frequenza il curatore doveva visitare. I bisogni di Dobbs erano ampi. La sua malattia l’ha lasciata su una sedia a rotelle e le sue mani si sono irrigidite. I compiti più basilari della vita: alzarsi dal letto, andare in bagno, fare il bagno, richiedere l’assistenza, per non parlare dei viaggi in cortile che lei ha apprezzato. L’infermiera che ha valutato la sua situazione ha assegnato a Dobbs 56 ore di visite domiciliari a settimana, il massimo consentito dal programma.
Per anni, è riuscita bene. Un aiutante arrivò ogni giorno alle 8 del mattino, aiutò Dobbs a uscire dal letto, nel bagno, e poi preparò la colazione. Sarebbe tornata a pranzo, poi di nuovo la sera per cena e tutti i compiti domestici che dovevano essere fatti, prima di aiutare Dobbs a letto. Gli ultimi momenti erano particolarmente importanti: dovunque Dobbs fosse stata posta a dormire, sarebbe rimasta fino a quando l’assistente non fosse tornato dopo 11 ore.
Dobbs ricevette regolari rivalutazioni dei suoi bisogni, ma non la preoccuparono. Dopo tutto non sarebbe stata in grado di riprendersi, quindi non sembrava probabile che sarebbero state apportate modifiche alle sue cure.
Quando un valutatore è arrivato nel 2016 e ha esaminato la sua situazione, è stato un processo familiare: quanto aiuto aveva bisogno di usare il bagno? Che ne dici di mangiare? Com’è stato il suo stato emotivo? La donna digitò le note su un computer e, quando fu tutto finito, diede a Dobbs un verdetto scioccante: le sue ore sarebbero state tagliate, a solo 32 alla settimana.
Dobbs dice che è diventata “balistica” per la donna. Ha supplicato, spiegando come questo semplicemente non fosse abbastanza, ma nessuno di loro, dice Dobbs, sembrava aver capito abbastanza bene cosa stava succedendo. La situazione di Dobbs non era migliorata, ma si era verificato un cambiamento invisibile. Quando il valutatore inserì le informazioni di Dobbs nel computer, passò attraverso un algoritmo che lo stato aveva recentemente approvato, determinando quante ore di aiuto avrebbe ricevuto.
Altre persone in tutto lo stato stavano anche lottando per capire i cambiamenti spesso drastici. Mentre le persone coinvolte nel programma si sono parlate, centinaia di loro si sono lamentate del fatto che la loro più importante linea di vita era stata tagliata, e non erano in grado di capire perché.
Gli strumenti algoritmici come quello dell’Arkansas istituito nel 2016 sono dovunque, dall’assistenza sanitaria alle forze dell’ordine, alterando le vite in modi che le persone colpite di solito possono solo intravedere, se sanno di essere utilizzate. Anche se i dettagli degli algoritmi sono accessibili, il che non è sempre il caso, spesso sono al di là della comprensione anche delle persone che li usano, sollevando domande su cosa significhi trasparenza in un’età automatizzata e preoccupazioni sulla capacità delle persone di contestare decisioni prese dalle macchine.
DOBBS HA SCRITTO CHE L’ISTITUZIONALIZZAZIONE SAREBBE UN “INCUBO”
Pianificando il taglio in cura, Dobbs calcolò di cosa poteva fare a meno, scegliendo tra una visita in chiesa o la pulizia della casa. Si era sempre dilettata nella poesia, e in seguito scrisse un semplice pezzo di sette strofe chiamato “Hour Dilemma”, diretto verso lo stato. Ha scritto che l’istituzionalizzazione sarebbe un “incubo” e ha chiesto allo stato “di tornare alla valutazione basata sull’uomo”.
Il cambiamento lasciò Dobbs in una situazione in cui non avrebbe mai pensato di essere presente, poiché il programma su cui aveva fatto affidamento per anni cadde da sotto di lei. “Pensavo che si sarebbero presi cura di me”, dice.
L’algoritmo che ha sconvolto la vita di Dobbs è lungo quando stampato, su circa 20 pagine. Sebbene sia difficile da decifrare senza l’aiuto di un esperto, l’algoritmo calcola circa 60 descrizioni, sintomi e disturbi (febbre, perdita di peso, uso del ventilatore) in categorie, ciascuna corrispondente a un numero di ore di assistenza domiciliare.
Come molte industrie, l’assistenza sanitaria è passata all’automazione per l’efficienza. L’algoritmo utilizzato in Arkansas è uno di una famiglia di strumenti, che tentano di fornire un’istantanea della salute di una persona al fine di informare le decisioni sull’assistenza ovunque, dalle case di cura agli ospedali e alle prigioni.
Lo strumento utilizzato in Arkansas è stato progettato da InterRAI, una associazione senza scopo di lucro di ricercatori sanitari di tutto il mondo. Brant Fries, professore all’Università del Michigan nel Dipartimento di gestione e politica sanitaria della scuola, che ora è il presidente di InterRAI, ha iniziato a sviluppare algoritmi negli anni ’80, inizialmente destinati alle case di cura. Gli strumenti sono concessi in licenza ai fornitori di software per un “piccolo royalty”, dice, e agli utenti viene chiesto di inviare i dati a InterRAI. Gli strumenti del gruppo sono utilizzati in contesti sanitari in quasi la metà degli Stati Uniti, così come in diversi paesi.
GLI STATI UNITI SONO INADEGUATAMENTE PREPARATI A PRENDERSI CURA DI UNA POPOLAZIONE CHE VIVE PIÙ A LUNGO
Nell’assistenza domiciliare, il problema dell’assegnazione dell’aiuto è particolarmente acuto. Gli Stati Uniti sono inadeguatamente preparati a prendersi cura di una popolazione che vive più a lungo e la situazione ha causato problemi sia per le persone che hanno bisogno di assistenza che per gli assistiti stessi, alcuni dei quali affermano di essere portati a lavorare in orari non retribuiti. A mano a mano che i bisogni aumentano, gli stati sono stati spinti a cercare nuovi modi per contenere i costi e distribuire le risorse che hanno.
Gli Stati hanno intrapreso percorsi divergenti per risolvere il problema, secondo Vincent Mor, un professore Brown che studia politica sanitaria ed è membro di InterRAI. La California, dice, ha un sistema di assistenza domiciliare molto esteso e multistrato, mentre alcuni stati più piccoli si affidano esclusivamente a valutazioni personali. Prima di utilizzare il sistema algoritmico, i valutatori dell’Arkansas avevano ampio margine per assegnare le ore che ritenevano fossero necessarie. In molti stati, “si soddisfano i requisiti di idoneità, un responsabile del caso o un infermiere o assistente sociale realizzerà un piano personalizzato per te”, dice Mor.
L’Arkansas ha detto che il precedente sistema basato sull’uomo era maturo per favoritismi e decisioni arbitrarie. “Sapevamo che ci sarebbero stati cambiamenti per alcune persone perché, ancora una volta, questa valutazione è molto più obiettiva”, ha detto un portavoceall’Arkansas Times dopo l’implementazione del sistema. I beneficiari dell’aiuto hanno indicato una mancanza di prove che dimostrano tale pregiudizio nello stato. I funzionari dell’Arkansas sostengono anche che una notevole percentuale di persone ha avuto le loro ore alzate, mentre i destinatari sostengono che lo stato non è stato in grado di produrre dati sulla portata dei cambiamenti in entrambe le direzioni. Il Dipartimento dei Servizi Umani dell’Arkansas, che amministra il programma, ha rifiutato di rispondere a qualsiasi domanda per questa storia, citando una causa che si svolge nella corte statale.
Quando sistemi sanitari simili sono stati automatizzati, non sempre hanno funzionato in modo impeccabile e i loro errori possono essere difficili da correggere. La studiosa Danielle Keats Citron cita l’esempio del Colorado, dove i codificatori hanno inserito più di 900 regole errate nel proprio sistema di benefici pubblici a metà degli anni 2000, causando problemi come le donne incinte che sono state private di Medicaid. Questioni simili in California, Citron scrive in un articolo, ha portato a “pagamenti in eccesso, pagamenti insufficienti e terminazioni improprie di benefici pubblici”, poiché ai bambini in affidamento è stato erroneamente negato Medicaid. Citron parla della necessità di un “processo tecnologico appropriato” – l’importanza di comprendere sia quanto sta accadendo nei sistemi automatizzati sia di aver ricevuto modi significativi per metterli in discussione.
I critici sottolineano che, quando si progettano questi programmi, gli incentivi non sono sempre allineati con interfacce semplici e processi intelligibili. Virginia Eubanks, l’autrice di Automating Inequality , afferma che molti programmi negli Stati Uniti sono “premeditati sull’idea che il loro primo lavoro sia la diversione,” l’aumento delle barriere ai servizi ea volte rendere il processo così difficile da navigare “che ciò significa solo che le persone che hanno davvero bisogno di questi servizi non sono in grado di ottenerle “.
Uno dei casi più bizzarri è accaduto in Idaho, dove lo stato ha fatto un tentativo, come l’Arkansas, di istituire un algoritmo per allocare fondi per l’assistenza domiciliare e l’integrazione della comunità, ma lo ha costruito internamente. Il programma di assistenza domiciliare dello stato calcolava quanto costerebbe alle persone con disabilità gravi, quindi assegnava i fondi per pagare aiuto. Ma intorno al 2011, quando fu istituita una nuova formula, quei fondi improvvisamente diminuirono precipitosamente per molte persone, fino al 42%. Quando le persone i cui benefici sono stati tagliati hanno cercato di determinare in che modo sono stati determinati i loro benefici, lo stato ha rifiutato di rivelare la formula che stava usando, dicendo che la matematica era considerata un segreto commerciale.
“È DAVVERO ANDATO DAVVERO MALE IN OGNI FASE DEL PROCESSO.”
Nel 2012, la filiale ACLU locale ha fatto causa a nome dei beneficiari del programma, sostenendo che le azioni di Idaho li avevano privati dei loro diritti al giusto processo. In tribunale, è stato rivelato che, quando lo stato stava costruendo il suo strumento, si basava su dati profondamente viziati, e gettava via la maggior parte immediatamente. Tuttavia, lo stato è andato avanti con i dati che sono stati lasciati. “In realtà, è davvero andato storto in ogni fase del processo di sviluppo di questo tipo di formula”, afferma il direttore legale di ACLU dell’Idaho, Richard Eppink.
Soprattutto, quando il sistema di Idaho andava in tilt, era impossibile per la persona media capire o sfidare. Una corte ha scritto che “i partecipanti non ricevono spiegazioni per la negazione, non hanno standard scritti a cui fare riferimento per l’orientamento e spesso non hanno familiari, tutori o assistenza pagata per aiutarli.” Il processo di ricorso era difficile da navigare, e Eppink dice che era “davvero privo di significato” comunque, dal momento che le persone che ricevevano gli appelli non potevano capire la formula. Guardano il sistema e dicono: “È al di là della mia autorità e della mia esperienza mettere in discussione la qualità di questo risultato”.
Da allora, Idaho ha accettato di migliorare lo strumento e creare un sistema che secondo Eppink sarà più “trasparente, comprensibile ed equo”. Dice che potrebbe esserci una formula ideale là fuori che, quando vengono immesse le variabili giuste, ha ingranaggi che si trasformano senza attrito, assegnando l’assistenza nel modo perfetto. Ma se il sistema è così complesso che è impossibile renderlo comprensibile per le persone che sta influenzando, non sta facendo il suo lavoro, sostiene Eppink. “Devi essere in grado di capire cosa ha fatto una macchina.”
“Questo è un argomento”, dice Fries. “Trovo che sia davvero strano.” È solidale con le persone che hanno fatto le loro ore di lavoro in Arkansas. Ogni volta che uno dei suoi sistemi è implementato, dice, raccomanda che le persone con vecchi programmi siano grandfathered in, o almeno la loro cura aggiustata gradualmente; le persone in questi programmi non “vivranno così a lungo, probabilmente”, dice. Suggerisce anche di dare agli umani un po ‘di spazio per regolare i risultati, e riconosce che passare rapidamente da un sistema “irrazionale” a un sistema “razionale”, senza spiegare adeguatamente il perché, è doloroso. I funzionari dell’Arkansas, dice, non ascoltarono il suo consiglio. “Quello che hanno fatto è stato, nella mia mente, davvero stupido”, dice. Le persone che erano abituate a un certo livello di assistenza sono state inserite in un nuovo sistema “, e hanno urlato”.
“QUELLO CHE HANNO FATTO È STATO, NELLA MIA MENTE, DAVVERO STUPIDO.”
Fries dice che conosce il processo di valutazione – avere una persona che entra, rilascia un’intervista, inserire numeri in una macchina e farla sputare a una determinazione – non è necessariamente comoda. Ma, dice, il sistema fornisce un modo per assegnare cure sostenute da studi. “Si potrebbe obiettare che tutti dovrebbero avere molta più cura là fuori”, dice, ma un algoritmo consente ai funzionari statali di fare ciò che possono con le risorse che hanno.
Per quanto riguarda la trasparenza del sistema, concorda sul fatto che l’algoritmo è impossibile da capire per la maggior parte, ma afferma che non è un problema. “Non è semplice”, dice. “La mia lavatrice non è semplice.” Ma se riesci a catturare la complessità in modo più dettagliato, sostiene Fries, questo alla fine servirà meglio il pubblico, e ad un certo punto, “dovrai fidarti di me che un sacco di le persone intelligenti hanno determinato che questo è il modo più intelligente per farlo “.
Poco dopo l’Arkansas ha iniziato a utilizzare l’algoritmo nel 2016, Kevin De Liban, un avvocato per Legal Aid of Arkansas, ha iniziato a ricevere reclami. Qualcuno ha detto che sono stati ricoverati in ospedale perché le loro cure sono state tagliate. Un gran numero di altri ha scritto in merito a radicali aggiustamenti.
De Liban ha appreso per la prima volta del cambiamento da un beneficiario del programma di nome Bradley Ledgerwood. La famiglia Ledgerwood vive nella piccola città di Cash, nel nord-est dello stato. Bradley, il figlio, ha una paralisi cerebrale, ma rimane attivo, seguendo il basket e la politica repubblicana, e prestando servizio nel consiglio comunale.
Quando Bradley era più giovane, sua nonna si prendeva cura di lui durante il giorno, ma quando diventava più grande e più grande, non riusciva a sollevarlo, e la situazione divenne insostenibile. I genitori di Bradley hanno discusso su cosa fare e alla fine hanno deciso che sua madre, Ann, sarebbe rimasta a casa per prendersi cura di lui. La decisione ha comportato un grave colpo finanziario; Ann aveva un lavoro facendo valutazioni per la contea che avrebbe dovuto lasciare. Ma il programma Arkansas ha dato loro un percorso per recuperare alcune di quelle perdite. Lo stato rimborserebbe ad Ann una piccola tariffa oraria per indennizzarla per aver preso cura di Bradley, con il numero di ore rimborsabili determinato da una valutazione delle sue esigenze di assistenza.
Quando lo stato passò al suo nuovo sistema, anche le ore della famiglia di Ledgerwood furono sostanzialmente ridotte. Bradley si era occupato del Dipartimento dei Servizi Umani dell’Arkansas, che gestiva il programma, in una precedente battaglia per una disputa sulle ore di assistenza a domicilio e aveva contattato De Liban, il quale accettò di esaminarlo.
Con Bradley e una donna anziana di nome Ethel Jacobs come querelanti, Legal Aid ha intentato una causa federale nel 2016, sostenendo che lo stato aveva istituito una nuova politica senza informare adeguatamente le persone interessate dal cambiamento. Non c’era nemmeno modo di sfidare efficacemente il sistema, in quanto non riuscivano a capire quali informazioni fossero contenute nei cambiamenti, sosteneva De Liban. Nessuno sembrava in grado di rispondere a domande di base sul processo. “Le infermiere dissero:” Non sono io; è il computer “, dice De Liban.
“NON SONO IO; È IL COMPUTER. ”
All’epoca sapevano che si trattava di una sorta di nuovo sistema computerizzato, ma non c’era alcun accenno a un algoritmo; la matematica dietro il cambiamento è venuta fuori solo dopo che la causa è stata archiviata. “All’inizio non aveva senso per me”, dice De Liban. Quando hanno scavato nel sistema, hanno scoperto di più su come funziona. Dalla lunga lista di articoli che gli assessori hanno chiesto, solo circa 60 fattorizzati nell’algoritmo di assistenza domiciliare. L’algoritmo classifica le risposte a tali domande e quindi ordina le persone in categorie tramite un sistema simile a un diagramma di flusso. Si è scoperto che un piccolo numero di variabili poteva avere un impatto enorme: per alcune persone, una differenza tra un punteggio di tre anziché un quattro su una qualsiasi quantità di articoli comportava un taglio di dozzine di ore di assistenza al mese. (Fries non ha detto che era sbagliato, ma ha detto che quando si trattava di questi sistemi,
De Liban ha iniziato a tenere un elenco di ciò che considerava “assurdità algoritmiche”. Una variabile nella valutazione era costituita da problemi ai piedi. Quando un valutatore visitò una certa persona, scrissero che la persona non aveva problemi – perché erano un amputato. Col passare del tempo, dice De Liban, hanno scoperto punteggi molto diversi quando le stesse persone sono state valutate, nonostante fossero nelle stesse condizioni. (Fries dice che gli studi suggeriscono che ciò accade raramente.) De Liban dice anche che cambiamenti negativi, come una persona che contrasta la polmonite, potrebbero controintuitivamente indurli a ricevere meno ore di aiuto perché l’algoritmo simile a un diagramma di flusso li collocherebbe in una categoria diversa. (Le fritture hanno negato questo, dicendo che l’algoritmo ne tiene conto.)
Ma dal punto di vista dello stato, il momento più imbarazzante della disputa è avvenuto durante l’interrogatorio in tribunale. Fries è stato chiamato per rispondere alle domande sull’algoritmo e ha pazientemente spiegato a De Liban come funziona il sistema. Dopo un po ‘avanti e indietro, De Liban ha offerto un suggerimento: “Sareste in grado di prendere il rapporto di valutazione di qualcuno e poi ordinarlo in una categoria?” (Ha detto in seguito che voleva capire quali cambiamenti hanno innescato la riduzione da un anno a il prossimo.)
IN QUALCHE MODO, VENIVA USATO IL CALCOLO SBAGLIATO
Fries disse che poteva, anche se ci sarebbe voluto un po ‘di tempo. Ha esaminato i numeri per Ethel Jacobs. Dopo una pausa, un avvocato dello stato è tornato indietro e ha ammesso di essere stato ricoverato in tribunale: c’è stato un errore. In qualche modo, veniva usato il calcolo sbagliato. Hanno detto che avrebbero ripristinato le ore di Jacobs.
“Ovviamente siamo contenti che il DHS abbia segnalato l’errore e certamente felice che sia stato trovato, ma questo dimostra quasi il punto del caso”, ha detto De Liban in tribunale. “C’è questo sistema immensamente complesso intorno al quale non sono stati pubblicati standard, in modo che nessuno nella loro agenzia lo abbia catturato finché non abbiamo avviato contenziosi federali e speso centinaia di ore e migliaia di dollari per arrivare qui oggi. Questo è il problema.”
Nel procedimento giudiziario è emerso che il problema riguardava un fornitore di software di terze parti che implementava il sistema, che per errore utilizzava una versione dell’algoritmo che non considerava i problemi relativi al diabete. C’era anche un problema separato con la paralisi cerebrale, che non era codificata correttamente nell’algoritmo, e che ha causato calcoli errati per centinaia di persone, per lo più riducendo le loro ore.
“Per quanto ne sapevamo, lo stavamo facendo nel modo giusto”, afferma Douglas Zimmer, il presidente del fornitore, una società chiamata Centro per la gestione delle informazioni, sull’utilizzo dell’algoritmo che non includeva i problemi relativi al diabete. New York usa anche questa versione dell’algoritmo. Dice che il problema della codifica della paralisi cerebrale è stato “un errore da parte nostra”.
“Se gli stati stanno usando qualcosa di così complesso da non capirlo, come facciamo a sapere che funziona correttamente?” Dice De Liban. “E se ci fossero errori?”
CIRCA IL 19% DEI BENEFICIARI È STATO COLPITO DALL’OMISSIONE DEL DIABETE
Fries ha successivamente scritto in un rapporto allo stato che circa il 19% di tutti i beneficiari è stato influenzato negativamente dall’omissione del diabete. Mi ha detto che gli algoritmi scambiati ammontavano a una “chiamata molto, molto marginale” e che, nel complesso, non era irragionevole per lo stato continuare a utilizzare il sistema che assegnava meno ore, come ha deciso New York. Nel rapporto e con me, ha detto che il cambiamento del diabete non era un “errore”, anche se il rapporto afferma che l’algoritmo più ampiamente utilizzato era una “leggermente migliore” corrispondenza per l’Arkansas. Un articolo elencato come “pro” nel rapporto: il passaggio all’algoritmo originale era “reattivo al risultato del test”, in quanto avrebbe aumentato le ore dei ricorrenti vicino ai livelli precedenti. Non è chiaro se lo stato abbia iniziato a contare i problemi del diabete. A dicembre, un funzionario ha detto che credeva di non esserlo.
Ma nelle e-mail interne viste da The Verge , i funzionari dell’Arkansas hanno discusso l’errore di codifica della paralisi cerebrale e la migliore linea d’azione. Su una catena di e-mail, i funzionari hanno suggerito che, dal momento che alcune delle persone che avevano ridotto le loro ore non appellavano la decisione, hanno effettivamente rinunciato al loro diritto legale di combatterlo. (“Come si può supporre che qualcuno faccia appello e determini che c’è un problema con il software quando il DHS stesso non lo ha determinato?” Dice De Liban.) Ma dopo qualche discussione, uno alla fine disse: “Siamo stati effettivamente informati che ci sono persone che non hanno ricevuto i servizi di cui avevano effettivamente bisogno, e compensare queste lacune sembra la cosa giusta da fare. “Inoltre,” posizionerebbe il DHS sul lato destro della storia “.
“COMPENSARLI PER QUELLA MANCANZA SEMBRA LA COSA GIUSTA DA FARE.”
Il giudice del procedimento giudiziario federale ha infine stabilito che lo stato non aveva attuato il programma in modo insufficiente. Successivamente, lo stato ha apportato delle modifiche per aiutare le persone a comprendere il sistema, comprese le liste che mostravano esattamente quali elementi delle loro valutazioni sono cambiati di anno in anno. Ma De Liban afferma che c’era un problema più grande: le persone non avevano ricevuto abbastanza aiuto in generale. Mentre l’algoritmo imposta le proporzioni per l’assistenza – un livello di assistenza, ad esempio, potrebbe essere due o tre volte superiore rispetto a un altro – è la decisione dello stato di decidere quante ore inserire nell’equazione.
“Quanto è dato è un problema tanto politico quanto amministrativo”, dice Mor.
Fries dice che non esiste una best practice per avvisare le persone su come funziona un algoritmo. “Probabilmente è qualcosa che dovremmo fare”, ha detto quando ho chiesto se il suo gruppo avrebbe dovuto trovare un modo per comunicare il sistema. “Sì, probabilmente dovrei anche spolverare sotto il mio letto.” In seguito, ha chiarito che pensava che fosse il lavoro delle persone che implementavano il sistema.
De Liban dice che il processo per le persone che fanno appello ai loro tagli è stato praticamente inutile per la maggior parte. Su 196 persone che hanno impugnato una decisione a un certo punto prima della sentenza, solo nove hanno vinto, e la maggior parte di questi erano clienti di assistenza legale che combattevano per motivi procedurali. Sebbene sia difficile da sapere, De Liban afferma che è molto probabile che alcuni presentino errori di cui non erano a conoscenza.
Eubanks, l’autore di Automating Inequality , scrive di “digital poorhouse”, mostrando i modi in cui l’automazione può dare una nuova lucentezza ai maltrattamenti di lunga data dei vulnerabili. Mi ha detto che esiste una “naturale fiducia” che i sistemi basati su computer produrranno risultati imparziali e neutrali. “Sono sicuro che è in alcuni casi, ma posso dire con una buona dose di fiducia che non è così descrittivo o predittivo come sostengono i sostenitori di questi sistemi”, dice.
Eubanks propone un test per valutare gli algoritmi rivolti ai poveri, chiedendo se lo strumento aumenta il loro libero arbitrio e se sarebbe accettabile da usare con persone più ricche. Non sembra ovvio che il sistema Arkansas avrebbe superato quel test. In un segno, i funzionari sono stati delusi dal sistema, hanno affermato che presto migreranno verso un nuovo sistema e fornitore di software, probabilmente calcolando le ore in un modo diverso, anche se non è chiaro esattamente cosa significherà per le persone nel programma.
Dobbs ha fatto bene fino ad ora. La sua casa si trova su una strada tortuosa su una collina sul lago, punteggiata d’inverno da alberi spogli. Quando il sole tramonta nel pomeriggio, la luce entra dalle finestre e cattura la collezione di piante che Dobbs gestisce con l’aiuto di un aiutante. Un cane trasandato e magrolino di nome Spike saltellava eccitato quando lo visitai di recente, mentre un gatto lanuginoso cercava l’attenzione. “A volte mi piacciono meglio degli umani”, dice Dobbs. Sul muro c’era una collezione di cimeli di Duck Dynastye una foto incorniciata di lei con Kenny Rogers di quando lavorava nell’edificio del Missouri, allora conosciuto come il Centro per la paralisi cerebrale di Kenny Rogers.
Per il momento, è bloccata nel limbo. Presto verrà per un’altra rivalutazione, e mentre è quasi certo, sulla base di ciò che si sa del sistema, che le verrà dato un taglio, è difficile dire quanto sarà severo. Ha passato il processo più di una volta adesso. Le sue ore sono state brevemente ripristinate dopo che un giudice ha emesso il favore dei querelanti nella causa federale, solo per loro di essere tagliati di nuovo dopo che lo stato ha cambiato il suo sistema di notifica per conformarsi alla sentenza e reimplementato l’algoritmo. Mentre attraversava un appello, il Dipartimento dei Servizi Umani, dice De Liban, ha ripristinato di nuovo le sue ore. Questo, dice, era proprio nel momento in cui la questione della paralisi cerebrale è stata scoperta. Dice che questo potrebbe essere stato il motivo per cui è stato abbandonato: per salvare la faccia. Ma quante persone alle prese con i cambiamenti potrebbero capire.
da TheVerge.com