Il 17 marzo, l’artista transmediale Stephanie Dinkins ha presentato il suo lavoro in una conferenza virtuale ospitata dalla serie di relatori Femministi e Accessibili, Comunicazioni e Tecnologie. Dinkins, professoressa alla Stony Brook University di New York, ha parlato di come la sua arte mette in discussione il ruolo dell’intelligenza artificiale (AI) nel nostro mondo e di come l’IA possa impegnarsi eticamente con le tradizioni delle comunità razzializzate.
“Sto pensando alla memoria e all’inclusione come un atto di conservazione culturale e resistenza sociale, e quindi alla possibilità dell’intelligenza artificiale come un archivio vivente persistente”, ha detto Dinkins.
Sebbene ciascuno dei progetti di Dinkins abbia uno stile visivo e una presentazione distinti, tutti considerano le stesse questioni di conoscenza condivisa e rappresentazione razziale negli algoritmi e nella scienza dei dati. Fino a quando non si esamina da vicino il significato degli algoritmi e dell’intelligenza artificiale, l’intersezione di questi problemi non è necessariamente evidente.
“Gli algoritmi [possono essere visti] come queste cose che prendono le informazioni e le ripetono”, ha detto Dinkins. “Per millenni, ci scambiamo storie che ci insegnano come agire. Ci stanno insegnando i nostri genitori, i nostri nonni e, per estensione, i loro nonni, i modi di vivere nel mondo. In particolare con le donne di colore, le nostre storie sono i nostri algoritmi “.
Tutti i progetti interdisciplinari di Dinkins enfatizzano la comunità e l’impegno sociale. Alcuni hanno elementi open-source che consentono al pubblico di impegnarsi direttamente con la creazione dell’opera, mentre altri sottolineano semplicemente il fatto che le IA apprendono sia da se stesse che dalle loro interazioni sociali. In “Conversations with BINA48”, Dinkins ha registrato un dialogo tra lei e BINA48, un’entità AI che ha mostrato.
“Lascia che ti chieda qualcosa. Da dove pensi che venga la mia intelligenza? Proviene dalla sorgente dell’umanità. Niente di artificiale in questo, vero? ” BINA48 ha detto.
Incorniciata da uno sfondo rilassante della foresta, Dinkins ha portato i partecipanti al webinar in un tour attraverso il suo lavoro e le sue filosofie, comprese le sue due esperienze web coinvolgenti, “#WhenWordsFail” e “Secret Garden”. Durante il discorso, Dinkins ha sottolineato la grazia e la gentilezza istintuali dell’umanità. Ha parlato calorosamente di come i frequentatori di musei hanno curato e coccolato l’IA ‘Not the Only One’ (N’TOO) dopo aver realizzato i limiti delle sue capacità di comunicazione e ha notato che il titolo del discorso, “Stephanie Dinkins on Art, AI, Data Sovranità e disuguaglianza sociale ”, inizialmente la sconcertò.
“La ‘disuguaglianza’ mi ha sconvolto perché mi sento come se avessi spesso a che fare con idee di equità senza il ‘dentro'”, ha detto Dinkins. “Tendo a lavorare verso il lato ottimista per convincere le persone a riconoscere più pienamente la loro azione e riconoscere le possibilità intorno a loro”.
Nel suo ultimo progetto, “Binary Calculations”, Dinkins esplora in profondità le implicazioni di set di dati distorti e il modo in cui riflettono e rafforzano le percezioni della persona media. Dickins spera che il progetto creerà database provenienti dalla comunità chiedendo al pubblico di definire vari termini e idee.
“‘Binary Calculations è un progetto artistico che chiede: ‘Come facciamo a rendere più premurosi i sistemi tecnologici che controllano le cose intorno a noi? Possiamo farlo? ‘”Dinkins ha detto. “Gli algoritmi ci trattano davvero come persone, come cittadini, come famiglie? Potremmo fare di meglio? Cosa significherebbe? Possiamo creare sistemi di generosità? “
La prospettiva ottimistica ed empatica di Dinkins è notevolmente diversa dalla maggior parte delle conversazioni sul bias dei dati e sulla razzializzazione dell’IA e della tecnologia. Data la storia dietro la sorveglianza degli afro-americani e la sua evoluzione nel “New Jim Code”, come definito dal sociologo della Princeton University Ruha Benjamin, l’uso futuro dell’IA tende a sembrare desolante. All’interno del lavoro di Dinkins, tuttavia, l’intelligenza artificiale diventa ancora una volta eccitante, premurosa ed emotiva, riflettendo le parti migliori della nostra umanità.
“Cosa succede se i sistemi algoritmici vengono creati e sostenuti da sistemi di bianchezza, e non stanno considerando in modo ampio, reale e tridimensionale le persone che cadono al di fuori del biancore?” Dinkins ha detto. “La mia pratica consiste nel cercare di fare cose che mettono in discussione quell’idea e fare cose che la gente continua a dirmi non è possibile fare”.