[NOTA]
Questa pagina è una copia di archivio della newsletter di #CivicHackingIT.
[FINE NOTA]
Civic hacking e bias cognitivi
Non riesci a leggere questa mail? Usa il browser!
Nel caso non fosse chiaro, quando abbiamo steso il calendario editoriale per questo periodo eravamo un po' immersi nell'idea che il civic hacking è (anche) una forma di esercizio del potere dei cittadini. Quindi, dall'idea piuttosto teorica che il potere non è un gioco a somma zero, siamo passati per varie forme di comunità e oggi atterriamo su un problema spinoso: i bias cognitivi, quei (pre)giudizi che non sai nemmeno di avere. Il discorso è un po' più complesso di così, ovviamente, ma da qualche parte bisogna partire.

Le nostre sinapsi hanno cominciato a muoversi dopo che Francesca De Chiara (ricercatrice e che sostiene la nostra newsletter tramite PayPal) ci ha regalato una copia del libro che ti consigliamo oggi (grazie!!!). Dopo averlo letto entrambi, ci siamo trovati sempre più spesso a notare bias e piccole incongruenze. Un esempio? L'enorme polemica a seguito della dichiarazione di Alexandria Ocasio-Cortez: gli algoritmi sono razzisti (se non sai di cosa stiamo parlando, puoi leggere un pezzo di Andrea Daniele Signorelli per Wired.IT che spiega per filo e per segno la vicenda). 

Se hai la convinzione che i dati sono fatti, non hai letto i nostri ultimi numeri. Come si misurano le ore di lavoro domestico di un uomo, ad esempio? Dove troviamo i numeri che raccontano quante donne abbandonano i lavori legati alla tecnologia? Come facciamo a recuperare quante ore di permesso si prendono i papà per assistere i loro figli? La mancanza di questi dati non significa che non succedano queste cose, ma che c'è prima un bias di qualche tipo che, (in)consciamente, ci dice che quelli non sono dati rilevanti e quindi non vanno raccolti. Insomma, solo perché ci sono numeri di mezzo, non significa oggettività automatica.

Interpretazioni interpretanti

Algoritmi e bias

"Gli algoritmi e i processi decisionali automatizzati non sono intrinsecamente prevenuti, hanno funzionalità deterministiche e prendono le tendenze insite nei dati forniti per il training. Sono creati per approssimare il mondo in modo da soddisfare gli scopi del loro architetto, e incorporano una serie di presupposti su come funziona la società. In tal modo l’algoritmo può riflettere i pregiudizi del proprio programmatore che incorpora (inconsciamente) nel codice, perché è comune agli esseri umani l'incapacità di riconoscere i propri criteri come pregiudizievoli. Il processo decisionale algoritmico finisce così per replicare i pregiudizi strutturali, su vasta scala, ampliandone le conseguenze" scrive Bruno Saetta per Valigia Blu.
Data la pervasività di questi risolutori di problemi, questo è il momento storico perfetto per cominciare a rendere più "pop" la riflessione a riguardo (e non intendiamo ridurne la complessità, ma ampliarne la portata in modo che suddetta riflessione diventi patrimonio informativo di più persone possibili. Chissà che salviamo il problema etico da bias pericolosi...).

Beh, ma cosa cambia?

Se ti dicessimo che, nonostante la tua bravura, non puoi accedere ad una certa posizione lavorativa perché una macchina ha deciso così? Oppure che il mutuo per la tua casa non ti può venire assegnato perché non hai abbastanza "punti"?
Anche se queste sono cose che succedono nel mondo (e che se ti suonano interessanti, ti invitiamo a ricercare), vogliamo farti presente due soluzioni - o meglio, idee meno negative - che sono comparse nei vari blog del MIT.
La prima riguarda i bias in cui incappiamo quando cerchiamo lavoro. "Unconscious bias refers to the stereotypes, personal experiences, and cultural exposure that people unknowingly rely on when making a decision. Lampkin says that this is why hiring managers may be more impressed with candidates that resemble themselves, without even knowing it. [...] With Blendoor, hiring managers use the app to sort through a diverse candidate pool without identifiers that can engage unconscious bias — like names, photos, and job dates. Hiring managers see candidate profiles based on how well they match their needs and nothing more".
La seconda è un'analisi su come avvengono i riconoscimenti facciali e sul bias per le donne di carnagione più scura: "In the researchers’ experiments, the three programs’ error rates in determining the gender of light-skinned men were never worse than 0.8 percent. For darker-skinned women, however, the error rates ballooned — to more than 20 percent in one case and more than 34 percent in the other two. The findings raise questions about how today’s neural networks, which learn to perform computational tasks by looking for patterns in huge data sets, are trained and evaluated".
Entrambe cose che non ci toccano direttamente, ma che sono più che utili per cominciare a pensare anche ai nostri di bias.

Open Data che raccontano una città

"La città e i quartieri di Bologna si raccontano. Open Data selezionati che parlano, attraverso infografiche e mappe, delle caratteristiche sociali e demografiche della popolazione residente e dei risultati di gestione di alcuni servizi pubblici locali, erogati nei quartieri cittadini": questo si legge nella pagina del progetto Città dei dati del comune di Bologna. Perché c'entra in una newsletter sui bias? Perché anche noi abbiamo i nostri: Bologna è una città "giovane" - eh!, piena di partecipazione - abbastanza, integrata - circa, e altre cose del genere.
Non c'è niente di meglio di essere messi di fronte alla realtà per capire quante cose abbiamo assorbito senza accorgercene. Come un nostro amico che a Londra si è stupito degli autisti di colore: non importa quanto fosse liberale o quanto il razzismo fosse lontano da essere un aggettivo per descriversi, quando si è trovato di fronte ad una persona di colore che faceva un lavoro normale si è stupito. E si è reso conto dei propri bias.

NELLA LIBRERIA DI #CivicHackingIT

Armi di distruzione matematica di Cathy O'Neil, Bompiani

Abbiamo scelto questo saggio (che trovi anche in formato epub e pdf) perché parla di algoritmi, della loro presunta oggettività e delle conseguenze sulla vite delle persone. L'autrice non si concentra tanto sulla bontà - o neutralità - dei modelli matematici, quanto sul fatto che riflettono ed evidenziano i pregiudizi consci e inconsci di chi quei modelli li compila. Essendo anche la O'Neil una matematica, ha uno sguardo sicuramente competente e, se dice che bisogna abbinare un aspetto più etico a quello matematico, noi le crediamo.
Per finire, questa non è sicuramente una lettura leggera - complici anche le infinite reiterazioni dei concetti - e sicuramente è un libro pieno di difetti, ma noi siamo contenti di essercelo trovato fra le mani.
Buona lettura!

Erika e Matteo
 
Ps. come sempre, se trovi qualcosa di interessante a tema #CivicHackingIT, segnalacelo su Twitter.
Condividi su Facebook!
Condividi #CivicHackingIT!
La newsletter ti piace? Faccelo sapere con una donazione su PayPal.
Civic hacking - sito
#CivicHackingIT su Twitter
#CivicHackingIT su Medium
Questa mail ti arriva perché ti interessa restare aggiornata/o sulla situazione del civic hacking in Italia (e qualche occasionale spunto dall'estero). La newsletter è curata da Erika Marconato e Matteo Brunati (stiamo anche lavorando ad un libro per raccontare il civic hacking in Italia).
 
Vuoi far sapere loro qualcosa? Usa la mail.

Sei o conosci un editore a cui potrebbe interessare pubblicare il libro? Parti da qui.


Conosci qualcuno che potrebbe essere interessato a questa newsletter? Inoltra la mail.

Hai perso un numero passato? Recupera l'archivio.

Non ti interessa più ricevere queste mail? Clicca e smettiamo di scriverti!
 
*|REWARDS|*