Gherush92 |
Italiano Articoli SOLIDARIETA’ DEL NES ALL’ ASSOCIAZIONE CHENÀBURA DI CAGLIARI (2024-11-01)UNA RISPOSTA A MICHELE SERRA (2024-10-29) ANTISEMITISMO UNA ODIOSA STRUMENTALIZZAZIONE, UNA RISPOSTA (2024-10-10) 7 OTTOBRE NELLA CITTA’ DELLA STRAGE (2024-10-06) DUE INTERVISTE AL NES DI RADIO VENETO UNO (2024-09-05) DICHIARAZIONE DEL CONSIGLIO GLOBALE DEGLI IMAM SULL'ESECUZIONE DEGLI OSTAGGI DA PARTE DI HAMAS (2024-09-03) DEDICATO AGLI OSTAGGI ASSASSINATI Il popolo ebraico vivrà! (2024-09-02) DIVERSITA' CULTURALE, UNO STRUMENTO DI TRATTATIVA PER LA PACE (2024-08-27) SCHIERATEVI CONTRO L'ANTISEMITISMO (2024-08-25) UNA RISPOSTA AL PROF. MONTANARI (2024-08-12) YOM HASHOAH (2024-05-05) DOVERI E DIRITTI DEI LAVORATORI (2024-05-01) UNA RIFLESSIONE IN MEMORIA DELLA KRISTALLNACHT (2023-11-9) AI NOSTRI FRATELLI RESISTIAMO OVUNQUE CI TROVIAMO (2023-11-2) UN MONDO SENZA EBREI E' UN MONDO INCONCEPIBILE (2023-10-16) L'ODIO ANTISEMITA RIESPLODE CON ANTICA VIRULENZA (2023-10-12) L'ODIO ANTISEMITA RIESPLODE CON ANTICA VIRULENZA (2023-10-12) LA REGINA DELLA SOSTITUZIONE ETNICA (2023-04-20) CELEBRANO IL PAPA CHE BUONO NON FU (2023-04-17) IL GIUOCO DELLA CROCEFISSIONE (2023-04-09) PESACH 1943 - 2023 Ottant’anni dalla eroica Rivolta del Ghetto di Varsavia (2023-04-05) APPOGGIAMO LO SCIOPERO IN ISRAELE (2023-03-27) IL DEICIDIO E' ISTIGAZIONE ALL'ODIO ANTISEMITA (2023-03-16) PER UN'ALLEANZA STRATEGICA CONTRO IL RAZZISMO (2023-01-27) LA VERA STORIA DEL MO'ED DI PIOMBO (2023-01-24) IL RAZZISMO COPIA E INCOLLA DEL WEB (2023-01-13) QUEL DIGI-TALE CHE VIVE A SCROCCO (2023-01-05) FERMATELI! IL PAPA E IL RE FACCIANO TESHUVA' (2022-12-21) NON DEVI MALEDIRE IL SORDO E NON PORRAI UN OSTACOLO DAVANTI AL CIECO (2022-12-03) NAZIONI SENZA TERRITORIO (2022-11-08) |
IL RAZZISMO COPIA E INCOLLA DEL WEBnei social e dei socialData: 2023-01-13Autore: Gherush92 Committee for Human Rights Mai come oggi la lotta contro il razzismo è strategica per contrastare un fenomeno sofisticato e devastante di proporzioni colossali. Dalla nascita del cristianesimo per oltre duemila anni, il razzismo attraversa e permea senza soluzione di continuità ogni materia, Storia, Giurisprudenza, Politica, Filosofia, Scienza, Linguaggio, Arte; oggi rimbalza, rimbomba ed echeggia, in un reiterato accrescimento, fra Reale e Virtuale e sembra condannare il mondo al razzismo perpetuo copia e incolla. Invasi dal cosiddetto “hate speech” assistiamo impotenti all’assuefazione al linguaggio di odio che cresce online; ma mentre di questo fenomeno riscontriamo nel quotidiano utilizzo dei mezzi di comunicazione, siamo meno consapevoli di forme di discriminazione esercitate a un livello più profondo. Numerosi sono gli esempi di applicazioni software che favoriscono la popolazione “maschile bianca” e discriminano le donne, le persone appartenenti ad etnie diverse, le persone con disabilità. Non tutti sanno, ad esempio, che le recenti applicazioni per il riconoscimento facciale funzionano quasi al 100% nei casi di “maschio bianco” e solo al 65% circa nei casi di persona appartenente ad altro gruppo. Nel 2015 fece scalpore il fatto che l’intelligenza artificiale di Google identificava le persone con la pelle scura come gorilla. Questi episodi si aggravano quando il riconoscimento facciale viene utilizzato dalla polizia per motivi legati alla sicurezza e/o alla giustizia; è accaduto infatti che persone innocenti venissero incriminate a causa di un errato riconoscimento facciale. Un altro esempio di discriminazione riguarda gli algoritmi che le banche utilizzano per valutare la solvibilità di un debitore e per decidere se concedere prestiti e a quale tasso di interesse: in America nell’80% dei casi un richiedente nero può vedersi respinta la propria domanda, insieme al 40% per un latinoamericano e al 70% per un nativo americano. Stessa cosa può succedere per l’accesso agli ospedali o alle cure sanitarie. Disparità di questo tipo dipendono da più fattori, alcuni dei quali nascono da errori dei programmatori, altri da veri e propri pregiudizi (bias) che permeano il mondo dell’informatica. Molte di queste applicazioni pregiudizievoli, già in uso da parte di istituzioni, aziende, multinazionali per le assunzioni, l’accesso alla sanità, la concessione di un prestito, sono discriminatorie verso categorie svantaggiate rispetto al reddito, alla disabilità, alla provenienza, etc. Si è riscontrato che gli algoritmi utilizzati riflettono e riproducono disuguaglianze esistenti; spesso questi sistemi sono utilizzati proprio per limitare le opportunità e impedire l’accesso a risorse o servizi. Mentre una catena inossidabile di pregiudizi, infesta il web e qui si autoalimenta, si moltiplicano gli episodi di discriminazione e razzismo insieme ai goffi tentativi di limitare e bloccare nuove sperequazioni e disparità. Il problema è diventato così evidente e documentato che la Casa Bianca e l’Unione Europea hanno messo a punto piani per i diritti legati all'Intelligenza Artificiale, per cercare di arginare il fenomeno. Un’intelligenza artificiale funziona schematicamente in due modi: con un apprendimento supervisionato quando il software viene addestrato dal programmatore a fornire determinate risposte tramite un set di dati per i quali la risposta desiderata è nota; oppure con un apprendimento non supervisionato quando il software classifica autonomamente un set di dati in gruppi, secondo determinate caratteristiche. Entrambi i procedimenti sono soggetti a pregiudizi. Il primo perché la risposta desiderata è fornita da uomini, secondo criteri influenzati dal contesto culturale e dai pregiudizi (maschilismo, sessismo, razzismo) di chi prepara l’insieme di dati. Il secondo perché i set di dati utilizzati per l’apprendimento automatico possono essere incompleti, relativi ad un particolare ambiente o selezionati in modo tale da mostrare correlazioni che non sarebbero riscontrabili in un set più ampio e completo. Uno dei problemi principali è proprio la caratteristica dei database, il serbatoio di dati che viene utilizzato per insegnare al computer a riconoscere il linguaggio degli uomini e a distinguere le immagini; questi dati, dai quali il computer impara copiando, sono messi a punto da piccoli gruppi di persone omogenee e sono prelevati da gruppi anch'essi omogenei. Questo significa che la diversità nella migliore delle ipotesi è sotto-rappresentata oppure non compare affatto. Contrariamente a quanto siamo portati a credere la rete non è un contenitore neutro super partes, un luogo da riempire di ciò che risulti il più possibile utile all'umanità: la tecnologia al servizio dell’uomo. Al contrario, il problema è proprio nella concreta possibilità che la tecnologia incorpori, duplicandolo, il pregiudizio, per essere l’espressione di un determinato gruppo in posizione dominante, ben connotato politicamente, culturalmente ed eticamente. Così, dall'essere al servizio dell’uomo la tecnologia dei dati e dei sistemi automatizzati, arriva a minacciare e calpestare i diritti umani. Lo fa dal momento che quel refrain – la tecnologia al servizio dell’uomo – si converte nel suo opposto: la diversità umana al vaglio della tecnologia e delle sue prescrizioni. Spesso questi sistemi finiscono per essere un vero e proprio metodo, solo apparentemente neutrale, di separazione tra ciò che è omogeneo al carattere dominante omologante e ciò che è estraneo e superfluo, poco importa se in questa seconda categoria rientrano segmenti di popolazione che esprimono in modo irriducibile una diversità esistenziale e culturale, irrimediabilmente respinta, non validabile né assimilabile dalla rete e dal suo sviluppo nella realtà delle cose. Così, agli esclusi del web, vittima del divario digitale che non possono usufruire dei diritti esercitabili on-line, si aggiungono i discriminati del web che riproduce dalla realtà pregiudizi e razzismo. Nulla di nuovo sotto il sole. Il problema non è il web ma il razzismo, vivo, vegeto e tentacolare, di cui il web è solo un moltiplicatore, sia nella struttura che nella forma, sia nel contenitore che nel contenuto, sia nel codice dei programmatori che nel linguaggio dei fruitori, sia negli algoritmi dei software che nel vocabolario dei consumatori, sia nell'intelligenza umana che nell’intelligenza artificiale. Le categorie di esclusi e discriminati sono sempre le stesse donne, anziani, immigrati, diversità etniche, persone con disabilità, persone detenute, persone con un basso livello di istruzione. Ma attenzione, il razzismo vecchio come il cucco, rete di gran lunga più intricata e testata del web, è un crimine. Bisogna riorganizzarsi e lottare a fianco degli esclusi e dei discriminati che resistono al furore dell’omologazione; saranno queste componenti, come i popoli indigeni, gli immigrati, le comunità locali, gli ebrei o i rom, che ci salveranno dall'alienazione virtuale e dal razzismo perpetuo del copia e incolla e detteranno le regole di un sistema di relazioni sostenibile. Gherush92 Committee for Human Rights |
Home G92db Articoli Progetti News Corsi Forum Contatti Glossario Links Dona |