La fabbrica delle assistenti vocali e la ricerca UNESCO: rafforzano stereotipi di genere

La società contribuisce alla perpetrazione degli stereotipi di genere su basi quotidiane ma dimostrare che questi siano dannosi o anche solo tentare di far riflettere su questo argomento, spesso si rivela problematico. Quando il sociale si interseca con il tecnologico, cosa che accade su basi altrettanto quotidiane, la questione si sposta su una problematica ancora più complessa.

Una recente ricerca dell’UNESCO ha infatti rivelato che le risposte date dalle voci femminili di assistenti vocali come Siri (Apple), Alexa (Amazon) e Cortana (Microsoft) rafforzano gli stereotipi di genere. Infatti, per esempio, fino a poco tempo fa se Siri veniva interpellata con domande allusive o volgari o anche affermazioni come: “Siri, sei una t***”, la risposta che restituiva era: “Arrossirei se solo potessi”. Attualmente l’assistente replica: “Non so proprio cosa rispondere”.

Secondo la ricerca, il tono scherzoso e civettuolo che questi assistenti dalle voci femminili utilizzano per deviare attacchi verbalmente aggressivi, fanno sì che l’utente possa ritornare a pensare attraverso pregiudizi sulle donne.

Business Insider aveva rivelato lo scorso settembre che Amazon ha scelto una voce che suona come femminile perché le ricerche di mercato indicavano che sarebbe stata percepita come più empatica e quindi più d’aiuto. Per quanto riguarda Cortana non è possibile cambiare la sua voce e Siri invece è un nome femminile tipico dell’antico norvegese che significa “stupenda vittoria”. Le voci e i nomi di questi assistenti sono volutamente femminili.

E’ vero che le compagnie ora stanno cambiando e Google per esempio permette di selezionare diversi generi per gli assistenti ma resta il fatto che a sviluppare i sistemi di intelligenza artificiale sono prevalentemente uomini.

Il campo della ricerca sull’intelligenza artificiale, secondo uno studio del AI Now Institute, New York University, è dominato all’80% da uomini. Solo il 15% delle ricercatrici presso Facebook e il 10% presso Google si occupano di intelligenza artificiale.

In un mondo che si evolverà con questi sistemi ben integrati e, a quanto pare, anche ben definiti a livello del loro genere, le ripercussioni possono essere negative. Saniye Gulser Corat, direttrice per l’uguaglianza di genere all’UNESCO, osserva come queste macchine obbedienti e cortesi abbiano la sottomissione inculcata nelle loro frasi di risposta: “La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili e modella il modo in cui le rispondono alle richieste e si esprimono”.

La soluzione suggerita è quella di creare assistenti dalle voci di genere neutro e scoraggiare sistemi che insultino sulla base del genere. Inoltre, la ricerca UNESCO suggerisce che le compagnie dovrebbero scoraggiare il trattamento di queste AI come se fossero un essere umano meno capace e sottomesso e dovrebbero invece ripensare questi assistenti vocali come entità non-umane.

E pensare che nella letteratura questa riflessione si trova già a partire dal 1972 con “La fabbrica delle mogli” di Ira Levin (foto apertura). In questo romanzo, le donne di Stepford (luogo immaginario in cui è ambientata la narrazione) non sono altro che dei robot costruiti dagli uomini della stessa città per il loro uso e consumo. Si tratta di un romanzo fantascientifico e satirico ma riflette in modo inquietante un pensiero odierno che vede ancora la donna schiava del proprio ruolo e sottomessa.

Gli stereotipi di genere sono molto più di una tematica letteraria, agiscono strisciando nell’ombra e si addentrano in piena luce ai convegni di chi utilizza le parole: “Tradizionale, normale, naturale”.

Il problema alla base resta comunque umano e sociale, non tecnologico. Perché se la tecnologia legittima gli impulsi peggiori delle persone che credono di poter esprimere i loro pensieri impunemente, è perché quelle cose le pensano a prescindere. Come arrivare a capire perché qualcuno si dovrebbe permettere di dire a qualcun altro, anche in modo scherzoso, “sei una t***” è una preoccupazione che forse dovremmo avere tutti, non solo le percentuali di coloro che lavorano con l’intelligenza artificiale.

Copyright © 2016 Sguardi di Confine è un marchio di Beatmark Communication di Valentina Colombo – All rights Reserved – p. iva 03404200127

redazione@sguardidiconfine.com – Testata registrata presso il Tribunale di Busto Arsizio n. 447/2016 – Direttore Responsabile: Valentina Colombo