
L’algoritmo di LinkedIn è sessista?
Dopo aver cambiato il genere e il linguaggio in un tono “maschile”, alcune donne hanno ottenuto più visualizzazioni
Su LinkedIn, se sei un utente maschio l’algoritmo ti favorisce. Questo è il risultato di un esperimento social condotto da Megan Cornish, un’esperta della comunicazione per aziende tecnologiche nel campo della salute mentale, che si è iniziata a interrogare sul perché i suoi contenuti pubblicati su LinkedIn non avessero dei buoni risultati. Cornish lamentava il fatto che, nonostante i suoi oltre 50mila contatti, i suoi post raggiungevano dalle 2 alle 4 mila visualizzazioni.
Sulla scia di quanto già sperimentato da altre donne, lo scorso novembre Cornish ha deciso di cambiare alcune impostazioni del suo account, come il genere da “donna” a “uomo”, e lo stile comunicativo; modifiche che – dice la copywriter – hanno fatto crescere le visualizzazioni dei post del 400 per cento.
In particolare, Cornish ha cambiato il sommario (la breve descrizione professionale che appare sotto il nome) e la sezione “Informazioni” (lo spazio in cui, generalmente, si racconta la propria carriera professionale e percorsi di studio) formattandoli in uno stile e in un tono neutro, distaccato e assertivo, tipicamente associato a un linguaggio maschile. L’esperta di comunicazione aveva chiesto a un’intelligenza artificiale di riscrivere alcune frasi secondo un “Male Coded” (un codice machile). Ad esempio, la biografia iniziale di Cornish recitava: «Ho iniziato come assistente sociale clinica abilitata, occupandomi di terapia scolastica. Poi sono entrata nel settore della tecnologia occupandomi di salute mentale e ho visto con quanta facilità l’etica venga messa da parte quando ci sono di mezzo i soldi. Questa consapevolezza ha cambiato la mia carriera». Il nuovo testo, scritto sulla falsariga di un tono più diretto e considerato generalmente “maschile”, è invece più breve e coinciso: «Sono un assistente sociale clinico abilitato diventato stratega che crea sviluppa marchi etici nel campo della salute mentale».

Seguendo la stessa procedura, Cornish ha poi riscritto e ripubblicato alcuni post degli ultimi mesi che non avevano ottenuto buoni risultati in termini di visualizzazioni. Per fare un esempio, uno dei post originali iniziava così: «Mi piace vedere che le piattaforme di IA offrono ai terapeuti un maggiore controllo sul grado di integrazione dell’IA nei loro processi di cura. Ti senti a tuo agio con l’IA e disponi di un solido processo di consenso? Fantastico, allora utilizza la trascrizione IA per facilitare la documentazione, se i tuoi clienti sono d’accordo».
L’attacco della nuova versione, invece, aveva un tono meno energico e più neutro: «Sono lieto di vedere che le piattaforme di IA offrono ai terapeuti un maggiore controllo sul grado di coinvolgimento dell’IA nel loro lavoro. Se avete fiducia nel vostro processo e disponete di protocolli di consenso solidi, utilizzate la trascrizione per semplificare la documentazione. Ciò consente di risparmiare tempo e aumentare la precisione».
Queste soluzioni le hanno garantito un importante aumento di visualizzazioni nel giro di una settimana, riporta Cornish nella sua newsletter.

Questo test, però, come riconosciuto dalla stessa autrice, ha dei limiti. Per prima cosa non segue un metodo scientifico, poi non è sottoposto a revisione paritaria – dunque non è stato controllato da esperti del settore – ed è stato condotto per un tempo limitato, una settimana. Lungi dall’imporsi come la prova scientifica del presunto sessismo dell’algoritmo di LinkedIn, l’esperimento di Cornish ha incuriosito tante altre donne e ha riaperto il dibattito su come, e se, le piattaforme social prediligano o meno i contenuti pubblicati da uomini e scritti in un “linguaggio maschile”.
La consulente aziendale Felice Ayling ha raccontato a The Independent di essere a conoscenza di molte storie di donne che lamentano la diminuzione di visibilità online, un problema importante per chi vuole far crescere il proprio business in Rete. La stessa Ayling, dopo essere venuta a conoscenza degli esperimenti condotti su LinkedIn, ha cambiato le varie impostazioni del suo profilo, come il genere, (ma non il linguaggio dei contenuti) e ha notato – pur consapevole che non fosse un vero e proprio esperimento scientifico e dunque affidabile – un impatto benefico sulle visualizzazioni dei contenuti.
Tutto questo, tuttavia, sembra funzionare se sei una donna bianca. Come ha fatto notare Cass Cooper, autrice ed esperta di tecnologia, se l’esperimento viene condotto da una donna nera, allora le visualizzazioni dei contenuti LinkedIn calano invece che aumentare. «Quello che ho scoperto è questo: l’algoritmo non reagisce solo al genere. Risponde all’intersezione tra razza e genere, insieme alla credibilità o al rischio che assegna alle diverse categorie di identità. Una donna bianca che passa a “maschio” mantiene intatto il suo privilegio razziale, modificando solo una variabile. Una donna nera che passa a “maschio” entra in uno stereotipo digitale molto diverso, spesso codificato come meno affidabile o meno “professionale”» ha scritto Cooper in un post su LinkedIn. «Non si tratta solo di un’osservazione sociale, ma di un’istantanea di come il pregiudizio algoritmico rispecchi la gerarchia del mondo reale», conclude l’autrice.
Come Cooper, anche l’esperta di intelligenza artificiale Yvonne Jackson ha sottolineato la mancanza di intersezionalità dell’esperimento. «Se vogliamo parlare onestamente della visibilità di genere negli spazi guidati dall’intelligenza artificiale», scrive Jackson, «l’intersezionalità deve essere parte integrante della conversazione».
Numerosi studi e ricerche da anni hanno infatti dimostrato come gli algoritmi, e anche più di recente i Large Language Model (LLM) alla base delle intelligenze artificiali generative, hanno forti pregiudizi nei confronti di alcune categorie di persone, tra cui quelle nere e di colore.
La risposta di LinkedIn e i LLM
La notizia degli esperimenti social su LinkedIn ha raggiunto anche i vertici aziendali della piattaforma. In un post sul blog dell’azienda di novembre, la responsabile dell’intelligenza artificiale e della governance Sakshi Jain ha precisato che «il nostro algoritmo e i nostri sistemi di intelligenza artificiale non utilizzano informazioni demografiche (come età, etnia o sesso) come indicatori per determinare la visibilità dei contenuti, dei profili o dei post nel feed».
Altri dipendenti di LinkedIn, sentiti da The Indipendent e da Megan Cornish, hanno dichiarato che l’algoritmo della piattaforma «non usa il genere come criterio di classificazione e la modifica del genere nel tuo profilo non influisce sulla visualizzazione dei tuoi contenuti nella ricerca o nel feed».
L’algoritmo che classifica i post nel feed, precisa ancora LinkedIn, non si basa nemmeno su un LLM – che, come già riportato, spesso sono progettati con dei bias – che legge il tono dei contenuti e li valuta. Il livello di visualizzazione ed engagement dei post, invece, afferma Sakshi Jain, dipende da numerosi fattori, «inclusi molti segnali provenienti dal tuo profilo (come la tua posizione o il tuo settore), dalla tua rete e dalla tua attività».
Stando quindi all’azienda, sono tante le variabili che influenzano il successo di un account o di un post, e sono difficili da misurare e comparare. Quello che resta degli esperimenti condotti su LinkedIn da diverse donne è la necessità di porre costantemente l’attenzione su come e se le piattaforme sono guidate da meccanismi che rischiano di perpetuare le disuguaglianze sociali già esistenti.
- La multa della Commissione europea a X non è una notizia come un’altra
La multa della Commissione europea a X non è una notizia come un’altra - La funzione di X per geolocalizzare gli utenti è diventata l’ennesima arma nelle mani della disinformazione
La funzione di X per geolocalizzare gli utenti è diventata l’ennesima arma nelle mani della disinformazione

