WhatsApp, stavolta le accuse sono pesantissime: entra nel vivo del conflitto palestinese e lo fa nel modo più sbagliato | Presto potremmo perdere questa funzione
Scandalo su WhatsApp: gli utenti hanno usato in modo scorretto una nuova funzionalità entrando nel vivo del conflitto Isralo-palestinese
L’app di messaggistica più usata dall’intero occidente, WhatsApp, è finita in un polverone di polemiche per via di una novità che è stata utilizzata in modo scorretto dai suoi utenti. Come ogni mese, Meta continua a lavorare sia sulla privacy che sulle implementazioni di vario tipo, per rendere l’app sempre più performante per i suoi utenti. Tra le novità, si può notare per esempio la possibilità di mandare delle note video, che si vanno ad aggiungere alle note audio, ma non solo.
Nella versione beta, infatti, WhatsApp sta proponendo la possibilità di creare adesivi da poter inoltrare in chat attraverso l’utilizzo dell’assistenza di una AI. Al momento la novità è presente nella versione beta, come test, per gli utenti inglesi. Le perone possono usare l’intelligenza artificiale per creare adesivi virtuali da ‘incollare’ nelle chat: basta chiedere cosa si vuole e l’intelligenza in pochi secondi realizzerà la piccola grafica da poter condividere nelle chat dell’app.
WhatsApp accusata di ‘razzismo’, il problema con l’AI e il conflitto isralo-palestinese
Le prove effettuate dal quotidiano britannico Guardian, digitando la parola ‘Palestina’ o termini correlati come ‘bambino palestinese’, portano l’AI a generare anche ragazzini che imbracciano armi, una situazione che sconfina il controllo etico e morale, diventata in poco tempo un vero e proprio allarme dagli stessi utenti che hanno notato il disguido. Lo stesso non accade con Israele, per quanto riguarda la richiesta ‘Hamas’, l’intelligenza restituisce invece il messaggio ‘impossibile generare adesivi AI. Per favore riprova’.
Secondo i giornalisti inglesi, la problematica potrebbe derivare dai suggerimenti degli utenti che vengono forniti all’algoritmo, che si riferiscono alla guerra in corso. Il portavoce di Meta, Kevin McAlister, ha dichiarato al sito The Verge che la società si sta già occupando della questione, specificando che il loro obiettivo è quello di migliorare queste funzionalità anche grazie ai feedback ricevuti, perché solo in questo modo possono rendersi conto di un reale problema sulla produzione degli sticker generati dall’AI.
Secondo l’esponente politica di origini pakistane, Mehreen Faruqi questi errori di Meta sono razzisti e islamofobi, e la società si deve dichiarare responsabile dei danni. Non sembra una questione da poco, anzi, potrebbe scaldare gli animi in una situazione già troppo drammatica, sarà bene che Meta risolva, oppure cerchi di rimandare il lancio del servizio con intelligenza artificiale.