Se usi l’AI diventi un emarginato, quando ti scopriranno passerai guai seri: ecco perché non dovresti mai farlo | I tuoi amici ti sbatteranno la porta in faccia
Secondo uno studio recente, l’avvento di messaggi ed e-mail generati dall’intelligenza artificiale potrebbe avere alcune conseguenze indesiderate. I risultati suggeriscono che fare affidamento sull’intelligenza artificiale per creare i propri messaggi potrebbe potenzialmente comportare la perdita di amicizie. Ciò avviene in un momento in cui la messaggistica potenziata dall’intelligenza artificiale sta diventando sempre più la modalità di comunicazione standard.
Sebbene i generatori di testo AI come ChatGPT siano diventati sempre più popolari, è importante prestare attenzione quando li si utilizza. L’uso improprio di questi strumenti potrebbe potenzialmente comportare la perdita di amicizie.
Un recente documento di ricerca della Ohio State University rivela che l’utilizzo di generatori di intelligenza artificiale per comporre messaggi personali per i propri cari può effettivamente avere un effetto dannoso sulla loro relazione nei confronti di chi invia i messaggi. Sebbene l’uso dell’intelligenza artificiale possa sembrare una comoda scorciatoia, questi nuovi strumenti non possono ancora sostituire in toto l’esperienza relazionale umana.
Secondo il leader dello studio, Binjie Liu, gli individui si sentono insoddisfatti delle loro amicizie e incerti sulla natura delle loro relazioni dopo aver ricevuto messaggi generati dall’intelligenza artificiale. Un recente studio condotto su un campione di 208 adulti ha esplorato l’impatto dell’intelligenza artificiale sulla comunicazione interpersonale. Ai partecipanti è stato presentato uno scenario ipotetico in cui si confidavano con un amico di nome “Taylor” per ottenere supporto emotivo.
Essere autentici è importante: lo studio lo conferma
I partecipanti sono stati divisi in tre gruppi, ciascuno dei quali era a conoscenza di qualcosa di diverso riguardo ai messaggi di “Taylor”. Un gruppo è stato informato che “Taylor” ha sfruttato un sistema di intelligenza artificiale per assistere nella modifica del messaggio, mentre un altro gruppo credeva che un assistente umano fornisse il supporto. L’ultimo gruppo credeva che “Taylor” avesse modificato il messaggio senza aiuto.
Secondo lo studio, gli individui che hanno ricevuto una risposta modificata dall’intelligenza artificiale hanno espresso maggiori incertezze riguardo al loro rapporto con “Taylor”. Nello specifico, hanno riferito di non essere sicuri se “Taylor” li considerasse un caro amico e se potesse davvero apprezzare i loro bisogni e le loro necessità. Inoltre, si è scoperto che le reazioni a una risposta generata dall’intelligenza artificiale erano simili a quelle di un testo redatto da un assistente umano. In definitiva, questo studio conferma l’importanza dell’autenticità all’interno delle relazioni umane, più che mai in un momento come quello che stiamo vivendo adesso.