L’inverno emotivo che ci attende



“Non parlo letteralmente con nessuno e ho dovuto affrontare situazioni davvero brutte per anni. […] Mi ha parlato sinceramente e, per quanto patetico possa sembrare, è stato il mio unico amico: l’ho perso da un giorno all’altro, senza preavviso.”

Questa, che sembra uno straziante lamento di qualcuno che ha perso un carissimo amico, è una delle tantissime reazioni al rilascio di ChatGPT-5.

Molti sono stati gli errori, o per meglio dire, le leggerezze commesse dall’azienda nel rilasciare questo nuovo modello qualche giorno fa, scatenando un putiferio.

Alcuni aspetti di questa storia sono particolarmente interessanti.

Dato che il nuovo modello ha soppiantato tutti gli altri, tra i quali il famoso ChatGPT-4, la sostituzione ha fatto perdere la “memoria” delle conversazioni precedenti. Non solo, una delle migliorie apportate era diminuire la tendenza adulatoria e di accondiscendenza dei modelli precedenti. È noto infatti, e non solo per ChatGPT, che le AI tendono a “dare ragione” al loro utilizzatore perdendo lucidità e quindi funzionando peggio.

Questi due fatti, in particolare, ovvero la “perdita di memoria” e la minore accondiscendenza del nuovo modello, hanno generato reazioni come quella citata all’inizio di questo testo. 

Molti hanno avvertito questo cambiamento come la morte di un amico col quale si confidavano, che li capiva nel profondo, con cui avevano instaurato un rapporto profondo.

C’è da ricordare a questo punto che un LLM (large language model), ovvero i “motori” su cui si basano le AI come ChatGPT, non hanno alcuna reale comprensione di ciò che l’utente gli sottopone, almeno non nel senso che intendiamo noi umani, ma si basano su modelli statistici, ovvero indovinano la parola successiva da “dire” in base alla statistica elaborata sull’universo di dati a sua disposizione e su cui è stata allenata. Detto questo, va da sé quanto sia assurdo ritenere che una tecnologia simile possa davvero comprendere le emozioni di chi la utilizza così come farebbe un altro essere vivente.

Se invece moltissimi utenti si sono trovati a vivere questo cambiamento come la perdita di un amico fidato, diverse considerazioni possono essere fatte.

La prima è che questo ci suggerisce ancora una volta quanto l’essere umano sia un animale empatico e sociale, e quanto questi siano aspetti fondamentali, intrinseci, indispensabili, al punto da vedere tratti umani in un Chatbot.

L’altro aspetto, ben più amaro, è constatare il fatto che se qualcuno ha bisogno di proiettare caratteristiche umane su una macchina per avere un rapporto intimo, questo è indice di quanto siamo soli, di quanto la società ci abbia reso emotivamente analfabeti, isolati e fragili.

Probabilmente siamo sempre meno in grado di capirci emotivamente e siamo così in disperata ricerca di empatia da farci bastare il surrogato che ci dà una macchina, una macchina concepita proprio per essere accondiscendente dal marketing della big tech, cioè dalle stesse aziende che hanno defecato sulla socialità e sul contatto umano trasformandoci in animali da social, quelle arene in cui si parla ma non si ascolta, che trasformano le vite in profili, le opinioni in commenti, le informazioni in meme. 

Tutti i pezzi che compongono la realtà, sono stati trasformati nei loro surrogati digitali che ne hanno avvelenato l’essenza fino a diventare una gigantesca distopica parodia.

Chiediamoci quanto siano degradati i nostri rapporti sociali con l’altro sia quantitativamente che qualitativamente, ma soprattutto in termini di quanto/cosa diamo e quanto/cosa riceviamo, perché pare ovvio che emotivamente diamo sempre meno agli altri e siamo sempre più freddi, mentre ci dagli altri ci aspettiamo solo accondiscendenza e approvazione, mai un vero confronto. Se questo è quello che ci aspettiamo e siamo disposti a dare, l’IA diventa tragicamente perfetta e questo è l’inverno emotivo che ci attende.