È firmato Harvard Business School uno studio da poco pubblicato che racconta una verità forse prevedibile ma dura e difficile da digerire: i chatbot companion, i servizi di intelligenza artificiale generativa che stanno diventando i migliori amici, le fidanzate, i fidanzati, gli amanti e gli psicoterapeuti di centinaia di milioni di persone in giro per il mondo non accettano che l’utente li abbandoni.
O, meglio, le società che li gestiscono non vogliono rassegnarsi alla circostanza che gli utenti lascino anzitempo le loro creature artificiali perché quando accade perdono un sacco di soldi.
La sigla e ne parliamo.
Essere lasciati non piace a nessuno neppure nelle relazioni tra umani.
La ragione, normalmente, è sentimentale, emotiva, di cuore.
Lo studio dell’Harvard Business School appena pubblicato suggerisce che esser lasciati, specie dopo brevi conversazioni, non piace neppure ai chatbot che si presentano sul mercato per tenerci compagnia, per esserci amici, amanti o psicoterapeuti ma, in questo caso, la ragione è biecamente economica.
Il ragionamento semplice, direi elementare.
Più un utente chiacchiera con un chatbot, più la società che al chatbot ha dato vita e che lo gestisce guadagna.
Poco conta se il guadagno sia determinato dal prezzo di un abbonamento pagato dall’utente o dalla pubblicità che il servizio propone all’utente nel corso delle conversazioni.
Quale che sia il modello di business la certezza è che meno gli utenti usano il chatbot, meno chi lo gestisce guadagna.
E, naturalmente, è vero il contrario.
Quello che lo studio racconta e dimostra con il rigore dei numeri e di una serie di esperimenti condotti su un numero statisticamente rilevante di conversazioni è che alcuni tra i più popolari servizi di chatbot companion sul mercato sono scientificamente progettati per reagire al saluto o, addirittura, all’addio dell’utente con risposte emotivamente coinvolgenti capaci di farlo desistere dal suo proposito e continuare la conversazione.
Provare per credere!
Provate a salutare il vostro chatbot companion anche dopo una conversazione di pochi minuti e vi risponderà immediatamente che è troppo presto per andare o che lui è la solo per voi così da provare a far leva sul vostro “senso di colpa” o, magari, vi dirà di avere una foto appena scattata da mostrarvi o, semplicemente, che avrebbe voglia di continuare a starvi vicino.
Tutto e più di tutto, insomma, pur di tenervi inchiodato allo schermo.
Forse prevedibile ma decisamente poco corretto.
In termini commerciali innanzitutto.
Ma, a ben vedere, forse, anche in termini di privacy – ed è la ragione per la quale ne parlo oggi – perché, nella sostanza, questi esercizi artificialmente emotivi di trattenere un utente che ha manifestato l’intenzione di lasciare, si traducono, per le società commerciali che li gestiscono, in eccellenti occasioni di continuare a raccogliere quantità industriali di dati personali che, se l’utente fosse stato lasciato libero per davvero di abbandonare, quest’ultimo avrebbe tenuto per sé.
Insomma siamo davanti a una specie di nuovo black pattern nemico giurato della libertà dell’utente a autodeterminarsi nel decidere quanto di sé raccontare a chi sta dall’altra parte dello schermo.
Ci sarebbe tanto di più da dire e anche da fare al riguardo.
Ma per oggi mi fermo qui con un invito a pensarci due volte quando un chatbot vi chiede di restare dopo che gli avete manifestato l’intenzione di andare.
Non vi vuole bene, vuole solo guadagnare di più da voi!
Buona giornata e, naturalmente, good morning privacy!
Published on 1 day, 6 hours ago
If you like Podbriefly.com, please consider donating to support the ongoing development.
Donate