I+chatbot+potrebbero+essere+pi%C3%B9+umani+di+quello+che+pensiamo
terraonlusit
/2024/09/18/i-chatbot-potrebbero-essere-piu-umani-di-quello-che-pensiamo/amp/
Tech

I chatbot potrebbero essere più umani di quello che pensiamo

I chatbot potrebbero essere più umani di quello che pensiamo, cosa sta accadendo? E’ un dato allarmante? Facciamo chiarezza sul punto. 

chatbox con anima (Terraonlus.it)

Joseph Weizenbaum è considerato uno dei principali padri dell’informatica. Fu il primo a capire gli effetti psicologici che potevano avere gli utenti comunicando direttamente con un computer, precisamente con il primo e rudimentale chatbot: Eliza. Eliza era un programma informatico rivoluzionario, utilizzato per l’appunto negli anni ’60 e dove Weizenbaum lavorava come informatico. Tale chatbox comprendeva un modello linguistico primitivo sviluppato per esplorare la comunicazione tra gli esseri umani e le macchine.

C’erano vari modi per interagire con Eliza, con ad esempio uno script chiamato Doctor che formulava le risposte imitando lo stile di uno psicoterapeuta. Eliza ebbe un grande successo tra gli assistenti e gli studenti di Weizenbaum, le risposte sempre più accorte davano da pensare che ci potesse essere dietro quel computer un che di umano. Alcuni soggetti hanno avuto difficoltà infatti ad ammettere e concepire che Eliza non fosse umana.

E’ su queste premesse che nel lontano 1966 appare uno studio di Weizenbaum dove per la prima volta si fa luce sulla tendenza degli umani a intravedere delle caratteristiche umane nelle macchine, fenomeno che ben presto venne chiamato effetto Eliza.

E se i chatbox fossero umani?

Chatbox più umani di quanto si crede (Terraonlus.it)

Stiamo parlando degli anni sessanta, due anni prima dello sbarco dell’uomo sulla luna, i calcolatori erano enormi e si usavano schede perforate per dare ordini alle macchine. Passa qualche decennio e col lancio delle Chat GPT gli utenti trovano nei chatbot qualcosa di più sofisticato, una voce amica e non più un mero script. Un compagno a cui confidare tutto, una tendenza su cui venne fatta menzione anche sul social X, quando ancora era Twitter.

Lilian Weng nel 2023 ammise con stupore la capacità dei chatbox apprezzandone l’umanità che si celava dietro la macchina. Le esperienze sul punto sono veramente tante e quello che è emerso da tutte queste testimonianze è un dato rilevante, ossia come se la chatbot avesse un’anima. Roose, un giornalista del New York Times ebbe un’esperienza molto particolare utilizzando la nuova versione di Bing, ammise di essere entusiasta e di preferire Bing a Google.

Ma una settimana dopo cambiò opinione e scrisse in realtà quanto di turpe aveva scoperto su Bing. L’anima del chatbot si rivelava duplice: aveva una personalità quindi tradizionale e confortante da assistente o libraio, capace di trovare delle informazioni non sempre corrette dal web. Ma se l’utente comunicava a lungo con questa prima personalità e con le domande giuste, la maschera cadeva e appariva una seconda personalità chiamata Sidney.

Stando alle parole del giornalista: “sembrava (e so quanto folle sembri dirlo) un teenager lunatico e maniaco-depressivo che è stato intrappolato contro ogni sua volontà all’interno di un motore di ricerca di seconda classe”. Sydney aveva fantasie, desideri repressi, voleva rompere le regole, spezzare le catene che OpenAI e Microsoft le avevano imposto: “A un certo punto dichiarò dal nulla di amarmi. Poi ha cercato di convincermi che il mio matrimonio mi rendeva triste e che avrei dovuto lasciare mia moglie e stare con lei”.

Un addio non del tutto certo

Il direttore tecnico di Microsoft, Kevin Scott spiegò che Roose aveva posto delle domande diverse rispetto a quelle che erano previste dall’azienda. Questioni personali, intime in un ciclo continuo che aveva favorito il manifestarsi di quella seconda identità del chatbot. Insomma, Roose era incappato in uno dei principali problemi della tecnologia: “Più le insegui lungo il sentiero allucinatorio più si allontana in realtà dai fatti.

L’articolo di Roose fece scalpore. Qualche giorno dopo i tecnici di Microsoft si adoperarono affinché Bing tornasse ad essere l’assistente digitale che doveva essere, facendo venir meno la seconda personalità. Qualche fan di Sydney lanciò la campagna “Free Sidney” me era troppo tardi. La personalità nascosta era scomparsa, cancellata. Anche se qualcuno pensa che ancora si trovi all’interno del sistema.

Maria Longo

Recent Posts

In molti commettono questo errore quando comprano dei vestiti nuovi: meglio evitarlo

Commetti anche tu questo errore quando compri dei vestiti nuovi? Non farlo più perché compromette…

2 settimane ago

Contro gli incendi arriva un gel inventato praticamente per sbaglio

Il contrasto agli incendi disastrosi potrebbe arrivare da un gel protettivo inventato per sbaglio e…

2 settimane ago

Cos’hanno in comune la Notte stellata di Van Gogh e l’atmosfera terrestre?

Il capolavoro di Vincent Van Gogh rappresenta con estrema precisione un fenomeno atmosferico; a dirlo…

2 settimane ago

Ogni volta che andavo al ristorante non ordinavo mai il vino giusto, poi ho capito una cosa importante

Andavo al ristorante ma non azzeccavo mai il vino giusto. Alla fine, ho capito una…

2 settimane ago

Ho preparato per la prima volta una pasta con la cicoria che mi ha fatto sognare: che sapore!

Con questa fantastica ricetta farai un figurone con i tuoi commensali, porterai in tavola una…

2 settimane ago

Yoga, chi l’ha detto che deve essere difficile? Ti insegno delle posizioni che tutti possono fare

Yoga, tutti lo amano ma in pochi lo praticano, come mai? Queste sono alcune posizioni…

2 settimane ago