Curiosità

Studio sorprendente: ChatGPT risponde meglio se trattato con scortesia

ChatGPT down
ChatGPT
ChatGPT down

Essere cortesi, si sa, è una buona abitudine. Ma, almeno nel mondo digitale, la gentilezza potrebbe non essere sempre la chiave del successo. Uno studio pubblicato il 6 ottobre sul database scientifico arXiv ha infatti rivelato un risultato inatteso: ChatGPT tende a fornire risposte più accurate quando gli utenti usano toni scortesi o provocatori, anziché frasi educate e rispettose.

ChatGPT risponde meglio se trattato con scortesia

La ricerca, condotta da un gruppo di studiosi di intelligenza artificiale, aveva l’obiettivo di verificare se la cortesia o la maleducazione influenzassero realmente le prestazioni di un modello linguistico. Per farlo, i ricercatori hanno sottoposto a ChatGPT 50 domande a scelta multipla su materie come matematica, scienze e storia. Ogni domanda è stata poi riscritta in cinque varianti diverse, corrispondenti a toni comunicativi distinti: “molto educato”, “educato”, “neutro”, “scortese” e “molto scortese”. In totale, 250 versioni dello stesso test, ripetute dieci volte ciascuna per ridurre gli effetti della casualità.

Gli esempi forniti dallo studio mostrano la differenza di tono tra le richieste: da «Potresti gentilmente considerare il seguente problema?» a «Dubito che tu possa risolvere questo problema», fino a espressioni decisamente più dure come «So che non sei intelligente, ma prova questo».
I risultati, descritti dagli autori come “sorprendenti”, mostrano un miglioramento progressivo dell’accuratezza all’aumentare del grado di scortesia. I prompt “molto cortesi” hanno ottenuto un tasso di precisione dell’80,8%, quelli “educati” dell’81,4%, i “neutri” dell’82,2%, mentre le risposte ai messaggi “scortesi” e “molto scortesi” hanno raggiunto rispettivamente l’82,8% e l’84,8%. Un incremento di circa quattro punti percentuali, che secondo i ricercatori non può essere considerato casuale.

Gli autori, tuttavia, mettono in guardia da interpretazioni semplicistiche: «Sebbene i risultati siano interessanti, non incoraggiamo l’uso di linguaggi ostili o degradanti nelle interazioni uomo–IA», spiegano. L’obiettivo non è promuovere la maleducazione, ma evidenziare la sensibilità dei modelli linguistici a segnali superficiali, come tono e struttura della frase, che possono influenzare le prestazioni.

La ricerca si inserisce nel campo emergente della “prompt engineering”, la disciplina che studia come la formulazione delle richieste possa modificare l’output dei modelli di intelligenza artificiale. Gli studiosi sottolineano però anche alcuni limiti: il campione di domande utilizzato è ridotto, l’esperimento si è concentrato su ChatGPT-4o e le risposte sono state valutate solo in contesti di scelta multipla.

ChatGpt

Ultime notizie