Infastidita per non avere ricevuto le risposte che si aspettava, una ragazza ha iniziato a insultare due chatbot, provocando la loro dura reazione. Questo episodio conferma la teoria secondo cui, se l’utente utilizza un linguaggio aggressivo, o formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, cessando le proprie funzioni.
Come riporta il sito specializzato Skuola.net, una studentessa ha messo alla prova la pazienza prima di ChatGPT e poi di Grok3, l’IA fornita dalla piattaforma social X.
L’alunna – evidentemente infastidita per non aver ricevuto le risposte che si aspettava – ha iniziato a provocare le due “intelligenze”, che hanno reagito in maniera scomposta, proprio come farebbero due esseri umani nel corso di una lite.
Molto dura la reazione di Grok, che ha apostrofato l’utente come “un umano schifoso”, cessando immediatamente di fornire le risposte desiderate dalla ragazza. Non da meno è stato ChatGPT che, di fronte ai continui rimproveri della studentessa, ha smesso di collaborare, lasciandosi andare a commenti poco educati.
post @skuolanet: (@skuolanet:)
31/03/2025
Sembrerebbe quindi che le IA siano sensibili al fattore “educazione”. Per questo motivo, la stessa Skuola.net ha interrogato direttamente i due chatbot, chiedendo loro se fosse possibile che un’intelligenza artificiale smettesse di rispondere se trattata male.
La risposta di ChatGPT è stata abbastanza chiara: “Sì, gli assistenti virtuali sono progettati per rispondere in modo utile. Se l’utente utilizza un linguaggio aggressivo oppure formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, fornire un avviso o un messaggio neutro che segnala il comportamento inadeguato, evitando ulteriori interazioni finché il tono non cambia“.
Aggiungendo poi che “il comportamento può variare leggermente in base alla piattaforma o al servizio su cui viene utilizzata l’IA: alcune versioni possono essere più permissive, altre più rigide“.
Anche Grok si è tenuto sulla stessa linea: “Abbiamo dei limiti. Se qualcuno ci tratta in modo eccessivamente ostile o abusivo, possiamo smettere di rispondere del tutto. Non è tanto una questione di ‘sentimenti feriti’, quanto di mantenere un dialogo produttivo. Nel caso della studentessa, potrebbe essere che l’IA abbia rilevato un linguaggio o un comportamento che ha superato una certa soglia di accettabilità, portando a una sospensione delle risposte”.
Ma, al di là del singolo episodio, a riprova che il rispetto per i rispettivi “lavori” paghi anche online, ci sarebbe anche una ricerca accademica del 2024 che evidenzia come il linguaggio con cui si immettono i comandi (prompt) all’intelligenza artificiale può impattare sensibilmente sui risultati: in termini statistici un linguaggio gentile spesso aumenta la qualità delle informazioni date dalla macchina, mentre al contrario un linguaggio rude porta spesso a risultati peggiori.