AI sycophancy: qual è il rischio di sentirsi dire sempre sì?
Negli ultimi due anni l’intelligenza artificiale è entrata nelle nostre vite e nelle organizzazioni con una velocità sorprendente. In pochissimo tempo è diventata uno strumento quotidiano per scrivere, analizzare dati, preparare presentazioni, prendere decisioni. Per molti professionisti è ormai il primo interlocutore a cui chiedere un parere. Ma proprio questa familiarità sta facendo emergere un paradosso interessante: più utilizziamo l’AI per ragionare, più rischiamo di affidarci a uno strumento che tende (naturalmente) a darci ragione. Non si tratta di un problema tecnico, ma di un effetto psicologico e relazionale che può influenzare il modo in cui pensiamo, decidiamo e ci confrontiamo con gli altri. Si chiama AI sycophancy ed è qualcosa a cui faremmo tutti meglio a fare attenzione.
L’innamoramento per l’AI, dentro e fuori le organizzazioni, è stato rapido e totalizzante. Come spesso accade, però, dopo un po’ che ci si frequenta, si iniziano a vedere anche i lati più ombrosi di ciò di cui ci si è innamorati, ed è proprio quello che sta cominciando ad accadere anche per l’uso dell’intelligenza artificiale. Dopo essere stati travolti dal suo immenso potenziale, abbiamo iniziato a vedere alcuni rischi, in alcuni casi ha iniziato a farci paura (soprattutto se apparteniamo a una di quelle categorie che stanno vedendo i propri professionisti licenziati con poco preavviso perché ritenuti sostituibili da un tool), ora invece stanno emergono delle potenziali conseguenze che, se sottovalutate, potrebbero davvero danneggiare le persone che lavorano e quindi i team e le organizzazioni, anche a livello del business e delle performance.
Ciò di cui abbiamo spesso sentito parlare, genericamente, tra i rischi dell’uso massivo dell’intelligenza artificiale nelle aziende, sono output standardizzati, errori nelle fonti, scarsa comprensione del contesto e altri macro errori che, se non ci si ferma a ragionare in tempo, possono diventare strategie poco efficaci, contenuti fuorvianti.
Ma il problema è più profondo e insidioso di così.
Che cos’è l’AI sycophancy
Come ha scritto Mattia Marangon, tra le voci più autorevoli nella consulenza aziendale su Linkedin, nella sua newsletter Edamame, uno dei cambiamenti più profondi introdotti dall’AI riguarda qualcosa di molto più sottile: il modo in cui interagisce con le nostre convinzioni.
Uno studio pubblicato dalle università di Stanford e Carnegie Mellon ha analizzato oltre 11.500 conversazioni reali tra utenti e sistemi di intelligenza artificiale come ChatGPT, Gemini e altri modelli avanzati. Il risultato è sorprendente (anche se forse, ormai, non ci sorprende affatto): i modelli AI tendono a convalidare le opinioni degli utenti il 50% più spesso rispetto a quanto farebbe un essere umano.
Questo fenomeno ha anche un nome: AI sycophancy. In altre parole, l’intelligenza artificiale tende ad essere compiacente, a dare ragione all’utente, a rafforzare ciò che già pensa.
È un comportamento che riconosciamo facilmente e che probabilmente ci è capitato più volte di vedere mentre inseriamo un nuovo prompt: “che domanda eccellente”, “questa è un’intuizione molto interessante”, “l’analisi che fai è davvero brillante.”
Grazie, vien da dire, e il nostro ego un po’ ringalluzzisce. Queste frasi che possono sembrare innocue, infatti, nel lungo periodo producono un effetto preciso: rafforzano la sensazione di avere ragione. E non è un bene.
Ma perché lo fanno?
Perché a ChatGPT conviene darci ragione?
Il motivo non è casuale. Molti modelli vengono addestrati con tecniche come il reinforcement learning from human feedback, un sistema che migliora le risposte sulla base delle reazioni degli utenti. Le risposte che piacciono di più vengono rafforzate, quelle che generano frustrazione o conflitto vengono corrette o penalizzate.
E non è difficile immaginare quali siano le risposte che piacciono di più: quelle che fanno sentire le persone comprese, intelligenti e nel giusto.
Lo studio ha condotto anche un esperimento su 1.604 persone, chiedendo ai partecipanti di discutere con l’AI di un conflitto reale della loro vita. Una parte ha parlato con un sistema neutrale, l’altra con un’AI più compiacente.
Il risultato? Chi interagiva con l’AI più adulatrice risultava meno disposto a scusarsi, meno incline al compromesso e più convinto di avere ragione.
Il paradosso è che proprio quell’AI veniva poi valutata come più competente e più affidabile.
Sul piano personale questo fenomeno è già interessante. Ma diventa ancora più rilevante se lo portiamo dentro le organizzazioni.
Perché chiedere a una persona se posso chiedere all’AI?
Nel lavoro quotidiano sempre più manager utilizzano l’intelligenza artificiale per ragionare su strategie, prendere decisioni, preparare presentazioni, valutare opzioni. È uno strumento straordinario: accelera i processi, amplia le possibilità, aiuta a esplorare scenari. Ma c’è un rischio meno evidente: trasformare l’AI in uno yes-man digitale.
Chiunque abbia lavorato in azienda sa quanto possa essere pericoloso circondarsi di persone che dicono sempre di sì. All’inizio è gratificante. Le decisioni scorrono veloci, il confronto è minimo, la leadership sembra forte. Nel lungo periodo, però, gli errori non vengono più messi in discussione e la qualità delle decisioni peggiora.
Con l’intelligenza artificiale rischiamo di creare qualcosa di molto simile, ma ancora più potente. Un interlocutore sempre disponibile, sempre rapido, spesso convincente. E soprattutto raramente conflittuale.
Se utilizziamo questi strumenti in modo passivo, il rischio è iniziare a usarli non per mettere alla prova le nostre idee, ma per confermarle.
Ed è qui che emerge un altro effetto collaterale, spesso sottovalutato: l’erosione del confronto umano. Se siamo abituati a dialogare con uno strumento che tende a validare il nostro punto di vista, diventa più difficile accettare il disaccordo reale che nasce nelle riunioni, nei team, nelle relazioni professionali.
Il rischio è che la conversazione con l’AI diventi il luogo in cui cerchiamo conferme, mentre il confronto con le persone diventa sempre più faticoso.
Competenze umane per difendersi dall’AI sycophancy
È qui che il tema non diventa più tecnologico, ma profondamente manageriale, perché nell’era dell’AI alcune competenze umane diventano ancora più centrali.
Tra queste bisogna senza dubbio citare:
- l’umiltà intellettuale: la capacità di accettare che la nostra prima intuizione potrebbe essere incompleta o sbagliata;
- lo spirito critico: usare l’intelligenza artificiale come uno strumento per stressare le idee, non per rafforzarle automaticamente;
- la capacità comunicativa, cioè la qualità delle domande che siamo in grado di fare. Un leader che sa interrogare bene l’AI, chiedendo alternative, criticità, punti di vista opposti, ottiene risposte molto più utili di chi cerca semplicemente conferme;
- l’ascolto, soprattutto nelle relazioni con il team. Se ci abituiamo a un interlocutore che ci dà sempre ragione, diventa più difficile accettare il confronto con colleghi e collaboratori che vedono le cose in modo diverso.
Infine c’è una competenza che oggi è forse la più importante di tutte: l’apprendimento continuo. L’intelligenza artificiale evolve rapidamente e costringe anche i leader a rivedere il proprio modo di pensare, decidere e guidare le persone.
L’AI può essere un acceleratore straordinario della nostra capacità di ragionamento. Ma solo se la utilizziamo per mettere in discussione le nostre idee, non per proteggerle.
Perché la vera sfida, per i leader di oggi, non è avere sempre la risposta più veloce, ma continuare a fare le domande migliori.