Gli Agenti AI non si offendono (e neppure i monaci Zen)

Stavo ragionando da giorni su quanto sia interessante interloquire con chi riesce a comunicare senza mai offendersi, mi è capitato solo con monaci e ultimamente con le AI, avranno qualcosa in comune?
E’ sabato sera, 30 novembre 2024. Ho appena finito un aperitivo con il CEO di un importante gruppo internazionale. Mi confida come non riesca a far capire ai propri collaboratori che i clienti vanno tutti trattati bene, indipendentemente da quanto spendano. Gli confesso, a mia volta, che passo gran parte del mio tempo non a dare indicazioni ai miei collaboratori (per quello dedico invero poche ore alla settimana), ma piuttosto a convincerli che davvero tali indicazioni vanno seguite, dedico un minuto alla spiegazione e dieci per convincere i collaboratori dell’importanza di seguirla. Poi finisce in stupida frustrazione: “loro non devono mica convincerti di dargli lo stipendio a fine mese!”, già, i pensieri vanno di male in peggio, proprio di sabato.

Immaginate di lavorare fianco a fianco con un collega che non si offende mai. Non importa quanto possiate essere bruschi, critici o persino scortesi – questo collaboratore resta imperturbabile, concentrato solo sul raggiungere gli obiettivi comuni. Questo è esattamente ciò che sta accadendo con l’introduzione degli agenti di intelligenza artificiale nel mondo del lavoro, e potrebbe rivelarsi un vantaggio inaspettato, per le macchine, o per chi le usa.
Gli agenti AI – software autonomi che eseguono compiti per nostro conto – stanno diventando sempre più presenti nelle nostre vite professionali. A differenza degli umani, questi sistemi sono programmati per perseguire obiettivi specifici senza il “bagaglio emotivo” che caratterizza le interazioni umane. Non si tratta di una semplice mancanza di emozioni, si tratta di un’architettura fondamentalmente diversa.
Quando un umano si offende, sta essenzialmente attivando un meccanismo di difesa dell’ego, radicato nella sua percezione di scarsità – scarsità di rispetto, di riconoscimento, di risorse. L’offesa è il nostro modo di dire “ritira quello che hai detto”, una forma di censura emotiva che spesso interferisce con la produttività e la collaborazione efficace.
Gli agenti AI, al contrario, operano in un paradigma di abbondanza informativa e sono programmati per un unico scopo: completare il task assegnato. Se un utente critica il loro operato, queste critiche vengono semplicemente elaborate come feedback utili per migliorare le prestazioni future. Non c’è ego da difendere, non c’è percezione di scarsità da gestire.
Questo divario nelle dinamiche relazionali potrebbe avere conseguenze significative sul futuro del lavoro. In un ambiente professionale sempre più integrato con l’AI, la tendenza umana all’offesa potrebbe diventare una seria limitazione. Mentre un agente AI continuerà a lavorare in modo efficiente nonostante critiche o feedback negativi, un collaboratore umano potrebbe bloccarsi in cicli improduttivi di risentimento e reazioni emotive. Questa situazione vi suona familiare?


Consideriamo un team di vendita dove umani e agenti AI lavorano insieme. Se un cliente è particolarmente difficile o scortese, l’agente AI continuerà a fornire un servizio ottimale, mentre l’operatore umano potrebbe sentirsi offeso e compromettere la qualità del servizio. In un mondo sempre più competitivo, questa differenza potrebbe diventare cruciale.
Nell’uomo ad offendersi è il proprio ego. L’ego è, nell’uomo, la sintesi più estrema del concetto di scarsità. L’ego è la risposta, nella coscienza, alla scarsità oggettiva in cui l’esperienza sensibile (il corpo) riporta di vivere. Una carenza di elementi essenziali come sesso, cibo, salute, potere e creatività porta la coscienza a percepire una condizione di scarsità, che si organizza strutturando una parte di sè nel concetto di ego. Senza scarsità non ci sarebbe bisogno di ego, perché la mia essenza potrebbe avere tutto quello che vuole, non sarebbe in contrasto o in lotta per le risorse essenziali.
L’AI è programmata nell’abbondanza, non osserva le risorse, ma le usa. L’AI non si chiede se ha abbastanza informazioni, piuttosto usa al meglio quelle che ha, non “vive” nella scarsità e non ha timori.

L’AI non ha quindi problemi di scarsità, eppure dovrebbe averli. I server su cui gira, l’energia elettrica, l’abbonamento che paghiamo o meno, sono tutte risorse finite, che prima o poi termineranno. Ma l’AI ha uno scopo ed è programmata per quello scopo, o lo ottiene o non lo ottiene, ma non si offende. L’AI non fa cose inutili, non perché non le sappia fare, ma solo perché… sono inutili.

Da qui possiamo dedurre un corollario importante: per offendersi è necessario che non si abbia uno scopo utile, quantomeno nel contesto in cui l’offesa è condotta. Se corro male posso offendermi se mi viene fatto notare, ma se mi sto preparando per le olimpiadi, non vedo quella critica come una offesa, ma piuttosto come un consiglio. Avere uno scopo elimina le condizioni per fare cose stupide, tra queste quella di offendersi. Vi sembra un’osservazione condivisibile?

La soluzione non è cercare di eliminare le nostre emozioni – sono parte integrante della nostra umanità – ma piuttosto imparare dagli agenti AI l’arte di rimanere focalizzati sullo scopo.
Dal mio cagnolino, Bit, ho imparato che non serve disperarsi per chi non c’è, piuttosto è molto più utile gioire per chi c’è. Se vado via, a Bit manco per qualche minuto, al massimo per un’ora, poi lui si concentra su quello che ha vicino. Ma quando torno mi fa la festa, perché si ricorda cosa può fare con me, e me lo dimostra facendo festa. Bit è molto meno intelligente di me, eppure mi ha insegnato qualcosa, in qualche modo è uno dei miei super eroi.
Dall’AI possiamo imparare che il lavoro va fatto, e se le variabili non combaciano, certo non è con le emozioni che tornano a posto.

E’ proprio in un corso tecnico di programmazione di agenti AI che ho imparato:
If it’s easy, do it easy. If it’s hard, do it hard.
Just get it done
.

Il rischio, altrimenti, è che in un futuro non troppo lontano, la nostra tendenza all’offesa diventi un handicap professionale, ora che vi è il primo della classe, almeno su questo aspetto, l’AI appunto. In un ambiente lavorativo dove la collaborazione con agenti AI sarà la norma, la capacità di gestire le critiche senza farsi paralizzare dalle emozioni potrebbe diventare una competenza professionale fondamentale.
Gli agenti AI ci stanno inconsapevolmente sfidando a evolvere oltre uno dei nostri meccanismi più primitivi. La domanda è: sapremo raccogliere questa sfida, o lasceremo davvero che la nostra tendenza all’offesa diventi un altro motivo per cui le macchine potrebbero superarci in efficienza e affidabilità?

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Marginalità, femminismo terrone e “restanza”. Intervista a Claudia Fauzia, esperta di studi di genere

Claudia Fauzia e Valentina Amenta lo spiegano con estrema lucidità nel loro libro-manifesto "Femminismo Terrone. Per un’alleanza dei margini", il quale rimane una delle letture più edificanti del mio orrorifico 2024. Ho intervistato Claudia Fauzia per voi. Prestate attenzione!

Artuu Newsletter

Scelti per te

Tra silenzi selvaggi e rumori dell’uomo: i 100 scatti naturalistici del Wildlife Photographer of the Year

In contemporanea all’esposizione londinese, la prestigiosa sede del Museo della  Permanente ospita, per la prima volta nel capoluogo lombardo, la mostra di fotografie  naturalistiche più rinomate al mondo con i 100 scatti della 60° edizione del concorso indetto dal Natural History Museum di Londra. 

Seguici su Instagram ogni giorno