Durante l’AI Week 2025 si è parlato molto di algoritmi, innovazione e automazione, ma anche di bias.
Ma un concetto cruciale ha colpito l’attenzione degli ascoltatori: la tecnologia non è neutra. Anche l’intelligenza artificiale, per quanto logica e matematica, amplifica le intenzioni umane.
Questo significa che, se i nostri processi mentali sono pieni di bias, anche l’AI rischia di riprodurli su scala amplificata.
In questo articolo esploriamo il legame tra bias cognitivi e intelligenza artificiale, con un focus su due dei più pervasivi: l’affinity bias e il non-likeability bias.
Un tema sempre più centrale quando si parla di leadership inclusiva e sviluppo etico delle tecnologie.
Summary
Perché i bias sono importanti nel contesto dell’AI
L’AI, pur essendo una tecnologia, è addestrata su dati umani. E i dati umani riflettono comportamenti, pregiudizi, stereotipi. L’AI, quindi, non nasce neutra, ma assume le sfumature dei suoi creatori e dei suoi dataset.
I bias non sono solo errori: sono distorsioni sistematiche nel nostro modo di percepire e prendere decisioni.
Capire quali bias agiscono su di noi è fondamentale per costruire sistemi tecnologici più equi, etici e sostenibili.
L’affinity bias: il nemico silenzioso della diversità
L’affinity bias è la tendenza a preferire persone simili a noi. Questo accade, ad esempio, quando un manager assume collaboratori che condividono il suo background, il suo genere, la sua visione del mondo.
Nell’ambito dell’intelligenza artificiale, questo può tradursi in:
- Algoritmi che premiano profili simili a quelli di chi li ha progettati
- Sistemi di raccomandazione che rafforzano la monocultura
- Processi di selezione automatica che penalizzano le minoranze
Se tutti intorno a noi pensano allo stesso modo, l’innovazione si ferma.
Il non-likeability bias: il volto nascosto della leadership
Questo si manifesta quando giudichiamo negativamente chi devia dallo stile dominante, soprattutto nei ruoli di leadership. Un esempio comune? Le donne in contesti professionali a prevalenza maschile, che vengono percepite come “non simpatiche” se mostrano assertività o decisionismo.
Nel contesto dell’AI, questo bias può emergere quando:
- I modelli penalizzano comportamenti non conformi alla “norma” statistica
- Le metriche di valutazione automatica replicano pregiudizi culturali
Il risultato è un circolo vizioso che limita la diversità nei ruoli decisionali e frena l’inclusione.
Bias, AI e cambiamento: dalla consapevolezza all’azione
Ogni grande transizione tecnologica genera paura, scetticismo e resistenza. Ma solo riconoscendo i nostri limiti cognitivi possiamo costruire tecnologie più umane.
L’AI, se guidata da una leadership consapevole, può:
- Aiutare a identificare e correggere bias nei processi decisionali
- Promuovere trasparenza nei criteri algoritmici
- Offrire strumenti per migliorare l’equità nelle organizzazioni
Una vera leadership oggi non può più ignorare il tema dell’inclusione. Serve un nuovo modello che:
- Riconosca il potere (e i rischi) dell’AI
- Favorisca ambienti di lavoro eterogenei e creativi
- Adotti pratiche decisionali trasparenti e verificabili
La leadership del futuro sarà inclusiva, adattiva e consapevole dei propri limiti cognitivi. O non sarà.
Conclusione: progettare un’Intelligenza Artificiale etica
L’intelligenza artificiale può essere uno strumento incredibile per migliorare il mondo. Ma se non comprendiamo le distorsioni cognitive che trasferiamo nei suoi algoritmi, rischiamo di amplificare i problemi invece che risolverli.
La sfida non è solo tecnica, è profondamente umana. Inizia dalla consapevolezza dei nostri bias e si realizza in una leadership capace di guidare l’innovazione con etica, empatia e inclusione.

