Skip to main content

L’uso dell’AI nel recruiting trasforma i CV in prodotti perfetti, ma spesso privi di autenticità. Come evitare che i dati “ottimizzati” diventino un ostacolo alla selezione del vero talento?

Nel recruiting, la regola “Garbage In, Garbage Out” assume un nuovo significato. Se i dati che alimentano l’intelligenza artificiale sono distorti o artificiali, anche i risultati saranno poco affidabili. Oggi, con CV sempre più “ottimizzati” da AI, la sfida è capire come riconoscere il talento autentico dietro documenti perfetti ma potenzialmente costruiti.

Questa riflessione prende vita da una regola non scritta nel mondo della programmazione: se dai a un algoritmo dati di scarsa qualità, otterrai risultati scadenti. Nel recruiting digitale, questo si traduce in CV “potenziati” dall’AI che rischiano di ingannare sia gli algoritmi di selezione sia i recruiter, complicando la valutazione reale delle competenze.

Il ruolo crescente dell’AI nella scrittura dei CV

Da questo punto di partenza nasce la riflessione del Garbage In, Career Out, un gioco di parole ma anche un avvertimento. 

Negli ultimi anni, strumenti come ChatGPT e Jasper hanno rivoluzionato la scrittura dei curriculum. Oggi molti candidati si affidano all’intelligenza artificiale per creare CV perfetti, ricchi di parole chiave e formattati in modo impeccabile. Il risultato? Documenti più ordinati, ma spesso meno autentici, che rischiano di confondere recruiter e algoritmi.

In pratica, il candidato non invia più se stesso, ma una versione potenziata, e ottimizzata della propria storia professionale, un vero avatar di parole.
È come se, al colloquio, invece della persona reale si presentasse il suo ghostwriter digitale.

Da un lato, il risultato è straordinario: CV ordinati, sintetici, pieni di parole chiave e con un copy degno di un ufficio comunicazione. Dall’altro, però, qualcosa scricchiola: dove finisce l’autenticità e dove comincia la manipolazione?

Il paradosso del “CV perfetto” e il rischio di perdere autenticità

Non è difficile comprendere perché la pratica di usare l’AI per scrivere curriculum stia conquistando sempre più le persone candidate.
In un mercato del lavoro altamente competitivo, la forma spesso conta tanto quanto la sostanza. Gli algoritmi di screening automatico, utilizzati da oltre il 60% delle grandi aziende, non leggono i CV come farebbe un essere umano: non valutano storie o esperienze, ma cercano parole chiave, punteggiatura e formati precisi. 

Questi filtri semantici funzionano come veri e propri scanner, premiando chi sa “parlare la lingua” dell’algoritmo. Di conseguenza, i candidati imparano presto a usare un linguaggio calibrato e ad adottare trucchi digitali che aumentano le possibilità di essere selezionati. È come applicare un trucco prima di un colloquio: un ritocco lessicale, qualche parola di moda, un tono assertivo ma non arrogante. Un fenomeno che, seppur comprensibile, ha un rovescio della medaglia: rischia di trasformare il CV in un prodotto artificiale, perfetto solo sulla carta, ma vuoto di autenticità.

Il circolo vizioso della CV Optimization

Ogni volta che una persona utilizza l’intelligenza artificiale per “ottimizzare” il proprio curriculum, innalza automaticamente il livello delle aspettative. Le aziende, dal canto loro, rispondono aggiornando i propri algoritmi di screening con filtri sempre più sofisticati, spingendo i candidati a creare prompt e strategie linguistiche ancora più complesse per aggirare questi sistemi. 

Si crea così un circolo vizioso di ottimizzazione reciproca: l’AI addestra l’umano a scrivere meglio, e l’umano addestra l’AI a riconoscere nuovi modelli. In questo gioco senza fine, il vero obiettivo del recruiting, ovvero trovare la persona giusta, con competenze e attitudini reali, rischia di essere sostituito dalla capacità di costruire testi convincenti. Quello che doveva essere un processo umano e relazionale si trasforma in una competizione tra algoritmi, perdendo di vista la componente fondamentale dell’autenticità.

Il paradosso è quasi comico: mentre tutti parlano di Human-in-the-loop, stiamo finendo in un Loop-without-Human.

Perché sentiamo il bisogno di migliorarci (anche quando non serve)

Il fenomeno dell’AI che scrive i CV non è solo una questione tecnica o di strategia, ma anche una risposta emotiva e culturale. Viviamo immersi in una “keyword culture”, dove la capacità di descriversi nel modo giusto determina spesso il valore percepito di un professionista. 

Non basta più essere competenti o preparati: bisogna essere “ottimizzati” linguisticamente per sopravvivere nei processi di selezione automatizzati. Questo sposta il focus dall’identità professionale reale a un vero e proprio progetto di copywriting personale, dove la domanda non è più “Cosa sai fare?” diventa “Come comunichi le tue competenze all’algoritmo?”.

Questa ansia da performance linguistica riflette un mondo in cui l’attenzione è la risorsa più scarsa, e ogni CV deve competere con centinaia di altri per pochi secondi di visibilità. L’AI, in questo senso, funziona da specchio digitale restituendo il desiderio collettivo di apparire più efficaci e coerenti, ma rischiando di farci perdere la nostra vera voce professionale.

Keyword Culture: la grammatica della selezione automatica

Chi lavora nelle risorse umane conosce bene il funzionamento dei software di screening: questi strumenti si basano su parametri rigidi come nomi di competenze specifiche, anni di esperienza, ruoli e strumenti tecnici. Questo “dizionario” tecnico traduce le persone in dataset, facendo emergere chi parla la “lingua” corretta. Il problema è che questa lingua è diventata la lingua franca del mercato del lavoro, e chi non la padroneggia rischia di sparire dal radar dei recruiter. Per esempio, non inserire espressioni come “team player” o “problem solving” può significare essere scartati senza neanche un’occhiata umana. 

A questo punto, sorge una domanda fondamentale: stiamo cercando candidati o prompt engineer? Questo dilemma è al centro della trasformazione digitale del recruiting e richiede un ripensamento profondo di come interpretiamo e valutiamo i profili professionali.

Il rischio per chi assume

L’introduzione dell’AI nei processi di selezione promette vantaggi concreti: maggiore velocità, riduzione dei bias inconsci, aumento dell’efficienza. Tuttavia, la realtà è più complessa. Se la fonte dati, cioè i CV, è manipolata o artificiale, anche i risultati prodotti dagli AI recruiter saranno inevitabilmente distorti. Non importa quanto sofisticato sia l’algoritmo: se si basa su dati falsati, le decisioni prese possono essere errate, con conseguenze concrete per l’azienda. Questo crea un cortocircuito logico ed etico, perché affidiamo scelte delicate come assunzioni e promozioni a sistemi che potrebbero “credere” in talenti finti. In sostanza, stiamo addestrando l’intelligenza artificiale con dati non veri per prendere decisioni su persone reali, aumentando il rischio di errori costosi e perdita di fiducia nel processo di selezione.

Le conseguenze per gli HR

Per chi lavora nelle risorse umane, questo scenario complesso non è solo una sfida tecnologica, ma soprattutto culturale e organizzativa.

Il database di candidati rischia di trasformarsi in una galleria di specchi deformanti, dove tutti i profili appaiono perfetti e allineati alle job description, ma la vera differenza tra “match” e “fit” – cioè tra chi ha realmente le competenze e chi sa soltanto descriverle – si assottiglia fino a scomparire.

Questo porta a valutazioni inefficaci: quando tutti i CV sembrano scritti dalla stessa mano – spesso, quella di un’intelligenza artificiale – diventa quasi impossibile distinguere il potenziale reale dal testo persuasivo. Il risultato? Cresce il rischio di assumere persone che, sulla carta, sembrano perfette, ma nella realtà non sono adatte al ruolo o alla cultura aziendale. Un paradosso che mette in crisi l’essenza stessa del recruiting, trasformandolo in una selezione di testi più che di talenti.

Stiamo addestrando l’AI con dati finti per prendere decisioni vere

Questa affermazione dovrebbe far riflettere tutti i professionisti del recruiting: nel machine learning, la qualità dei dati di partenza è sacra, perché determina la bontà dei modelli predittivi. Nel recruiting, invece, stiamo inconsapevolmente inquinando questa fonte fondamentale con CV “migliorati” e “ottimizzati” da generatori linguistici.

Ogni curriculum artificiale aggiunge un sottile livello di rumore statistico, con testi sempre più uniformi nel lessico, nel tono e nella narrazione, che non nasce dall’esperienza autentica ma da una previsione linguistica.

In pratica, costruiamo modelli predittivi basati su contenuti predetti da altri modelli predittivi, un gioco infinito di specchi digitali che dissolve la realtà. Nel frattempo, l’arte delicata del recruiting, quella di riconoscere talento, potenziale e allineamento, rischia di trasformarsi in una competizione fra algoritmi che si valutano a vicenda, perdendo di vista l’essenziale: le persone.

Come uscirne: il ruolo (vero) degli HR e degli head hunter

Non tutto è perduto, anzi. Questo non è un manifesto anti-AI, ma un invito a usare la tecnologia con consapevolezza e umanità. Ci sono alcune strategie concrete per evitare il corto circuito e recuperare l’autenticità nel processo di selezione:

  • Tornare alla fonte e rendere il colloquio umano. Il colloquio deve restare il momento centrale, un’occasione per far emergere la voce autentica del candidato attraverso domande aperte, storytelling esperienziale e simulazioni pratiche.
  • Educare i recruiter alla lettura critica. Il recruiter del futuro deve saper riconoscere quando un testo è generato da un AI, distinguendo il tono umano da quello sintetico. Serve un orecchio allenato.
  • Valutare le soft skills attraverso l’esperienza. I valori e le competenze trasversali si misurano meglio con racconti di fallimenti, processi di apprendimento e capacità di vulnerabilità, non con parole chiave.
  • Usare l’AI per validare, non per sostituire. L’intelligenza artificiale può aiutare a verificare coerenze e pattern nascosti, ma non deve mai prendere decisioni da sola. Serve sempre una regia umana.
  • Promuovere la trasparenza digitale. Se un candidato usa un AI come assistente per scrivere il CV, va bene, ma è importante che questa pratica sia dichiarata, come il fotoritocco nelle fotografie. Migliorare la luce, non cambiare il volto.

L’AI non è il problema. È lo specchio.

L’intelligenza artificiale è uno specchio che amplifica e riflette il modo in cui abbiamo scelto di raccontarci. Se oggi produce CV finti, è perché le abbiamo fornito dati perfetti ma privi di verità. In un sistema dove la narrazione conta più della competenza, tutti cercano di sembrare “fit”, anche a costo di diventare “fake”.

La sfida, quindi, non è imparare a usare meglio l’AI, ma usarla per restare più umani. Perché il futuro del recruiting dipende da questo equilibrio: integrare la tecnologia con empatia, ascolto e giudizio critico. Solo così potremo costruire processi di selezione autentici, equi e realmente efficaci.