¿Estamos preparados para que nos entreviste un agente de IA?

–– ¿Y si no quiero hacer una entrevista con una IA? ¿Y si no quiero que graben mi entrevista para usarla como alimento del algoritmo? La IA en recruiting todavía está muy verde.
Ya no es ciencia ficción recibir un mensaje de un “reclutador” que en realidad es un bot, o realizar una entrevista online donde al otro lado no hay un humano, sino un agente de IA. De hecho, para finales de 2025, 7 de cada 10 compañías planean usar IA en la contratación, y hoy un 82% la usa para filtrar currículums, 40% para comunicarse con candidatos (p. ej. mediante chatbots o generando emails con IA) y 64% para evaluar pruebas de candidatos.
Delegar el primer filtro a un algoritmo puede parecer una solución eficiente en un mercado laboral saturado, pero la velocidad también tiene un precio: sesgos, errores técnicos que penalizan a candidatos, problemas en la privacidad, despersonalización y una creciente sensación de alienación. Ya no son casos aislados. Estos últimos años el panorama ha evolucionado paulatinamente: entrevistas hechas por IA, CV analizados por algoritmos y candidatos falsos se están volviendo la nueva normalidad en la búsqueda de empleo.
Hace unas semanas, Iria (@iriagal en X) posteaba su experiencia siendo entrevistada por una IA que “volveuse un pouco tola” durante la llamada. Pasó del inglés al gallego tras analizar su CV. Este no es el único caso. Hay cientos de aberraciones de la IA durante entrevistas.

Como ella, miles de personas ya han pasado por situaciones similares. Y aunque aquí en España todavía no es una tendencia, no vamos a tardar en verlo.
Ante esto surge la pregunta: ¿estamos preparados para ser entrevistados por una IA?
Y, sobre todo, ¿están preparadas las IA para entrevistarnos a nosotros?
Hemos investigado cómo funcionan estas entrevistas automatizadas, qué prometen, el papel que tus datos juegan en todo esto, los riesgos que conllevan y hacia dónde deberíamos encaminar el futuro de la selección de personal. Dentro artículo denso, pero que no vas a poder dejar de leer.
¿Cómo funciona una entrevista hecha por IA?
Una entrevista conducida por IA suele desarrollarse de forma online (en video o audio) y el proceso está totalmente automatizado. Entras en un enlace y normalmente, sigues las instrucciones para empezar. El candidato/a responde preguntas (ya sea en directo con un avatar o grabándose en diferido) mientras el algoritmo registra y analiza múltiples capas de información.
Por un lado, transcribe y evalúa el contenido de las respuestas: las palabras y expresiones usadas, su coherencia semántica y hasta su correspondencia con las competencias buscadas para el puesto.
Al mismo tiempo, si es una entrevista en video, la IA puede analizar señales no verbales: microexpresiones faciales, contacto visual, lenguaje corporal, tono y ritmo de voz, nivel de entusiasmo percibido, etc. Todas estas sutilezas –desde las palabras que eliges hasta una sutil mueca facial– se convierten en datos.
Con estos datos recogidos, el sistema compara tu perfil contra un modelo “ideal” definido por la empresa o entrenado con datos de empleados exitosos.
Algunos proveedores generan incluso una puntuación de empleabilidad, un ranking de candidatos o un informe automatizado de competencias. Por ejemplo, la plataforma HireVue llegó a utilizar la cámara del ordenador o del móvil para analizar movimientos faciales, selección de palabras y tono de voz, y luego clasificar al aspirante con una puntuación que indicaba su idoneidad. Herramientas similares (como VidRecruiter, CodeSignal, Brazen, entre otras) ya forman parte del paisaje moderno de RR.HH., evaluando de forma automática aspectos que antes solo eran juzgados por una persona humana.
El resultado de una entrevista por IA es sencillo: Ok o KO. Puede ser un “pasas/ no pasas” automático a la siguiente fase o una clasificación de candidatos. En muchos casos, los responsables de selección (recruiters o hiring managers) reciben un listado con los aspirantes ordenados según la puntuación que la IA les ha asignado e incluso con etiquetas sobre rasgos detectados (p. ej. “alta capacidad de aprendizaje” o “tendencia al pensamiento crítico”).
Por ejemplo, HireVue afirmaba que en una entrevista de 30 minutos su algoritmo podía extraer hasta 500.000 datos, evaluando dimensiones como “responsabilidad” o “estabilidad personal” a partir de cómo responde el candidato y su lenguaje corporal.

En la práctica, la idea de utilizar estos softwares da al reclutador humano mucho tiempo para enfocarse solo en los candidatos mejor puntuados por la IA, dejando al resto fuera del proceso en segundos. De hecho, empresas como Hilton han reconocido que gracias a estos sistemas han reducido su tiempo de contratación de seis semanas a solo cinco días, debido a que los hiring managers solo revisaban a aquellas personas que la IA no marcó como “los mejores”.
Es necesario aclarar que estas IAs no “piensan” como un humano, sino que correlacionan patrones: comparan lo que ven/ oyen del candidato con patrones de entrevistas exitosas previas o con un conjunto de indicadores estadísticos de buena performance.
En esencia, son algoritmos de clasificación y predicción: analizan señales verbales y no verbales y predicen cómo de bien encaja esa persona en el rol, basándose en datos históricos.
La promesa de la IA en recruiting: velocidad, eficiencia, precisión y más tiempo para el reclutador
¿Por qué tantas empresas empiezan a delegar partes de sus contrataciones a sistemas de IA? Los proveedores (y defensores) de estos softwares tienen claros algunos beneficios teóricos:
- Velocidad y ahorro de tiempo: Una IA puede cribar cientos de CV en minutos o entrevistar virtualmente a miles de candidatos en paralelo, algo imposible para un equipo humano. Esto reduce drásticamente el time-to-hire.
Por ejemplo, según cuenta HireVue en uno de sus casos de éxito, Unilever ahorró 100.000 horas de entrevistas al año implantando evaluaciones con IA, acelerando sus contrataciones y ahorrando cerca de $1 millón anual.
Startups como Apriora prometen “reducir costos en un 93% y acelerar las contrataciones en un 87%” delegando entrevistas a avatares virtuales. - Eficiencia en tareas repetitivas: La IA automatiza tareas pesadas y monótonas del reclutamiento: filtrar CV por palabras clave, programar entrevistas, hacer preguntas introductorias, tomar notas de la entrevista, responder emails básicos a candidatos, etc.
Plataformas como Workday o Greenhouse, ampliamente usadas, pueden cribar miles de candidatos buscando requisitos objetivos y hasta puntuar su encaje en segundos.
Otras herramientas permiten parametrizar el perfil ideal: bajo una descripción de puesto, la IA identifica a los candidatos más idóneos para optimizar tiempo.
También pueden informar automáticamente a los candidatos sobre su estado: por ejemplo, enviar un mensaje al instante cuando pasan de fase o cuando son descartados, eliminando silencios en la comunicación. Todo esto libera a los reclutadores de esfuerzo operativo. - Precisión y mejor decisión: Se argumenta que una IA bien entrenada puede tomar decisiones más objetivas, detectando matices que un humano pasaría por alto y eliminando sesgos inconscientes. Un eslogan común en todo este tipo de software es que la IA evalúa “datos, no intuiciones”.
Por ejemplo, los defensores sostienen que un algoritmo no se dejará llevar por si el candidato “le cae bien” o por prejuicios sobre su aspecto, sino por su competencia medida en la entrevista.
También, alegan que puede estandarizar el proceso: a cada candidato se le hacen las mismas preguntas, se le mide con la misma vara y las decisiones son consistentes. En teoría, esto aumentaría la justicia y la meritocracia en la contratación (ya hablaremos de los sesgos reales en el punto 5: Los riesgos actuales). - Mejor uso de los humanos: Al encargarse la IA del “trabajo sucio” (habemos quienes disfrutamos mucho de ese “trabajo sucio”), los reclutadores y managers pueden enfocarse en lo estratégico y humano. Ya es bien manida la frase: “la IA no viene a reemplazar a las personas, sino a liberarles de tareas repetitivas y sin valor añadido, para que puedan enfocarse en lo que realmente importa”.
Esto podría significar más tiempo para entrevistas en profundidad con finalistas, para mejorar la experiencia del candidato, para una mejor planificación de talento, etc., en lugar de revisar CV o agendar citas.
La cofundadora de Metaview (software de grabación de entrevistas) dice esto, “La IA puede darte una visión de alta definición de los candidatos, pero la decisión final sigue recayendo en el juicio humano”.
Es decir, idealmente el reclutador se convierte en un orquestador de la IA, y apoyándose en esta le daría más información y le quitaría carga administrativa.
En conjunto, la promesa es muy seductora para todas estas empresas que buscan reducir costes allá donde se pueda: procesos de selección más rápidos, baratos y “objetivos”. No es casualidad que IBM despidiera a 200 reclutadores para sustituirlos por agentes de IA recientemente, o que Meta (Facebook) anunciara en 2022 que el reclutamiento sería una de las áreas más afectadas por la automatización, recortando 1.500 puestos de RR.HH.
Las cifras que se barajan en diferentes informes también avalan la tendencia: más de la mitad de las empresas ya usan IA en algún paso de sus contrataciones, y se espera que casi 7 de cada 10 lo hagan para 2025.
Sin embargo, detrás de los beneficios proclamados asoman retos importantes: ¿en qué se basan realmente estas “decisiones objetivas” de la IA? ¿Cómo aprenden y qué riesgos implican? ¿Cómo son sus algoritmos que rankean candidatos? Eso nos lleva al papel crucial de los datos (tus datos) en estos sistemas.
El rol de los datos de entrevistas: cómo se alimenta el algoritmo
Los algoritmos de selección por IA no surgen de la nada: si trabajas en tecnología sabes cómo se crean. Se entrenan y mejoran alimentándose de datos, muchos datos. En particular, los datos de entrevistas pasadas se han vuelto un tesoro para refinar estos modelos.
La idea es que la IA pueda “aprender” de la experiencia acumulada en tu propia organización, entendiendo qué tipo de candidatos terminan teniendo éxito y cómo fueron sus entrevistas, para así buscar perfiles similares o al menos evaluar con esos referentes en mente. Este patrón característico de a quién contratas y valoras es la manera en la que se alimenta al algoritmo para que se adapte a ti y no sea genérico.
¿Cómo aprende una IA de entrevistas anteriores?
Un enfoque común es el siguiente: la empresa alimenta al sistema con grabaciones o transcripciones de entrevistas realizadas a empleados actuales (generalmente, gente que ya fue contratada y cuyo desempeño se ha medido).
Se incluyen tanto casos de alto desempeño como de desempeño bajo.
Luego, el algoritmo extrae patrones de esas entrevistas, vinculándolos con resultados. Por ejemplo, detecta que en las entrevistas de quienes luego fueron líderes en ventas, era común mencionar X o mostrar mucha energía al hablar de desafíos, mientras que quienes rindieron peor tendían a titubear en ciertas preguntas.
A partir de cientos de miles de estos datos, el modelo construye un perfil estadístico de éxito. Efectivamente, “los mejores candidatos terminan viéndose y sonando como los empleados que antes tuvieron éxito” en palabras de Loren Larsen, director de tecnología de HireVue.
Cuando llega un nuevo candidato, la IA compara sus respuestas con ese patrón ideal y calcula la probabilidad de que encaje o rinda bien, basándose en similitudes con los ganadores previos.

Un ejemplo fácil de ver: HireVue, en sus evaluaciones con IA, pedía a la empresa definir el puesto y luego hacía que empleados que ya formaban parte la empresa con ese rol hicieran la misma entrevista con la IA. Sus respuestas se comparaban con métricas de rendimiento (ventas logradas, evaluaciones de desempeño, etc.) para crear un modelo de qué rasgos en una entrevista predicen mejores resultados.
Así, si aquellos empleados destacados mostraban más entusiasmo facial al hablar con clientes simulados, la IA aprenderá que sonreír y demostrar cierto tono al responder se asocia a éxito, otorgando mejor puntuación a candidatos que muestren esa conducta.
Del mismo modo, identifica palabras “positivas” relacionadas con el rol (p. ej. en soporte al la IA podría valorar mejor el mencionar “empatía” o “resolver” sobre términos más agresivos).
En resumen, la IA captura el conocimiento de años de entrevistas y contrataciones para aplicarlo consistentemente a nuevos candidatos.
Además del entrenamiento inicial, muchos sistemas siguen aprendiendo con cada interacción: retroalimentación continua. Por ejemplo, si el agente rechaza candidatos, pero luego la empresa contrata a uno que la IA descartó, ese “error” puede usarse para ajustar el modelo.
Por el contrario, si todos los recomendados como "top" llegan lejos, refuerza esos criterios. Herramientas como Metaview, que graban y transcriben entrevistas completas, dicen “mejor que nadie el contexto de contratación de la empresa” gracias a esos datos.
Esta capacidad de machine learning interno tiene un doble filo. Por un lado, promete personalizar la IA a la realidad y cultura específica de cada empresa (no es lo mismo contratar para un banco tradicional que para una startup tecnológica; la IA puede captar esas diferencias si se entrena con tus datos propios). Incluso, compañías como Goldman Sachs han dicho que las grabaciones de sus entrevistas son un “tesoro de datos” que les permite analizar qué atributos de los candidatos se correlacionan con un buen desempeño a largo plazo.
Pero, por otro lado, si tus datos de contratación contiene sesgos, si los datos con los que alimentas al algoritmo no están bien auditados, la IA podría amplificarlos. Por ejemplo, Amazon entrenó un modelo con 10 años de historiales de contratación donde la mayoría de contratados eran hombres, y la IA “aprendió” a preferir candidatos masculinos, penalizando ciertos términos relacionados con mujeres.
El aprendizaje de datos pasados siempre corre el riesgo de ser “basura entra, basura sale” si esos datos estaban sesgados (normalmente, al ser hechas por humanos, las contrataciones suelen estar sesgadas históricamente).
En resumen, los datos de entrevistas son el combustible de los agentes de IA para reclutar. Cuantas más conversaciones procesa, más entiende qué busca tu empresa: desde el tono que valoran tus managers hasta las palabras clave que más se repiten en quienes superan el corte y pasan de ronda. Es el reflejo digital de los criterios de la empresa, para bien y para mal. De ahí la importancia de vigilar qué le estamos enseñando a la IA y de garantizar que ese aprendizaje no perpetúe prejuicios ni prácticas opacas.
Dado que los datos son tan importantes, esto nos lleva a examinar los riesgos actuales, especialmente en torno a sesgos, consentimiento, deshumanización y transparencia, que son quizás las mayores amenazas ahora mismo.
Los riesgos actuales: sesgos y falta de transparencia
–– Sesgos
No todo son ventajas en la adopción de IA para reclutar. De hecho, uno de los riesgos más señalados es el de reproducir o incluso agravar sesgos discriminatorios que existen en la sociedad o en los datos históricos.
Ya hemos hablado del ejemplo de Amazon: su sistema experimental de filtrado de CV terminó descartando a candidatas mujeres por el mero hecho de detectar palabras como “women’s” (ej. “capitana del club de ajedrez femenino”) en sus CV, otorgando menos puntuación automáticamente. ¿La razón? El algoritmo había inferido del histórico (dominado por hombres) que ser mujer correlacionaba con menor éxito en los puestos técnicos que buscaban, una conclusión obviamente indeseable y sesgada.
Amazon tuvo que desactivar aquel proyecto en 2017 al darse cuenta de que “no calificaba de forma neutra en cuanto al género”.
Este caso se volvió paradigmático y aleccionador: un algoritmo aprende patrones, no ética, y si la mayoría de tus contratados previos son de cierto grupo, puede concluir que ese grupo es “mejor” y perpetuar un ciclo vicioso de exclusión.
Estudios e investigaciones de la Universidad de Washington en 2024 encontraron sesgos significativos en modelos de IA usados para cribar candidatos: nombres asociados a hombres blancos eran favorecidos un 85% de las veces, mientras nombres de mujer apenas un 11%. Es decir, la herramienta privilegiaba a cierto perfil demográfico sobre otros por defecto. Lo cual es ilegal y anticonstitucional en muchos países.
Pero volvamos a las entrevistas por video: voces críticas han apuntado que evaluar a alguien por su expresión facial o tono de voz puede penalizar a personas que, por su cultura, idioma nativo o neurodivergencia, se expresan de forma distinta a lo que el modelo considera óptimo.
Por ejemplo, candidatos cuyo idioma nativo no es el inglés podrían usar menos “palabras clave” o tener acento, y la IA podría interpretarlo erróneamente como menor competencia; o alguien muy nervioso (algo común en entrevistas) podría ser puntuado bajo en “confianza” por su voz temblorosa, sin que eso refleje su capacidad real para el trabajo. En definitiva, el riesgo es que la IA amplifique sesgos y evalúe por criterios irrelevantes o injustos.
La realidad es que nadie está vigilando, cribando o auditando los datos con los que se entrenan estos algoritmos. Y quizás ese es el gran problema. La falta de vigilancia sobre datos que están sesgados solo hacen que la IA imite y amplifique estos sesgos.
–– Transparencia y trazabilidad
Junto al problema del sesgo está el de la falta de transparencia y explicabilidad de las decisiones tomadas. Muchos de estos algoritmos son verdaderas “cajas negras”: ni los candidatos, ni a veces los propios reclutadores entienden exactamente por qué la IA ha tomado cierta decisión.
Imagina recibir un correo automático: “Lo sentimos, tu candidatura no avanza en el proceso”. Lo más normal es que te preguntes por qué: ¿fue por mi experiencia, por algo que dije en la entrevista grabada, por cómo me vio la cámara?
En la mayoría de casos, no hay forma de saberlo. Las empresas suelen tratar estos modelos como secretos comerciales y no revelan los factores ni ponderaciones que usan. HireVue, por ejemplo, reconocía que su IA no explicaba las decisiones ni mostraba las puntuaciones a los candidatos, porque lo consideraban "no relevante". WTF!
Esto es problemático: ¿cómo apelar o corregir una decisión errónea si ni siquiera sabes en qué se basó?
La mayoría de estos casos han sucedido en Estados Unidos, donde la regulación es más laxa. En 2019, Electronic Privacy Information Center (EPIC) presentó una queja ante la FTC (Comisión Federal de Comercio) contra HireVue, alegando que sus evaluaciones algorítmicas eran “sesgadas, no comprobables y no replicables” y por tanto constituían prácticas injustas y engañosas hacia los solicitantes. En esencia, les acusaban de interferir en el futuro laboral de alguien sin base científica sólida ni posibilidad de escrutinio independiente.
De hecho, HireVue terminó retrocediendo: en 2021 anunciaron que eliminaban el análisis facial de su software de entrevistas virtuales debido a la polémica y a la falta de claridad sobre su validez. Este caso muestra la necesidad de que estas herramientas sean más auditables y demuestren que no discriminan antes de ser ampliamente aceptadas.

Otro riesgo es que la confianza ciega en la IA puede llevar a errores garrafales o bugs pasados por alto. Por ejemplo, hubo casos donde el agente virtual falló estrepitosamente: una candidata reportó que su entrevistador AI repetía incoherencias (“Pilates con barra vertical”) en bucle como si estuviera poseído, y otro postulante contó que el bot se trabó tartamudeando la misma frase sin sentido por minutos.
Situaciones así, aparte de generar un mal rato, pueden hacer perder talento (ese candidato fue rechazado con un mail genérico tras la tortuosa hora con el bot) y minar la confianza en el proceso y en la empresa.
La falta de supervisión humana en esos momentos agrava el problema: ningún reclutador estaba vigilando para darse cuenta del fallo y solucionarlo. La opacidad también dificulta detectar estos fallos sistemáticos.
–– Consentimiento
Y luego, por otro lado está el consentimiento.
El consentimiento como condición para participar en el proceso de selección plantea dudas sobre su validez.
El RGPD exige que el consentimiento sea verdaderamente libre, lo que no se cumple si el candidato se ve obligado a aceptarlo para no ser excluido de la oportunidad laboral. En otras palabras, si se impone al candidato la aceptación del uso de IA como requisito para postular, ese consentimiento podría considerarse inválido por existir un claro desequilibrio de poder entre el candidato y la empresa.
La autoridad europea de protección de datos desaconseja basarse en el consentimiento en contextos laborales debido a esta presión coercitiva. Por ello, las empresas deben garantizar que la negativa del candidato a ser evaluado por IA no le excluya automáticamente del proceso, ofreciendo un medio alternativo de evaluación.
En cuanto a los derechos del candidato sobre sus datos, el RGPD (y la Ley Orgánica 3/2018 española, en su caso) recogen que el candidato tiene derecho de acceso a sus datos personales, de rectificación, de supresión (derecho al olvido) una vez hayan dejado de ser necesarios, de limitación del tratamiento, de oposición a ciertas tratamientos (como el uso para entrenar el algoritmo), e incluso de portabilidad de sus datos a otro responsable.
Si el tratamiento se basa en el consentimiento, este puede revocarse en cualquier momento sin perjuicio para el candidato.
Además, los datos recopilados durante un proceso de selección no deben almacenarse indefinidamente: la empresa ha de fijar un plazo de conservación limitado y eliminar (o anonimizar) la información una vez concluido el proceso selectivo.
Estas obligaciones implican, por ejemplo, que un candidato puede solicitar la supresión de sus grabaciones de entrevista almacenadas en sistemas de IA una vez finalizada la evaluación, y la empresa deberá atender esa solicitud en los términos previstos por la ley.
Como dijo Nihar Shah, computer scientist de la Carnegie Mellon, “cómo asegurar que el algoritmo sea justo, y que sea interpretable y explicable, es algo para lo que aún estamos bastante lejos”.
Mientras esas brechas no se cierren, existe un riesgo reputacional, legal y ético latente al usar estas herramientas.
La experiencia del candidato: entre la eficiencia y la deshumanización
Desde el punto de vista de los candidatos, ser evaluado por una IA puede sentirse alienante y muy distinto a una entrevista tradicional.
Por destacar algo positivo, algunas fricciones del proceso se reducen: muchos candidatos valoran la flexibilidad de, por ejemplo, completar una entrevista en video on-demand en el horario que más les convenga (sea a las 9 de la noche después del trabajo, etc.), en vez de tener que coordinar agendas con un reclutador.
También evita desplazamientos y puede acelerar la respuesta: en vez de esperar semanas sin noticias, quizás un sistema automatizado te informa en días o incluso al instante si avanzas, lo cual al menos aporta claridad.
Además, una IA bien programada debería tratar a todos por igual –haciendo las mismas preguntas en el mismo tono–, lo que algunos candidatos perciben como mayor justicia e imparcialidad (no habrá entrevistadores distraídos, ni un “mal día” porque la máquina no los tiene).
Incluso, si la empresa lo comunica adecuadamente, saber que la conversación queda grabada y será revisada objetivamente puede dar tranquilidad de que “lo que dije quedará grabado y no dependerá de la memoria del entrevistador”. MEtaview afirma que más del 95% de los candidatos de empresas que usan su software acceden a que se graben sus entrevistas, entendiendo que así el proceso es más justo y enfocado en lo que realmente respondan.
Esto entra en colisión frontal con el consentimiento tácito. Si como candidato quiero acceder a un empleo, es más fácil que ceda mis datos que si no tengo un incentivo o necesidad.
Y, por último, se supone, que las automatizaciones pueden garantizar que siempre recibas una comunicación de cierre aunque sea negativa, algo preferible a quedar en el limbo del silencio eterno.
Sin embargo, en la balanza pesa también una serie de aspectos negativos en la experiencia del candidato.
El más mencionado es la sensación de deshumanización. Una entrevista de trabajo no es solo un examen técnico; tradicionalmente es un encuentro humano, donde el candidato busca conectar, mostrar su personalidad y también evaluar la cultura de la empresa a través del trato y la conversación entre dos personas.
Con una IA, muchos sienten que “le hablas a la pared”. No hay feedback no verbal (un asentimiento, una sonrisa de quien te escucha) ni posibilidad de hacer preguntas espontáneas o entablar una conversación genuina. Esa falta de calidez la describen algunos como inquietante. Otros lo viven como un proceso frío y alienante: “Si una empresa no se toma el tiempo de hablar conmigo, yo tampoco me tomaré el tiempo de trabajar para ellos”.
Esta cita refleja lo que puede impactar en la imagen empleadora: para ciertos perfiles con mucha experiencia, la entrevista con una IA o un bot puede interpretarse como que la empresa no valora lo suficiente a sus candidatos y decidan autoexcluirse.
De hecho, un estudio de Pew Research indicó que el 66% de los candidatos preferiría evitar empleadores que dependan de tecnología AI para evaluarlos, señal de que todavía genera recelo.

Además, está el tema de la empatía y los matices: una máquina difícilmente va a entender circunstancias personales o transmitir empatía si el candidato, por ejemplo, ha tenido una laguna por nervios. Un entrevistador humano entrenado podría suavizar la situación, reformular la pregunta o dar ánimos; un sistema automatizado simplemente pasa a la siguiente pregunta o, peor, puntúa negativamente esos silencios sin que tú sepas que la has cagado.
Esto puede incrementar la ansiedad del candidato: muchos cuentan que hablarle a una cámara, sabiendo que un algoritmo te analiza, produce una ansiedad diferente (como “querer adivinar qué quiere ver la IA de mí”).
Algunos universitarios en EE.UU. ahora reciben entrenamiento específico para “agradar” a HireVue: practicar sonrisas, tono enérgico, palabras clave, etc., lo cual añade una capa artificial a la entrevista.
También existen preocupaciones sobre errores técnicos y equidad en la logística: ¿qué pasa si mi conexión falla durante la entrevista automatizada? ¿O si el algoritmo no entiende bien mi acento y transcribe mal mis respuestas? ¿Seré descalificado por un tema técnico ajeno a mis habilidades?
Estos problemas implicarían dar segundas oportunidades o tener canales de soporte para el candidato. Cosa que no sucede.
Y dentro de todo esto, queda por abordar el recelo y la desconfianza que muchos técnicos expresan ante el uso de la IA en entrevistas. No hay una explicación previa sobre por qué usas IA (por justicia, por agilidad) y cómo se protegerán sus datos.
Aspectos legales y éticos: consentimiento, privacidad y regulaciones emergentes
Esto ha pillado a medio camino a legisladores y reguladores, pero ya se están estableciendo líneas rojas y obligaciones para garantizar un uso ético y legal de estas herramientas. Puntos importantes:
- Consentimiento informado de los candidatos: En muchas jurisdicciones de Estados Unidos se exige que si vas a usar una IA para evaluar a un candidato, debes informarlo claramente y obtener su consentimiento explícito. Por ejemplo, el estado de Illinois (EE.UU.) promulgó en 2020 la Ley de Entrevistas por Video con IA, que obliga a notificar al aspirante antes de una entrevista automatizada, explicarle cómo funcionará la IA y obtener su acuerdo por escrito. Del mismo modo, Maryland prohíbe usar tecnología de reconocimiento facial durante entrevistas sin consentimiento del candidato.
Estas leyes buscan que el candidato no sea analizado por algoritmos ocultos sin saberlo. En Europa, el Reglamento General de Protección de Datos (GDPR) también ampara esto: si va a haber toma de decisión automatizada que afecte significativamente al individuo (como rechazarle para un empleo), la persona tiene derecho a ser informada y a dar su consentimiento o a exigir intervención humana en la decisión.
Las empresas responsables empiezan a incorporar en sus procesos cláusulas donde el candidato autoriza, por ejemplo, la grabación de la entrevista y el análisis automatizado con fines de selección, habiendo sido informado de las características del sistema. Sin ese consentimiento, proceder con una evaluación algorítmica podría vulnerar derechos de privacidad y autodeterminación informativa.
Ahora mismo esto es un checkbox o un botón más como quien acepta las cookies o los Términos y condiciones. Pero en la práctica es mucho más relevante y grave dado que tu entrevista (tu voz, tus gestos faciales, tu experiencia, etc.) puede ser usada para alimentar el algoritmo de la compañía. Y es muy posible que tú no hayas consentido de manera informada. - Protección de datos sensibles (voz, imagen, biometría): Las entrevistas grabadas contienen datos personales de categoría delicada. La voz y la imagen pueden considerarse datos biométricos, que en legislaciones como la europea tienen un nivel especial de protección. Esto implica fuertes medidas de seguridad en el almacenamiento de los vídeos, restricciones sobre con quién se comparten y cuánto tiempo se conservan, etc.
Empresas como Metaview enfatizan que sus sistemas son seguros y cumplen estándares, pero aun así aconsejan eliminar las grabaciones cuando ya no sean necesarias y honrar cualquier solicitud del candidato de acceder o borrar sus datos.
La privacidad y el consentimiento del candidato es un tema sensible: la IA podría extraer de una entrevista datos no estrictamente laborales (por ejemplo, inferir rasgos emocionales, estado de salud por la voz, etc.), lo cual rozaría la línea de lo legal. Aquí la ética (y la GDPR) nos indica: solo usar los datos para el propósito legítimo de evaluar habilidades para el trabajo, nada más.
Vemos ya guías internas en empresas prohibiendo a la IA fijarse en elementos como el color de piel, la decoración de la estancia que se ve en cámara, o cualquier indicador no relacionado con el puesto, para no invadir esferas personales o incurrir en discriminación indirecta. - Transparencia y derecho a explicación: Desde un punto de vista ético (y cada vez más legal), se considera que los candidatos deberían tener derecho a saber que una IA está participando en su evaluación y cómo lo hace.
La regulación pionera de la ciudad de Nueva York (NYC) va en esta línea: desde 2023, NYC prohíbe que las empresas usen herramientas automatizadas de decisión en empleo sin antes realizar una auditoría independiente de sesgos y notificar a los candidatos que tales herramientas serán usadas. Además, obliga a publicar los resultados agregados de esas auditorías anualmente.
Esto significa que, al menos en NYC, si una empresa utiliza un algoritmo para filtrar o puntuar candidatos, debe evaluar si su algoritmo tiende a rechazar desproporcionadamente a grupos protegidos (mujeres, minorías, etc.) y proveer esa información públicamente, garantizando cierta transparencia.
A nivel de la Unión Europea, el Reglamento de IA (AI Act) cataloga a los sistemas de IA para contratación como “de alto riesgo”, imponiendo requisitos como evaluación de riesgos, trazabilidad de decisiones, documentación técnica rigurosa y posibilidad de supervisión humana continua. - Evitar la discriminación algorítmica: Legalmente, la responsabilidad por discriminación en la contratación no desaparece por delegar en una IA. Si un candidato demandara alegando que fue discriminado por su edad o raza debido a un filtro automatizado, la empresa contratante tendría que responder igualmente.
Por eso, éticamente se pide aplicar principios de “IA justa”: auditar los conjuntos de entrenamiento, probar el sistema con diferentes subgrupos demográficos y corregir posibles sesgos antes de usarlo operacionalmente. Para que te hagas una idea, estos algoritmos se están probando en directo, con personas que quieren acceder a un empleo, antes de ser auditados y revisados.
Lo que ya está pasando: el contraataque de los candidatos
Un tema casi anecdótico es el contrajuego de los candidatos: así como las empresas usan IA para filtrar, los candidatos usan IA para pasar esos filtros.
Por ejemplo, proliferan consejos de cómo usar ChatGPT para escribir CV optimizados con palabras clave, o plataformas que generan respuestas de entrevista ideales.
Tanto es así que un estudio de Gartner indicó que en 2023, 69% de los reclutadores usaban software para detectar solicitudes generadas por IA, y casi la mitad descartaban automáticamente esos CV “fabricados”. Esto evidencia que se está dando una especie de lucha sin sentido en la búsqueda de empleo: algoritmos evaluando candidatos y candidatos tratando de vencer a los algoritmos.

Por último, ya se empiezan a ver auditorías externas y normativas (como la de NYC ya en vigor) que están empujando a las empresas a revisar sus casos de uso de IA en selección. Consultoras de terceros ofrecen revisar los algoritmos de contratación de una empresa para detectar sesgos (ha surgido todo un nuevo nicho de mercado de “auditoría algorítmica”).
Esto ha llevado a muchas compañías globales a anticiparse y auditar voluntariamente sus sistemas para evitar problemas. Y empresas como Microsoft, JP Morgan y otras han ralentizado o pausado ciertos proyectos de IA en RR.HH. hasta estar seguras de su equidad.
¿Qué futuro queremos construir?
Después de analizar todos estos casos de usos, pros y contras, cabe preguntarse: ¿cómo queremos que sea el futuro del reclutamiento y la búsqueda de empleo?
Es evidente que la inteligencia artificial ocupará un lugar cada vez mayor en los procesos de selección –grandes empresas incentivarán cada vez más su uso en pro de ahorrar costes en personal de RR.HH.–, pero el cómo lo hagan marcará la diferencia entre un futuro positivo o uno distópico en la gestión del talento.
Nuestra postura como Manfred está clara. Nos declaramos “La resistencia”. No usamos IA en ninguno de los puntos de nuestro proceso de selección y todas las decisiones son tomadas por un humano. Desde la creación de una oferta de empleo, la revisión de un CV, una entrevista con candidatos, el feedback o el descarte. Entendemos que es la única manera de seguir mejorando este sector. Apostando por un trato humano y tiempo dedicado a cada persona.
- En un escenario ideal, la IA sería un aliado transparente, justo y eficaz para los reclutadores, sin desplazar los valores humanos fundamentales. Esto implica varias cosas. Primero, no sacrificar la empatía y el trato humano por la pura automatización. La tecnología debe usarse para agilizar y mejorar la información, pero no para deshumanizar la experiencia.
Las empresas no tienen un incentivo real para mantener un reclutamiento 100% humano. Así que deberán ser las legislaciones quienes nos den opciones. Por ejemplo, si un candidato siente incomodidad con la IA, darle la opción de una ruta alternativa: “si prefieres una entrevista humana, solicítalo”.
- Segundo, mantener al ser humano como el que toma las decisiones . Detrás de cada decisión automatizada debe haber supervisión humana. Los algoritmos no pueden operar en piloto automático sin que nadie pueda intervenir. Siempre debe haber un profesional de RR.HH. revisando las recomendaciones de la IA, preparado para cuestionarlas o ajustarlas. La decisión final de contratación, despido o promoción debe ser tomada por personas, asumiendo la responsabilidad que conlleva. La IA puede dar una recomendación basada en datos, pero la deliberación sobre quién encaja mejor en un equipo, quién merece una oportunidad de desarrollarse, etc., son juicios complejos que involucran ética, intuición y contexto amplio que un algoritmo difícilmente podrá encapsular.
- Tercero, exigir y construir IA explicables y equitativas. La comunidad técnica y de RR.HH. debe abogar por que las herramientas sean auditables, que ofrezcan explicaciones entendibles de sus criterios y que pasen pruebas de sesgo antes de ser comercializadas. Esto puede significar colaborar en el desarrollo de estándares abiertos para IA de reclutamiento, compartir datos entre organizaciones para detectar sesgos comunes, e incluso involucrar a los propios candidatos en retroalimentar el sistema con feedback.
- Cuarto, no perder de vista la experiencia del candidato. Debemos diseñar los procesos pensando en cómo se sienten los candidatos. Si una compañía se precia de ser cercana y centrada en las personas, quizá usar una IA no es la mejor idea. El objetivo final es que la tecnología mejore la experiencia, no que la abarate y la empeore.
- Finalmente, un aspecto crítico: formar a los profesionales de RR.HH. La comunidad debe prepararse aprendiendo sobre estas tecnologías, sus ventajas y riesgos, para usarlas con criterio. Así como hoy es impensable un reclutador que no sepa usar LinkedIn, en unos años lo será no saber interactuar con IA de selección. Pero igual de importante es inculcar en esa formación los principios de ética de IA, sesgos cognitivos y diversidad e inclusión, para que nunca se delegue el criterio moral a la máquina.
Hemos abierto un melón muy grande con este tema. En nuestras manos está ser el Imperio Galáctico o la Alianza Rebelde. Si queremos usar la IA para hacer el bien o si simplemente queremos usarla para que las empresas ahorren costes.
No deberíamos perder (más) los valores por el camino. No deberíamos sacrificar la diversidad, la equidad ni la calidez humana en nombre de la eficiencia. Al contrario, la tecnología debería ayudarnos a potenciar esos valores, eliminando sesgos donde sea posible, haciéndonos más conscientes de nuestras decisiones y permitiéndonos dedicar más tiempo a las personas.
Debemos mirar de manera crítica las promesas de la IA y moldearla a nuestros principios. Solo así conseguiremos que el futuro del recruiting sea un poquito mejor.
Fuentes y enlaces interesantes
- Tu CV ya no lo lee una persona. Así puedes ganarte a una IA para conseguir una entrevista - El Confidencial
- A face-scanning algorithm increasingly decides whether you deserve the job - The Washington Post
- Amazon scraps secret AI recruiting tool that showed bias against women - Reuters
- 7 in 10 Companies Will Use AI in the Hiring Process in 2025, Despite Most Saying It’s Biased - Resume Builder
- AI tools show biases in ranking job applicants’ names according to perceived race and gender - University of Washington
- How AI supercharges the hiring process - Metaview
- Recording interviews: why, how and tips to do it right - Metaview
- AI in Hiring and Evaluating Workers: What Americans Think - Pew Reserach Center
- IBM’s HR Shakeup: 200 HR Roles Replaced by AI Agents! - Medium Unleash.ai
- The Black Box Problem: Why AI In Recruiting Must Be Transparent And Traceable - Forbes