Cada vez es más común recurrir a la inteligencia artificial (IA) para realizar tareas en el entorno laboral: desde redactar un correo electrónico hasta diseñar una presentación o preparar un informe. Si bien la ayuda de los algoritmos es muy apreciada por gran parte de los usuarios, muchos son cautelosos a la hora de revelar que han recibido asistencia de los modelos de lenguaje generativos como ChatGPT, Gemini, Perplexity o Copilot.
Se ha debatido extensamente sobre los límites éticos del uso de la IA. Una de las cuestiones que suscita mayor consenso entre los expertos es la recomendación de declarar si se ha usado IA generativa –y a veces hasta la inclusión de los prompts utilizados para completar la tarea requerida—. La transparencia digital debería transmitir mayor confianza, pero paradójicamente puede generar justo lo contrario.
Esta es una de las principales conclusiones de nuestro artículo “The transparency dilemma: How AI disclosure erodes trust” (Organizational Behavior and Human Decision Processes, 2025), el cual examina el impacto de la revelación del uso de IA sobre la confianza en distintos tipos de tareas —desde comunicaciones y análisis hasta actividades artísticas—, así como entre diversos actores individuales –como responsables de equipos, colaboradores, docentes, analistas y personas creativas—, y también entre distintos actores organizacionales, como fondos de inversión.
Una cuestión de confianza
En el ámbito de la inteligencia artificial, se suele hablar de la confianza del usuario en la tecnología, pero también es importante considerar la confianza hacia quienes la utilizan. Nuestro estudio se centra en cómo la decisión de revelar el uso de la IA puede influir en la confianza que se deposita en una persona.
Nuestra investigación demuestra que quienes revelan haber utilizado IA inspiran menos confianza que las que no lo hacen. Además, este efecto negativo se mantiene independientemente de cómo se formule la revelación, va más allá del rechazo general a los algoritmos y ocurre tanto si se conoce o no el involucramiento de la IA, como si la revelación es voluntaria u obligatoria.
El dilema moral de revelar el uso de IA
Algunas personas consideran que revelar el uso de IA es una responsabilidad moral, ya que permite aclarar el papel que desempeña la tecnología en sus procesos laborales y reconocer sus contribuciones. Por otro lado, también existe preocupación por cómo será percibido dicho uso una vez revelado, como lo reflejan encuestas recientes: aunque la mayoría considera que debería hacerse público el uso de IA, muchas dudan si hacerlo.
Nuestra investigación aborda el dilema en torno a la revelación del uso de la IA. Estas revelaciones buscan visibilizar la intervención de sistemas automatizados que podrían impactar los procesos o resultados, funcionando como una advertencia para el público, al indicar que el trabajo no ha sido generado exclusivamente por una persona. Por tanto, tiende a percibirse como ilegítimo y, en consecuencia, a reducir la confianza.
El papel de la legitimidad
La legitimidad se refiere a la percepción de que las acciones o decisiones de una entidad son deseables, adecuadas o apropiadas en un contexto determinado. Las preocupaciones en torno a la legitimidad suelen surgir cuando las personas se enfrentan a prácticas que se desvían de las normas establecidas o desafían sus ideas preconcebidas sobre lo que constituye un comportamiento apropiado.
Cuando alguien actúa de forma que genera dudas sobre su adhesión a las normas sociales y altera el curso natural de las cosas —como lo reflejan los juicios negativos de legitimidad— se activan alertas mentales que impulsan la pérdida de confianza. En otras palabras, desviarse de las normas vuelve a una persona especialmente susceptible a perder la confianza de los demás.
Capacidades (hasta ahora) muy humanas
El valor especial que otorgamos a las capacidades e ideas humanas es una expectativa profundamente arraigada en nuestras normas culturales e incluso legales. Cuando se revela el uso de IA, esto puede percibirse como una desviación respecto a dicha expectativa, lo cual lleva a interpretar que las prácticas laborales son inapropiadas, ya que disminuyen —o incluso reemplazan— la capacidad humana. Aquí también entran en juego cuestiones como los derechos de autor.
Así, el uso de la IA se percibe como inconsistente con los estándares sociales establecidos para la ejecución de tareas, lo que socava la legitimidad. En cambio, si el uso de IA no se revela, no ocurre tal cambio de percepción, lo que permite mantener una apariencia de conformidad con las prácticas aceptadas.
La transparencia se vuelve desconfianza
La investigación sobre la transparencia suele mostrar sus efectos inherentemente positivos. Sin embargo, en nuestro estudio, las promesas de transparencia, destinadas a comunicar honestidad e inspirar confianza, pueden en realidad sembrar dudas. Al revelar abiertamente ciertas prácticas con el fin de tranquilizar, se atrae una mayor atención hacia ellas y se generan cuestionamientos sobre su adecuación.
Esta revelación, especialmente cuando busca disipar temores o dudas de forma anticipada, puede provocar reacciones defensivas. Así, aunque revelar el uso de IA pueda buscar prevenir dudas, paradójicamente puede invitar a un mayor escrutinio y escepticismo sobre la legitimidad de las prácticas de quien hace la revelación.
El impacto transversal de revelar el uso de IA
En nuestro estudio, el efecto negativo de la revelación del uso de IA sobre la confianza se observó no solo en la población general, sino también entre distintos grupos profesionales, como analistas legales y responsables de contratación, así como en muestras de estudiantes.
Se demostró que este efecto se manifiesta en diversas tareas de comunicación y redacción donde hoy en día se utiliza ampliamente la IA generativa –desde actividades cotidianas como redactar un correo electrónico, hasta tareas más significativas como escribir cartas de postulación—, pero también en aplicaciones analíticas –como estimaciones de devolución de impuestos— y actividades artísticas –como la creación publicitaria o el diseño gráfico—. Además, este efecto se observó para distintas situaciones, desde la decisión de contratar a una persona candidata a invertir dinero en un fondo.
Finalmente, encontramos que el efecto negativo se atenúa en personas con actitudes positivas hacia la tecnología y en quienes perciben que la IA es precisa; sin embargo, nuestro análisis no logró identificar que la familiaridad con la IA o su uso regular mitiguen dicho efecto.
Recomendaciones para las organizaciones
Muchas organizaciones se preguntan si la revelación del uso de IA debe ser opcional u obligatoria, cómo hacerla cumplir y cómo mantener la confianza. Nuestros hallazgos sugieren que ambas rutas —revelación voluntaria u obligatoria— pueden ser válidas, pero requieren estrategias específicas. Si se opta por la obligatoriedad, se recomienda aplicar controles como detectores de IA. Además, fomentar una cultura que legitime colectivamente el uso de IA, puede reducir el impacto negativo de la revelación sobre la confianza.
En el ámbito comercial, los efectos de revelar el uso de IA son igualmente relevantes. La transparencia sobre el uso de IA en marketing puede erosionar la confianza del consumidor, disminuyendo la percepción de autenticidad y el apego a la marca. Aunque la IA puede facilitar la producción de contenido, su uso explícito conlleva costos sociales y psicológicos que afectan negativamente la satisfacción, el compromiso y la lealtad de los clientes.
En comparación con la paradoja de la privacidad —donde las personas dicen preocuparse por su información, pero la comparten libremente—, el efecto de revelación de IA refleja una forma de hipocresía interpersonal: las personas critican el uso de IA en otros, a pesar de usarla ellas mismas.
El estudio también refuta la idea de que la IA es “solo una herramienta”, ya que incluso enmarcarla así no evita la pérdida de confianza cuando se revela su uso. Finalmente, aunque se plantea que la IA puede ser útil en etapas de ideación creativa, los autores anticipan que revelar su uso en este contexto podría tener altos costos sociales, cuestionando si realmente estimula la creatividad humana o simplemente recicla ideas preexistentes.
Los autores son profesor visitante distinguido en Liderazgo y Organizaciones Efectivas de EGADE Business School y la Escuela de Negocios del Tecnológico de Monterrey (Oliver Schilke) y profesor visitante distinguido en Comportamiento del Consumidor de EGADE Business School y la Escuela de Negocios del Tecnológico de Monterrey (Martin Reimann).