Un estudio revela que usar la IA no garantiza la confianza en ella
Una gran mayoría de personas utiliza la inteligencia artificial a diario, pero un estudio revela que usar la IA no garantiza la confianza en ella. Así lo revela una investigación realizada por la Universidad de Melbourne (Australia) en colaboración con la consultora global KPMG, basada en una encuesta realizada entre noviembre de 2024 y enero de 2025 a más de 48.000 personas en 47 países. Este análisis proporciona una imagen clara de cómo la población mundial percibe el uso cotidiano de estas herramientas, así como las preocupaciones éticas y técnicas que aún persisten.
Confianza técnica sí, confianza ética no
Según los datos obtenidos, más de dos tercios de los encuestados afirmaron utilizar sistemas de IA con frecuencia, ya sea en entornos laborales, educativos o durante su tiempo libre. Sin embargo, solo un 46% manifestó confiar en la inteligencia artificial de forma general. A los participantes se les pidió calificar su nivel de seguridad tanto en la capacidad técnica como en la solidez ética de estas tecnologías.
Los investigadores convirtieron esas percepciones en una escala de nueve niveles para medir el grado de confianza de cada usuario. Lo que más destaca es que la aceptación de la inteligencia artificial depende más de la confianza que del conocimiento o la experiencia de uso. “La confianza es el factor que mejor predice la aceptación de la IA”, aseguró Samantha Gloede, directora general de KPMG, al medio Euronews Next.
Los resultados también indican que las personas tienden a creer en la eficiencia y precisión técnica de la inteligencia artificial, pero muestran reticencias sobre su imparcialidad, su capacidad para evitar daños y su adecuación ética en la toma de decisiones.
Uso habitual y percepción de eficiencia
La encuesta revela que un 58% de los participantes utiliza la inteligencia artificial con regularidad en sus puestos de trabajo, y un 33% de ellos lo hace de manera semanal o incluso diaria. Para muchos empleados, la IA representa una herramienta que incrementa la eficiencia, mejora el acceso a la información y potencia la capacidad de innovación.
En aproximadamente la mitad de los casos, los encuestados afirmaron que estas tecnologías contribuyeron directamente a generar ingresos. No obstante, esta dependencia también ha creado una presión creciente entre los trabajadores, quienes sienten que, si no adoptan estos sistemas, podrían quedar rezagados frente a sus colegas o competidores.
“Las personas sienten casi una obligación de usar IA para no quedarse atrás”, explicó Gloede. Esta presión, aunque fomenta la adopción, también puede dar lugar a prácticas riesgosas o poco éticas dentro del entorno laboral.
Riesgos emergentes y conductas problemáticas
Una de las conclusiones más alarmantes del estudio es que la mitad de los usuarios que emplean IA en su trabajo lo hacen violando las políticas internas de sus compañías. Casos como el uso de herramientas públicas como ChatGPT para procesar información confidencial, o la generación de deepfakes de directivos, fueron mencionados como situaciones reales detectadas durante la investigación.
Además, muchos empleados han presentado contenido generado por IA como si fuera de su autoría, sin informar a sus superiores ni verificar la precisión del material. Según los datos, un 57% admitió haber ocultado el uso de estas herramientas en sus tareas diarias, y un 56% reconoció haber cometido errores laborales debido a la falta de revisión del contenido generado por estos sistemas.
Esto revela una falta de formación y supervisión, donde los trabajadores están improvisando su relación con la tecnología sin directrices claras ni preparación adecuada. “En las organizaciones donde no se ha implementado una política o formación sobre IA, los empleados actúan por su cuenta”, advirtió Gloede.
Falta de formación y desconocimiento generalizado
Otro dato clave del informe es que el 50% de los empleados reconoce no entender en profundidad qué es la inteligencia artificial ni cómo funciona. Solo dos de cada cinco afirmaron haber recibido algún tipo de formación formal sobre cómo utilizarla en su entorno laboral.
Esta falta de conocimiento técnico y ético aumenta el riesgo de errores, malentendidos y usos inapropiados, tanto desde el punto de vista de la seguridad empresarial como del cumplimiento normativo.
Ante esta situación, los expertos proponen implementar un “marco de confianza” que ayude a guiar el uso responsable de la inteligencia artificial en las empresas. Según Gloede, este marco debe incluir al menos diez principios básicos, que aborden desde la transparencia y la seguridad de los datos, hasta la responsabilidad del contenido generado.
Camino hacia una IA más responsable
Los responsables del estudio coinciden en que hay mucho que ganar si se logra una adopción consciente y estructurada de estas tecnologías. Para ello, es fundamental que los líderes empresariales, desarrolladores y responsables políticos trabajen juntos para establecer normas claras que orienten el desarrollo y el uso de la inteligencia artificial en todos los sectores.
La directora de KPMG enfatiza que el camino hacia una mayor confianza requiere compromiso activo: “No creemos que ninguna organización pueda avanzar más rápido que la velocidad de la confianza”. En este contexto, fomentar la educación tecnológica, impulsar la alfabetización digital y establecer una ética sólida en el uso de la IA se vuelven pasos indispensables para evitar errores costosos, proteger la reputación corporativa y generar un entorno donde los beneficios de la inteligencia artificial se multipliquen sin aumentar los riesgos.
Leer también: Facial Recognition: ¿qué es el reconocimiento facial?
