
Según una encuesta internacional, solo una cuarta parte de los usuarios en Alemania comprueban que los resultados producidos en consultas a chatbots de IA como ChatGPT, Google Gemini y Microsoft Copilot realmente correspondan a la verdad. En concreto, el 27 por ciento de los encuestados en este país afirmó que revisa textos, imágenes o traducciones generados por IA. Así lo demuestra el análisis internacional de la firma de auditoría y consultoría EY sobre el tema de la inteligencia artificial (IA). El promedio global de comprobación por parte de usuarios fue del 31 por ciento.
La disposición a verificar fue mayor en Corea del Sur (42 por ciento), así como en China y la India (40 por ciento cada uno). Con menos frecuencia que en Alemania, los usuarios de Francia y Suecia comprobaron poco sus resultados de IA: allí la cuota fue del 23 por ciento en cada caso.
Para la encuesta representativa se entrevistaron a unas 15.000 personas en 15 países entre diciembre de 2024 y febrero de 2025, más de 1.000 de ellas en Alemania. Un panorama similar surge a la pregunta de si los usuarios corrigen los contenidos generados por las IA: solo el 15 por ciento de los encuestados alemanes afirmaron que realizan o solicitan las correcciones pertinentes en los productos generados por IA, como textos o fotos, cuando estos contienen errores. En comparación internacional, la cifra es del 19 por ciento.
En China y la India, esta proporción es significativamente mayor: un 32 por ciento cada uno. En Francia (12 por ciento), Gran Bretaña y Japón (13 por ciento cada uno), incluso menos personas están dispuestas a modificar los resultados provistos por la IA.
El experto de EY, David Alich, advierte contra la confianza ciega en la tecnología. La proporción de usuarios de IA ha aumentado rápidamente en los últimos tiempos, especialmente en el área de creación de texto e imágenes. Cada vez más personas experimentan la IA como una herramienta útil tanto a nivel profesional como privado. Sin embargo, su uso requiere capacitación; es decir, es necesario saber cómo detectar errores en los chatbots de inteligencia artificial. De lo contrario, la tecnología también conlleva riesgos.
*”Alucinaciones” de IA*
Aunque la conversación en torno de los sesgos de la IA ya está avanzada en la esfera pública, uno de los problemas más habituales y sin embargo menos difundidos es el de las llamadas “alucinaciones de la inteligencia artificial”, aumentadas por la falta de chequeo de los usuarios, que toman como verdadero cualquier resultado que el chatbot les responda.
A veces, incluso cuando se les provee información, las respuestas de la IA pueden ser absolutamente erróneas, especialmente a medida que se insiste con pedirles cosas y el modelo de lenguaje incrementa la inventiva.
A menudo, una simple comprobación de las fuentes primarias citadas resuelve el error rápidamente, pero a veces se requiere investigación adicional. Pero si esto non sucede, conllevan un mayor riesgo de perjuicio, ya que la incorrección de la respuesta no siempre es obvia y la simple revisión de las fuentes citadas no siempre resuelve el problema.
Mientras másse difunde la utilización de chatbots de IA, este asutno cobra más relevancia. En estados Unidos, por caso, el ¿de abogados especializados en lesiones personales Morgan & Morgan envió un correo electrónico urgente a sus más de 1000 abogados: La inteligencia artificial puede inventar jurisprudencia falsa, y usar información inventada en un expediente judicial podría resultar en el despido.
Un juez federal de Wyoming acababa de amenazar con sancionar a dos abogados del bufete que incluyeron citas ficticias de casos en una demanda contra Walmart. Uno de los abogados admitió en documentos judiciales la semana pasada que utilizó un programa de inteligencia artificial que “alucinaba” los casos y se disculpó por lo que describió como un error involuntario, producto de la falta de chequeo.
Por casos como este, grupos de interés insisten en la importancia de que los usuarios adquieran alfabetización en IA, es decir, la capacidad de comprender, usar, monitorear y reflexionar críticamente sobre las aplicaciones de IA.