La reciente incorporación de resúmenes generados por IA en la conferencia Google I/O ha suscitado controversia. Usuarios en redes sociales han compartido ejemplos de respuestas inexactas, incluyendo teorías de conspiración, datos erróneos y fragmentos plagiados de fuentes poco fiables.
- Múltiples usuarios, entre ellos periodistas, han compartido ejemplos de resúmenes de IA que citan fuentes dudosas, como publicaciones de Reddit o artículos satíricos del Onion, como si fueran información objetiva.
- La científica informática Melanie Mitchell compartió un caso en el que el resumen de IA mostraba una teoría de conspiración sobre Barack Obama, proveniente de un libro académico, pero interpretada erróneamente como información precisa.
- Otros ejemplos incluyen errores básicos, como la identificación incorrecta de países africanos y afirmaciones absurdas, como clasificar a las pitones como mamíferos.
- Forbes pudo replicar algunos de estos errores, confirmando la falta de precisión en los resultados generados por la IA.
Un portavoz de Google comentó que estos errores se dan en “consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”.
- No se sabe exactamente qué está causando estos errores ni su alcance total.
- No está claro si Google tendrá que detener el lanzamiento de esta función de IA, como ocurrió con Gemini, su generador de imágenes, que también enfrentó críticas por resultados inexactos.
Este es el segundo lanzamiento importante de IA de Google este año que ha sido objeto de escrutinio por ofrecer resultados inexactos. A principios de año, Gemini generó imágenes históricamente inexactas, lo que obligó a Google a detener su capacidad para generar imágenes de personas.
“Las alucinaciones son un problema sin resolver”, dijo Sundar Pichai, CEO de Google, en una entrevista con The Verge.