Meta, la empresa matriz de diversas plataformas sociales como Facebook, Instagram y WhatsApp, ha anunciado su decisión de identificar y etiquetar todo contenido generado por inteligencia artificial (IA) como parte de sus esfuerzos para combatir la desinformación.
“Prevemos comenzar a etiquetar contenido generado por IA a partir de mayo de 2024”, declaró Monika Bickert, vicepresidenta de contenido de Meta, en un comunicado publicado en el blog oficial de la compañía. Esta etiqueta, “Hecho con IA”, actualmente utilizada para imágenes fotorrealistas, se extenderá ahora a una variedad más amplia de contenido, incluyendo video, audio e imágenes.
La plataforma identificará estos contenidos basándose en indicadores de IA que cumplan con los estándares de la industria, así como en la notificación de los usuarios sobre la generación de contenido por IA. Además de las etiquetas visibles, los contenidos también llevarán una “marca de agua” digital invisible.
Esta medida sigue la tendencia de otras grandes empresas tecnológicas como Google, Microsoft y OpenAI, que ya emplean tecnologías similares. Tras consultar con su junta de supervisión, Meta ha decidido modificar su enfoque hacia los contenidos generados por IA, considerando que “la transparencia y el contexto adicional son la mejor manera de abordar los contenidos manipulados”.
En lugar de eliminar estos contenidos, Meta ahora agregará etiquetas y contexto para informar a los usuarios sobre su naturaleza. Sin embargo, la compañía advierte que cualquier contenido, ya sea generado por humanos o por IA, que viole sus políticas contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia u otras normas comunitarias será retirado.
Meta también ha reiterado su confianza en su red de aproximadamente 100 verificadores de datos independientes para detectar contenidos generados por IA falsos o engañosos. Esta medida se enmarca en el compromiso de Meta anunciado previamente en febrero de etiquetar todas las imágenes generadas por IA para combatir la desinformación.
Es crucial proporcionar contexto a las imágenes que circulan en las redes sociales, según señala Gaudemet, un experto en el tema, aunque aún se desconoce cómo será la política completa de Meta al respecto.
Varias empresas competidoras, como Microsoft, Google y OpenAI, ya han asumido compromisos similares. Existe preocupación sobre el potencial uso de estas herramientas para sembrar caos político, especialmente a través de la desinformación o información errónea, especialmente en el contexto de importantes eventos electorales.
Más allá de las elecciones, el desarrollo de programas de IA generativa también ha dado lugar a la producción de contenido degradante, como los “deepfakes” pornográficos que afectan tanto a figuras públicas como a personas anónimas, según expertos y reguladores.