Meta, la empresa detrás de Instagram, ha presentado un conjunto de nuevas herramientas respaldadas por inteligencia artificial, destinadas a proteger a los menores de edad de la peligrosa práctica de ‘sextorsión’ y el abuso relacionado con imágenes íntimas en la popular red social.
Una de las principales características de estas nuevas medidas es una función que, de manera predeterminada, difuminará automáticamente cualquier imagen con desnudos recibida a través de los mensajes directos de la aplicación, aplicando esta medida específicamente para los usuarios menores de 18 años. Esta iniciativa tiene como objetivo prevenir la exposición no deseada de los destinatarios a contenido íntimo, brindándoles la opción de decidir si desean visualizar la imagen o no.
Además, Meta implementará una campaña de concientización, enviando mensajes educativos a los usuarios para alertar sobre los riesgos asociados con la ‘sextorsión’ y recordándoles la importancia de ejercer precaución al compartir fotos sensibles en línea.
Estas nuevas funcionalidades serán sometidas a pruebas piloto en un grupo selecto de países de América Central y América Latina a partir del próximo mes, antes de ser desplegadas a nivel global en los próximos meses.
Estas medidas de seguridad se basan en el uso de inteligencia artificial para analizar de manera automática si una imagen enviada contiene desnudos, sin acceder a las imágenes a menos que sean denunciadas por los propios usuarios. Además, la IA será empleada para identificar cuentas potencialmente involucradas en actividades de ‘sextorsión’, restringiendo así sus interacciones con cuentas de menores de edad.
Además, Meta se compromete a alertar a los jóvenes que puedan haber sido contactados por posibles chantajistas, ofreciéndoles recursos y líneas de ayuda para su apoyo y protección.