4 feb (Reuters) -
La agencia de las Naciones Unidas para la infancia, UNICEF, pidió el miércoles a los países que penalicen la creación de contenidos de abuso sexual infantil generados por inteligencia artificial, afirmando que le alarmaban los informes sobre el aumento del número de imágenes de IA que sexualizan a los niños.
"El daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a que la ley se ponga al día", dijo UNICEF en un comunicado. Los deepfake son imágenes, vídeos y audios generados por IA que imitan de forma convincente a personas reales.
UNICEF también expresó su preocupación por el uso de la IA para quitar o alterar la ropa en las fotos con el fin de crear imágenes falsas de desnudos o sexualizadas.
Gran Bretaña anunció el sábado que planea ilegalizar el uso de herramientas de IA para crear imágenes de abuso sexual infantil, convirtiéndose en el primer país en hacerlo.
En los últimos años ha aumentado la preocupación por el uso de la IA para generar contenidos de abuso infantil, en particular los chatbots como Grok de xAI, propiedad de Elon Musk, que ha sido objeto de escrutinio por producir imágenes sexualizadas de mujeres y menores.
Una investigación de Reuters descubrió que el chatbot seguía generando las imágenes pese a que los usuarios advertían explícitamente de que los sujetos no habían dado su consentimiento.
xAI declaró el 14 de enero que había restringido la edición de imágenes para los usuarios de Grok AI y bloqueado a los usuarios, en función de su ubicación, para que no generaran imágenes de personas con ropa reveladora en "jurisdicciones donde es ilegal". No identificó los países.
Antes, había limitado el uso de las funciones de generación y edición de imágenes de Grok solo a los suscriptores de pago. (Reporte de Jasper Ward en Washington; editado en español por Javier Leira)