ONU urge a los países a actuar ante el auge de contenido sexual infantil generado con IA

Publicado:
- Periodista Digital:
EFE

Según Unicef, la práctica "constituye imágenes de abusos sexuales", donde al menos 1,2 millones de menores se vieron afectados el último año.

"Aunque las piezas sean falsas", causan un daño que "es real", sostuvo la organización.

 Unsplash / Anna Delliou

La ONU pidió que se incluya el contenido IA en las definiciones de lo que constituyen imágenes de abusos sexuales de menores; polémica iniciada por Grok -la herramienta de X- y que ha abierto investigaciones en países europeos.

Unicef urgió este miércoles a los gobiernos de todo el mundo a actuar ante el rápido aumento de contenido sexual infantil generado por inteligencia artificial (IA), una práctica que, según un estudio de la agencia, ya ha afectado a más de un millón de niños y niñas.

El Fondo de las Naciones Unidas para la Infancia presentó un estudio en colaboración con la ONG Ecpat e Interpol llevado a cabo en once países en el que revelan que al menos 1,2 millones de niños y niñas se vieron afectados en el último año por la manipulación de sus imágenes mediante "deepfakes" con contenido sexual explícito.

Se conoce como "deepfake" o "ultrafalso" a los contenidos generados por IA que imitan de una forma muy realista la apariencia, la voz o los gestos de una persona.

"Debemos ser claros: las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas", aseguró Unicef en un comunicado.

La agencia de la ONU afirmó que estos siguen siendo abusos porque "aunque las imágenes sean falsas", causan un daño que "es real".

Por ello, Unicef hizo un llamamiento "urgente" a los gobiernos para frenar esta amenaza "creciente".

Entre otras cosas, pidió que se amplíen las definiciones de lo que constituyen imágenes de abusos sexuales de niños y niñas para incluir el contenido generado por IA y se penalice su creación, adquisición, posesión y distribución.

"El daño que provoca el abuso mediante "deepfake" es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice", aseveró la agencia. 

El Congreso de EE.UU. ha impulsado iniciativas relacionadas con el "deepfake".

En los últimos días, Grok, la inteligencia artificial integrada en X, ha protagonizado una polémica por generar imágenes de contenido sexual en la plataforma sin ningún tipo de permiso y/o restricción.