Skip to main content
search
0

Inteligencia Artificial (IA) y Material de Explotación Sexual Infantil (MESI)

 

Autora: Carla Martí Munné

 

La era de la Inteligencia Artificial (IA)

Está en boca de todos/as la Inteligencia Artificial. Hoy en día se ha producido un auge en este sector y se ha convertido en una herramienta a disposición y al alcance de una gran multitud de personas, pudiéndose utilizar para obtener información con plataformas como el Chat GPT o bien como editor e incluso creador de contenidos. 

Para sacarle provecho y exprimir su rentabilidad al máximo, debemos aprender una serie de lenguajes o códigos, los denominados prompts o comandos de texto.

A través de ellos podemos codificar mediante instrucciones aquello que deseamos crear y que tenemos ideado en nuestra mente, y mediante los cuales ordenamos a la IA lo que queremos que ejecute. 

Así pues, a mayor conocimiento y precisión en la configuración de los prompts, mayor detalle y exactitud con aquello que teníamos en mente obtendremos a través del producto producido por IA. 

A pesar de las múltiples ventajas que la IA puede aportarnos como sociedad y como individuos, facilitando la realización y/o obtención de materiales, información y un largo etcétera de posibilidades, inclusive inimaginables hoy en día, la realidad es que esta revolución tecnológica y social también entraña una cantidad igualmente considerable de riesgos. 

Riesgos de la IA

La realidad es que, para muchos de ellos aún no hay suficiente investigación, sensibilización social y, en consecuencia, legislación ni políticas públicas que los regulen y/o prohiban según su naturaleza. 

Así pues, una de estas amenazas, que ya se han visto materializadas, es la elaboración de material de explotación sexual infantil a través de los denominados sistemas de aprendizaje automático de código abierto. Es en este aspecto en el que vamos a profundizar con el artículo de hoy.

En cuanto a la creación de imágenes/videos mediante IA, la posibilidad que radica de poder generar material casi indistinguible de la realidad resulta un aspecto crucial, que está generando mucho debate y revuelo en la actualidad.

Y esto se debe al riesgo que puede suponer a la difamación, entre otros comportamientos ilícitos y/o peligrosos, y muy especialmente por todas aquellas actuaciones que buscan simular material ficticio de apariencia real con motivos pornográficos, a modo “revenge porn”, “deepfake pornográficos”, o directamente con la elaboración de material de explotación sexual infantil (MESI), ya sea deepfake, o material real.

¿Qué significan todos estos términos?

A continuación os exponemos una definición de los términos arriba mencionados:

  • Deepfake pornográfico se refiere al delito consistente con la generación de material pornográfico por IA a través de imágenes reales de personas adultas no sexualizadas.
  • Deepfake MESI se refiere al delito recogido en el artículo 189.1 del Código Penal, consistente con la generación de material de explotación sexual infantil (MESI) por IA a través de imágenes reales de niños/as y adolescentes no sexualizados/as.
  • Revenge porn se refiere al delito consistente en el hecho de difundir imágenes erotizadas y/o de sexo explícito real donde aparezca, al menos, una persona adulta, que no fueron tomadas con dicho propósito y que, su difusión corresponde a una voluntad de venganza de la persona que las comparte. 

¿Por qué resulta un peligro?

MESI de ficción

Este material generado por IA, aunque resulte ficción y directamente no se esté dañando a ningún/a menor de edad, sigue haciendo apología a la violencia sexual infantil.

A su vez, actúa como un elemento mantenedor y/o incrementador de la asociación estimular entre la visualización de dicho material abusivo con menores de edad y la consiguiente respuesta de excitación sexual culminada con la eyaculación y/o orgasmo y, en consecuencia, de las fantasías sexuales con los/las mismos/as.

Así mismo podrían facilitar la escalada del nivel de violencia – necesitar cada vez estímulos mayores para conseguir el mismo grado de satisfacción -, aumentando así su nivel de riesgo de pasar a la acción (si resulta ser un pedófilo no pederasta) o de reincidir (si resulta ser un pedófilo pederasta).

MESI Deepfake y MESI retocado

En paralelo, también debemos mencionar que algunas de las imágenes generadas por IA pueden partir de otras imágenes, ahora sí, reales preexistentes que se suministran al aplicativo y, a partir de nuestras órdenes, se le ejecutan las modificaciones y/o retoques solicitados.

En este caso, el riesgo que supone su uso aplicado a la generación de MESI es inmenso, puesto que, no sólo se pueden alterar imágenes que, de por sí, ya fuesen constituyentes de material de explotación sexual infantil real, sino que además se abre la posibilidad a utilizar imágenes reales de menores de edad no sexualizadas y convertirlas en MESI mediante la creación de X escenarios y retoques.

¿Cómo es que se puede generar este tipo de contenido ilícito?

Henk van Ess, asesor de la Red Internacional de Verificación de Datos y miembro de Bellingcat (citado en Del Castillo, 2023) expuso que, a diferencia de las IA de grandes empresas, las IA de código abierto no ponen límites a lo que sus sistemas pueden o no hacer, no estan capadas, suponiendo un gran riesgo para la propagación de actividades ilícitas de esta índole.

Más concretamente existen los LoRA (Low-Rank Adaptation), consistentes en sistemas que están entrenados por otros usuarios para desempeñar una habilidad específica, de código abierto. Algunos de ellos se han entrenado a partir de datos constituyentes de delito (revenge por, deepfakes y MESI).

Ante esto, el Parlamento Europeo se ha pronunciado recientemente al respecto, con su Reglamento de la Inteligencia Artificial que negocia con la UE, para la prohibición expresa de dichos sistemas. 

¿Todo esto constituye delito?

Si las imágenes son muy parecidas a la realidad (pudiendo abarcar tanto imágenes reales existentes y alteradas (MESI deepfake) como imágenes irreales pero que parezcan reales) constituyen un delito de material de explotación sexual infantil (MESI), aunque no haya directamente ningún menor real involucrado en su producción, de acuerdo con el artículo 189.1 del Código Penal.

A estas actuaciones les corresponde la pena de prisión de entre uno a cinco años.

Más concretamente en los apartados a), b), c), y d) del artículo 189.1 del CP,  se especifica lo siguiente:

“A los efectos de este Título se considera pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección:

a) Todo material que represente de manera visual a un menor o una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.

b) Toda representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.

c) Todo material que represente de forma visual a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte tener en realidad dieciocho años o más en el momento de obtenerse las imágenes.

d) Imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.”

Algunas de sus repercusiones…

Con esta modalidad delictiva de MESI mediante IA, la persona pederasta ya no requiere acceder a la deep web y/o de contactar con otros/as pederastas para compartir y, a cambio, obtener nuevas imágenes de MESI, ya que ahora dispone de herramientas para generar su propio contenido ilícito, acorde a sus preferencias.

En contraposición, hay algunos aspectos que no queríamos dejar de destacar sobre las potencialidades que la tecnología de las IA puede aportar en esta materia. 

Es pues el ejemplo de los complejos sistemas de monitorización, detección y filtraje de imágenes de MESI en la red que, por ejemplo, pueden programarse para identificar personas reales en los vídeos o imágenes generadas por IA, así como para identificar si dichas imágenes presentan contenido sexual, entre otros aspectos (Uke y Thool, 2012).

Estos sistemas pueden utilizarse al servicio de la prevención y persecución legal de los abusos sexuales infantiles online, en caso de estar bien regulados sus límites legales y encontrarse en manos de los organismos competentes (Uke y Thool, 2012).

 

REFERENCIAS BIBLIOGRÁFICAS

Uke, N.J., y Thool, R. (2012). Detecting Pornography on Web to Prevent Child Abuse – A Computer Vision Approach. International Journal of Scientific & Engineering Research, 3(4), 1-3.

Del Castillo, C. (2023). Los pedófilos usan inteligencia artificial para generar nueva pornografía infantil. ElDiario.es. https://www.eldiario.es/tecnologia/pedofilos-inteligencia-artificial-generar-nueva-pornografia-infantil_1_10270863.html


Si crees que podemos ayudarte o tienes alguna duda, llámanos al 93 642 53 81, envíanos un correo a info@angelblau.com,o escríbenos en el formulario de contacto que encontrarás en https://angelblau.com/contacto/

ARTÍCULO ESCRITO POR LA VOLUNTARIA CARLA MARTÍ MUNNÉ.

Leave a Reply