Caroline Mullet, estudiante de noveno grado de la escuela secundaria Issaquah, cerca de Seattle, asistió a su primer baile de bienvenida el otoño pasado, una fiesta con temática de James Bond con mesas de blackjack a la que asistieron cientos de niñas vestidas con vestidos de fiesta.

Unas semanas más tarde, ella y otras alumnas se enteraron de que un compañero de clase estaba circulando imágenes falsas de desnudos de chicas que habían asistido al baile, imágenes sexualmente explícitas que había fabricado utilizando una aplicación de inteligencia artificial diseñada para “despojar” automáticamente de fotos vestidas a personas reales. niñas y mujeres.

Mullet, de 15 años, alertó a su padre, Mark, un senador demócrata del estado de Washington. Aunque no estaba entre las chicas de las fotos, preguntó si se podía hacer algo para ayudar a sus amigas, quienes se sentían “extremadamente incómodas” porque sus compañeros varones habían visto imágenes simuladas de ellas desnudas. Pronto, el senador Mullet y un colega en la Cámara de Representantes propusieron una legislación para prohibir el intercambio de representaciones sexualmente explícitas de menores reales generadas por IA.

“Odio la idea de tener que preocuparme de que esto le vuelva a suceder a alguna de mis amigas, a mis hermanas o incluso a mí misma”, dijo Mullet a los legisladores estatales durante una audiencia sobre el proyecto de ley en enero.

La Legislatura estatal aprobó el proyecto de ley sin oposición. El gobernador Jay Inslee, un demócrata, lo firmó el mes pasado.

Los estados están en la primera línea de una nueva forma de explotación y acoso sexual entre pares en las escuelas que se está propagando rápidamente. Los niños de todo Estados Unidos han utilizado aplicaciones de “nudificación” ampliamente disponibles para inventar subrepticiamente imágenes sexualmente explícitas de sus compañeras de clase y luego han hecho circular los desnudos simulados a través de chats grupales en aplicaciones como Snapchat e Instagram.

Ahora, impulsados ​​en parte por relatos preocupantes de adolescentes como Mullet, los legisladores federales y estatales se apresuran a promulgar protecciones en un esfuerzo por seguir el ritmo de las aplicaciones explotadoras de IA.

Desde principios del año pasado, al menos dos docenas de estados han presentado proyectos de ley para combatir las imágenes sexualmente explícitas generadas por IA (conocidas como deepfakes) de personas menores de 18 años, según datos compilados por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro. Y varios estados han promulgado las medidas.

Entre ellos, Dakota del Sur aprobó este año una ley que declara ilegal la posesión, producción o distribución de material de abuso sexual generado por IA que represente a menores reales. El año pasado, Luisiana promulgó una ley de deepfake que criminaliza las representaciones sexualmente explícitas de menores generadas por IA.

“Tenía una sensación de urgencia al escuchar sobre estos casos y cuánto daño se estaba haciendo”, dijo la representante Tina Orwall, una demócrata que redactó la ley explícita sobre falsificaciones profundas del estado de Washington después de escuchar sobre incidentes como el de Issaquah High.

Algunos legisladores y expertos en protección infantil dicen que tales reglas se necesitan con urgencia porque la fácil disponibilidad de aplicaciones de nudificación mediante IA está permitiendo la producción y distribución masiva de imágenes gráficas falsas que potencialmente pueden circular en línea durante toda la vida, amenazando la salud mental, la reputación y la salud física de las niñas. seguridad.

“Un niño con su teléfono en el transcurso de una tarde puede victimizar a 40 niñas, menores de edad”, dijo Yiota Souras, directora jurídica del Centro Nacional para Niños Desaparecidos y Explotados, “y luego sus imágenes están ahí afuera”.

En los últimos dos meses, los incidentes de desnudos ultrafalsos se han extendido en las escuelas, incluso en Richmond, Illinois, y Beverly Hills y Laguna Beach, California.

Sin embargo, pocas leyes en Estados Unidos protegen específicamente a las personas menores de 18 años de las aplicaciones explotadoras de IA.

Esto se debe a que muchos estatutos actuales que prohíben el material de abuso sexual infantil o la pornografía de adultos no consensuada (que involucra fotos o videos reales de personas reales) pueden no cubrir imágenes explícitas generadas por IA que usan rostros de personas reales, dijo el representante estadounidense Joseph D. Morelle, un demócrata. de Nueva York.

El año pasado, presentó un proyecto de ley que tipificaría como delito la divulgación de imágenes íntimas de adultos o menores identificables generadas por IA. También daría a las víctimas, o a los padres, del deepfake el derecho a demandar a los perpetradores individuales por daños y perjuicios.

“Queremos que esto sea tan doloroso para cualquiera que siquiera considere hacerlo, porque es un daño que simplemente no se puede deshacer”, dijo Morelle. “Aunque a un chico de 15 años le parezca una broma, esto es tremendamente serio”.

La representante estadounidense Alexandria Ocasio-Cortez, otra demócrata de Nueva York, presentó recientemente un proyecto de ley similar para permitir a las víctimas presentar demandas civiles contra los perpetradores de deepfake.

Pero ninguno de los proyectos de ley daría explícitamente a las víctimas el derecho a demandar a los desarrolladores de aplicaciones de nudificación de IA, una medida que, según los abogados litigantes, ayudaría a interrumpir la producción masiva de deepfakes sexualmente explícitos.

“Se necesita legislación para detener la comercialización, que es la raíz del problema”, dijo Elizabeth Hanley, abogada en Washington que representa a víctimas en casos de agresión y acoso sexual.

El código legal de Estados Unidos prohíbe la distribución de material de abuso sexual infantil generado por computadora que muestre a menores identificables involucrados en conductas sexualmente explícitas. El mes pasado, la Oficina Federal de Investigaciones emitió una alerta advirtiendo que dicho material ilegal incluía imágenes realistas de abuso sexual infantil generadas por IA.

Sin embargo, las representaciones falsas generadas por IA de adolescentes reales sin ropa pueden no constituir “material de abuso sexual infantil”, dicen los expertos, a menos que los fiscales puedan demostrar que las imágenes falsas cumplen con los estándares legales para conducta sexual explícita o exhibición lasciva de genitales.

Algunos abogados defensores han tratado de sacar provecho de la aparente ambigüedad jurídica. Un abogado que defendió a un estudiante de secundaria en una demanda por deepfake en Nueva Jersey argumentó recientemente que el tribunal no debería impedir temporalmente que su cliente, que había creado imágenes de IA desnuda de una compañera de clase, vea o comparta las imágenes porque no eran dañinas ni ilegal. Las leyes federales, argumentó el abogado en un expediente judicial, no fueron diseñadas para aplicarse “a imágenes sintéticas generadas por computadora que ni siquiera incluyen partes reales del cuerpo humano”. (El acusado finalmente acordó no oponerse a una orden de restricción sobre las imágenes).

Ahora los estados están trabajando para aprobar leyes que pongan fin a las imágenes explotadoras de IA. Este mes, California presentó un proyecto de ley para actualizar la prohibición estatal de material de abuso sexual infantil para cubrir específicamente el material abusivo generado por IA.

Y los legisladores de Massachusetts están ultimando una legislación que penalizaría el intercambio no consensuado de imágenes explícitas, incluidas las deepfakes. También requeriría que una entidad estatal desarrollara un programa de desvío para menores que compartieran imágenes explícitas para enseñarles sobre temas como el “uso responsable de la inteligencia artificial generativa”.

Los castigos pueden ser severos. Según la nueva ley de Luisiana, cualquier persona que, a sabiendas, cree, distribuya, promueva o venda deepfakes sexualmente explícitos de menores puede enfrentarse a una pena mínima de prisión de cinco a 10 años.

En diciembre, agentes de policía del condado de Miami-Dade arrestaron a dos niños de secundaria por supuestamente crear y compartir imágenes falsas de IA desnuda de dos compañeras de clase, de 12 y 13 años, según documentos policiales obtenidos por The New York Times a través de una solicitud de registros públicos. Los niños fueron acusados ​​de delitos graves de tercer grado en virtud de una ley estatal de 2022 que prohíbe las representaciones sexuales alteradas sin consentimiento. (La oficina del fiscal estatal del condado de Miami-Dade dijo que no podía comentar sobre un caso abierto).

La nueva ley de deepfake en el estado de Washington adopta un enfoque diferente.

Después de enterarse del incidente en Issaquah High por su hija, el senador Mullet se acercó al representante Orwall, un defensor de los sobrevivientes de agresión sexual y ex trabajador social. Orwall, que había trabajado en uno de los primeros proyectos de ley sobre pornografía de venganza del estado, luego redactó un proyecto de ley de la Cámara para prohibir la distribución de imágenes íntimas o sexualmente explícitas de menores o adultos generadas por IA. (El señor Mullet, que patrocinó el proyecto de ley complementario del Senado, ahora se postula para gobernador).

Según la ley resultante, los primeros infractores podrían enfrentar cargos por delitos menores, mientras que las personas con condenas previas por revelar imágenes sexualmente explícitas enfrentarían cargos por delitos graves. El nuevo estatuto sobre deepfake entrará en vigor en junio.

“No es sorprendente que estemos atrasados ​​en materia de protecciones”, dijo la Sra. Orwall. “Por eso queríamos avanzar tan rápido”.

Compartir
Exit mobile version