Últimas noticias

Artistas sabotean la inteligencia artificial: crean programa que 'envenena' su aprendizaje

Nightshade altera los píxeles de las imágenes de forma imperceptible, pero logra confundir a los modelos de aprendizaje automático de las IA
Artistas sabotean la inteligencia artificial: crean programa que 'envenena' su aprendizaje
Chicago, Illinois - Mientras la polémica sobre si los artistas deberían recibir regalías por imágenes generadas por inteligencia artificial continúan, un equipo de investigadores de la Universidad de Chicago desarrolló un software open-source llamado Nightshade que puede "envenenar" imágenes para que ya no sean útiles para el entrenamiento de modelos de inteligencia artificial. Este software altera los píxeles de las imágenes de forma imperceptible para el ojo humano, pero logra confundir a los modelos de aprendizaje automático de las IA, provocando que se "corrompan".

Lee también: Van por sanciones a quien convierta fotografías en contenido sexual con Inteligencia Artificial

Nightshade es una opción incluida en la herramienta Glaze, que ya impedía que las imágenes fueran entrenadas mediante un algoritmo que modificaba pequeños detalles de las imágenes imperceptibles.

Sin embargo, la diferencia es que Nightshade también confunde a la IA haciendo que los algoritmos de 'machine learning' aprendan los nombres incorrectos de los elementos y escenarios que aparecen en las imágenes.

Así, por ejemplo, una IA entrenada con imágenes de Nightshade puede aprender erróneamente que una imagen que muestra a un perro se trata de un gato, y posteriormente, cuando se le solicite generar imágenes de perros, la IA entregará fotos de gatos sin darse cuenta de su error.

La investigación de los expertos de la Universidad de Chicago afirma que este procedimiento puede ser muy difícil de bloquear por los modelos de lenguaje, ya que las imágenes han sido modificadas previamente a su subida a la web, siendo además una técnica imperceptible para el ojo humano y muy compleja de detectar incluso para software.

Artistas demandan regalías y reconocimiento por obras de la IA

Los modelos de lenguaje impulsados por inteligencia artificial y que son capaces de generar imágenes a partir de órdenes de texto, tales como DALL-E o Midjourney, se suelen entrenar con imágenes y obras de arte creadas por artistas, que están protegidas por derechos de autor.

Esto ha generado un debate ético sobre el uso indebido de la IA, ya que la inteligencia artificial se ha nutrido de la labor de los artistas que no reciben crédito y mucho menos regalías por sus aportes al desarrollo de las IA.

[caption id="attachment_176532" width="1024"] En diciembre de 2022, artistas de todo el mundo se unieron en una protesta masiva en la que reemplazaron sus obras por una publicación que rezaba: "No a las imágenes generadas mediante IA" en la plataforma digital ArtStation. Foto: Especial[/caption]

Te puede interesar: ‘Reviven’ rostros de las Momias de Guanajuato con inteligencia artificial

Esto motivó la creación de Nightshade, herramienta con la que los artistas pretenden luchar contra "la falta de respeto a los derechos de autor y la propiedad intelectual".

JRP