Ferramenta Nightshade protege imagens da inteligência artificial
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket
Mais lidas

DRM: a luta contra a proibição de cópias continua
março 27, 2025

Marketing vende. Mas quem faz ficar, é o produto.
março 21, 2025

A coleção completa de Tom & Jerry, filmada em CinemaScope
março 18, 2025

A praga da deterioração da mídia rotativa
março 10, 2025


Filme Hackers: o mundo dos computadores de 1995
fevereiro 27, 2025
Mais conteúdos

Preservando o som quadrafônico
março 31, 2025

DRM: a luta contra a proibição de cópias continua
março 27, 2025

Marketing vende. Mas quem faz ficar, é o produto.
março 21, 2025

A coleção completa de Tom & Jerry, filmada em CinemaScope
março 18, 2025
Criadores que não querem que seu trabalho apareça em imagens geradas por AI usam ferramenta Nightshade para proteger suas criações.
Quem com ferro fere… Para os modelos geradores de imagens, as imagens modificadas por uma nova ferramenta chamada Nightshade são iguais a todas as outras em seu conjunto de dados.
Mas, diferentemente das inúmeras obras de arte que foram usadas para treinar esses sistemas, as imagens alteradas pelo Nightshade introduzem dados imprecisos que envenenam esses modelos por dentro, fazendo com que funcionem mal de maneiras imprevisíveis.
Nightshade faz isso explorando as vulnerabilidades de modelos populares como DALL-E, Midjourney e Stable Diffusion, que são treinados em enormes conjuntos de dados de imagens extraídas da Internet aberta, muitas vezes sem o consentimento de seus criadores.
A ferramenta, desenvolvida na Universidade de Chicago, funciona adicionando pixels invisíveis a imagens que, embora indetectáveis ao olho humano, influenciam a forma como são percebidas pelos algoritmos, interrompendo a capacidade do modelo de gerar uma imagem precisa em resposta a um prompt de texto.
Quando os pesquisadores testaram o ataque nos modelos mais populares, descobriram que, depois que o Stable Diffusion recebeu apenas 50 imagens “envenenadas” de cães, a saída para “cães” começou a refletir criaturas com membros extras e faces distorcidas.
Se forem introduzidas amostras alteradas em números suficientes, os pedidos de fotos de carros resultarão, em vez de carros, em fotos de vacas; chapéus virarão bolos; e bolsas se transformarão em torradeiras.
A primeira ferramenta do gênero, Nightshade representa uma mudança radical na batalha pelos direitos de propriedade intelectual, com os artistas passando a assumir uma postura ofensiva que vai além da simples defesa do seu trabalho.
Se um número suficiente de pessoas optar por aplicar o Nightshade às suas imagens e infectar os enormes bancos de dados nos quais os modelos de IA são treinados, isso poderá causar um grande impacto nos modelos dos geradores de imagens, forçando empresas como a OpenAI a pensar duas vezes antes de treinar seus modelos em obras sem consentimento. [Webinsider]