Ferramenta Nightshade protege imagens da inteligência artificial

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket
Nigthshade é uma ferramenta que não deixa a AI usar uma imagem protegida

Criadores que não querem que seu trabalho apareça em imagens geradas por AI usam ferramenta Nightshade para proteger suas criações.

 

Quem com ferro fere… Para os modelos geradores de imagens, as imagens modificadas por uma nova ferramenta chamada Nightshade são iguais a todas as outras em seu conjunto de dados.

Mas, diferentemente das inúmeras obras de arte que foram usadas para treinar esses sistemas, as imagens alteradas pelo Nightshade introduzem dados imprecisos que envenenam esses modelos por dentro, fazendo com que funcionem mal de maneiras imprevisíveis.

Nightshade faz isso explorando as vulnerabilidades de modelos populares como DALL-E, Midjourney e Stable Diffusion, que são treinados em enormes conjuntos de dados de imagens extraídas da Internet aberta, muitas vezes sem o consentimento de seus criadores.

A ferramenta, desenvolvida na Universidade de Chicago, funciona adicionando pixels invisíveis a imagens que, embora indetectáveis ​​ao olho humano, influenciam a forma como são percebidas pelos algoritmos, interrompendo a capacidade do modelo de gerar uma imagem precisa em resposta a um prompt de texto.

Quando os pesquisadores testaram o ataque nos modelos mais populares, descobriram que, depois que o Stable Diffusion recebeu apenas 50 imagens “envenenadas” de cães, a saída para “cães” começou a refletir criaturas com membros extras e faces distorcidas.

Se forem introduzidas amostras alteradas em números suficientes, os pedidos de fotos de carros resultarão, em vez de carros, em fotos de vacas; chapéus virarão bolos; e bolsas se transformarão em torradeiras.

A primeira ferramenta do gênero, Nightshade representa uma mudança radical na batalha pelos direitos de propriedade intelectual, com os artistas passando a assumir uma postura ofensiva que vai além da simples defesa do seu trabalho.

Se um número suficiente de pessoas optar por aplicar o Nightshade às suas imagens e infectar os enormes bancos de dados nos quais os modelos de IA são treinados, isso poderá causar um grande impacto nos modelos dos geradores de imagens, forçando empresas como a OpenAI a pensar duas vezes antes de treinar seus modelos em obras sem consentimento. [Webinsider]

. . .

Conheça o Avtoris, ferramenta para registro autoral.

Novo plugin do Photoshop faz registro de copyright online

 

Qual será o futuro dos desenvolvedores?

Cezar Taurion é CSO da RedCore.ai

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *