mobbip
qualquer-um-pode-usar-este-gerador-de-arte-de-ia-esse-e-o-risco.jpg

Qualquer um pode usar este gerador de arte de IA - esse é o risco

Por Gabriel Bonne · 15 de setembro de 2022 13:24

Digite e você receberá. Essa é a premissa básica dos programas de texto para imagem de IA.

Os usuários digitam descrições do que quiserem – um ciborgue Joe Biden empunhando uma espada de samurai; uma tapeçaria medieval de justas de sapos – e esses sistemas, treinados em enormes bancos de dados de arte existente, geram imagens nunca antes vistas que correspondem a esses prompts (mais ou menos). E embora a saída dos modelos atuais de última geração certamente não seja perfeita, para os entusiasmados com a tecnologia, essas falhas são insignificantes quando comparadas ao potencial do software que gera qualquer imagem que você possa imaginar .

Até agora, porém, essas ferramentas “digite e você receberá” foram controladas por um pequeno número de empresas bem financiadas como OpenAI (que construiu o DALL-E ) e Google (que criou o Imagen ). São grandes empresas com muito a perder e, como resultado, equilibraram as possibilidades do que essa tecnologia pode fazer com o que suas reputações corporativas permitirão.

Assim, para um modelo como o DALL-E, o acesso público é alimentado por gotejamento por meio de uma longa lista de espera, enquanto o Imagen do Google está completamente fora dos limites para o público. A saída do DALL-E também é filtrada , dificultando a geração de imagens que contenham violência, nudez ou rostos realistas. E, claro, você tem que pagar. Os usuários do DALL-E recebem 15 prompts de imagem por mês gratuitamente, com gerações adicionais custando cerca de US$ 0,08 por pop. Não é caro, mas ainda é uma barreira.

A difusão estável está tornando o acesso à geração de imagens não filtradas mais fácil do que nunca

Nas últimas semanas, porém, esse status quo foi derrubado por um novo jogador em cena: um programa de conversão de texto em imagem chamado Stable Diffusion que oferece geração de imagem de código aberto e não filtrada, que é gratuita para qualquer pessoa com um computador decente e um pouco de conhecimento técnico. O modelo só foi divulgado publicamente em 22 de agosto , mas sua influência já se espalhou, silenciosa e rapidamente. Ele foi adotado pela comunidade artística de IA e criticado por muitos artistas tradicionais; ele foi separado, exaltado e preocupado.

“A realidade é que esta é uma tecnologia alienígena que permite superpoderes”, disse Emad Mostaque, CEO da empresa controladora da Stable Diffusion, Stability AI, ao The Verge . “Vimos crianças de três a 90 anos capazes de criar pela primeira vez. Mas também vimos pessoas criarem coisas incrivelmente odiosas.”

Embora o impulso por trás da arte gerada por IA esteja crescendo há algum tempo, o lançamento de Stable Diffusion pode ser o momento em que a tecnologia realmente decola. É gratuito para usar, fácil de construir e coloca menos barreiras no caminho do que os usuários podem gerar. Isso torna o que acontece a seguir difícil de prever.

O que torna a difusão estável diferente

A principal diferença entre Stable Diffusion e outros geradores de arte de IA é o foco no código aberto. Mesmo Midjourney – outro modelo de texto para imagem que está sendo construído fora do complexo de Big Tech – não oferece um acesso tão abrangente ao seu software.

A empresa por trás da Stable Diffusion, Stability AI , empacotou essa tecnologia de várias maneiras. Há uma demonstração pública que qualquer um pode experimentar (embora seja extremamente lenta e muitas vezes quebra). Há um software beta que é rápido e fácil de usar chamado DreamStudio (embora seja cobrado após um certo número de gerações de imagens). E, mais significativamente, há uma versão completa do modelo que qualquer um pode baixar e mexer. Já, desenvolvedores de terceiros estão tornando este software mais fácil de baixar e usar. Já existe uma versão para macOS que vem com um simples instalador de um clique , por exemplo. (Embora esteja avisado - leva muito tempo para gerar imagens em qualquer Mac sem grunhido de processamento sério.)

É essa abertura que Mostaque diz que permitirá que a Stable Diffusion melhore mais rapidamente do que seus rivais. Se você verificar o subreddit Stable Diffusion , por exemplo, poderá ver os usuários não apenas compartilhando seus prompts de imagem favoritos (por exemplo, “ McDonalds in Edo-Period Japan ” e “ Bernie Sanders em um filme Mad Max que não existe ” ), mas criando novos casos de uso para o programa e integrando-o em ferramentas criativas estabelecidas.

No exemplo abaixo, um usuário criou um plug-in do Photoshop que usa a difusão estável para pintar sobre seus rabiscos ásperos. Eles começam com imagens de uma colina japonesa arborizada, então esboçam onde a grama, as árvores e o céu devem ir. A difusão estável preenche essas lacunas e o usuário limpa as junções manualmente. Como um Redditor comentou abaixo do post: “Estou atordoado com todos os projetos incríveis que estão sendo lançados e não faz nem uma semana desde o lançamento. O mundo em 6 meses será um lugar totalmente diferente.”

Na explicação de Mostaque, o código aberto é sobre “colocar isso nas mãos de pessoas que vão construir e estender essa tecnologia”. No entanto, isso significa colocar todas essas capacidades nas mãos do público – e lidar com as consequências, boas e ruins.

De jeito nenhum, sem filtro?

A diferença mais dramática para a abordagem de código aberto da Stability AI é sua abordagem prática à moderação. Ao contrário do DALL-E, é fácil usar o modelo para gerar imagens violentas ou sexuais; que retrata figuras públicas e celebridades; ou que imita imagens protegidas por direitos autorais, desde o trabalho de pequenos artistas até os mascotes de grandes corporações. (Compreender exatamente o quão amplo o escopo de imagens Stable Diffusion pode gerar é difícil, mas se você quiser ter uma ideia, tente digitar alguns termos no Lexica , um mecanismo de busca que raspa imagens geradas usando Stable Diffusion.)

Para ser claro: as versões amigáveis ​​​​ao consumidor do Stable Diffusion têm alguns filtros de palavras-chave integrados que impedem os usuários de gerar conteúdo NSFW e imagens abertamente políticas ou violentas (palavras como “nazista” e “gore” são proibidas, por exemplo). Mas, embora essas restrições também existam no modelo para download, elas podem ser contornadas com bastante facilidade. (Veja, por exemplo, um post no subreddit Stable Diffusion intitulado “ Como remover o filtro de segurança em 5 segundos .”)

A difusão estável facilita muito a geração de imagens violentas e sexuais, incluindo fotos com pessoas reais

Da mesma forma, embora a licença de código aberto do modelo proíba as pessoas de usar o software para toda uma série de pecados (incluindo “explorar, prejudicar ou tentar explorar ou prejudicar menores de qualquer forma” e “gerar ou disseminar informações verificavelmente falsas”), uma vez que alguém tenha baixado o Stable Diffusion para seu computador, não há restrições técnicas para o uso do software.

A visão de Mostaque sobre isso é direta. “Em última análise, é responsabilidade das pessoas se elas são éticas, morais e legais na maneira como operam essa tecnologia”, diz ele. “As coisas ruins que as pessoas criam com ele [...] acho que será uma porcentagem muito, muito pequena do uso total.”

Este é essencialmente um território inexplorado, e não está claro quais serão as consequências de lançar um modelo como esse na natureza. É fácil imaginar os muitos usos maliciosos que essa tecnologia pode ter, mas isso não significa que todas essas previsões se cumprirão.

Por exemplo, quando a OpenAI lançou seu gerador de texto de IA GPT-3, a empresa inicialmente limitou o acesso por temer que o software fosse usado para criar uma enxurrada de spam, notícias falsas e propaganda . Até agora, porém, essas ameaças se mostraram exageradas. Como o acesso se ampliou, o dilúvio não apareceu. Isso não quer dizer que não tenha havido problemas sérios com a tecnologia (veja, por exemplo, o caso de AI Dungeon, um jogo de fantasia de texto baseado em GPT-3 que teve que introduzir filtros para impedir que seu software gerasse cenas de sexo envolvendo menores ), mas um cataclismo de spam infinito de IA, discurso de ódio etc. foi evitado até agora. (Não por coincidência, Stability AI também ajudou a criar uma versão de código aberto do GPT-3 .)

Com o Stable Diffusion, o caso de uso mais visível do NSFW até hoje tem sido usuários gerando pornografia. Após o lançamento público do modelo, surgiram vários subreddits dedicados à curadoria da saída NSFW do software . (Embora a maioria tenha sido banida devido à política do Reddit que proíbe deepfakes pornográficos . Muitos usuários estavam gerando imagens de celebridades nuas e figuras públicas). Esse conteúdo NSFW muitas vezes oscila entre o grotesco e o absurdo, com modelos nus ostentando membros extras e colocados em poses fisicamente impossíveis. Mas a qualidade dessa produção certamente melhorará em um futuro próximo, trazendo novas questões sobre a ética da pornografia gerada por IA.

Também é quase certo, por exemplo, que o Stable Diffusion pode ser usado para gerar imagens sexuais com crianças, mas se tal atividade está acontecendo, está ocorrendo nos cantos menos observados da web. Mostaque observa que este é um domínio de geração de imagem que a empresa tentou ativamente impedir removendo material de abuso sexual infantil (CSAM) dos dados de treinamento da Stable Diffusion: “Removemos conteúdo ilegal de nossa raspagem da internet, e é isso”.

No geral, porém, a posição de Mostaque é que Stability AI não foi imprudente nem imprudente em seu lançamento de Stable Diffusion. Em contraste, diz ele, a empresa de cerca de 75 pessoas considerou adicionar mais filtros, mas concluiu que sua abordagem de código aberto era a melhor. “Uma vez que você começa a filtrar algo, onde você para?” ele diz.

Em última análise, a empresa está seguindo um dos mantras mais bem ensaiados (e frequentemente criticados) do setor: que a tecnologia é neutra e que construir coisas é melhor do que não. “Esta é a abordagem que adotamos porque vemos essas ferramentas como uma infraestrutura potencial para o avanço da humanidade”, diz Mostaque. “Achamos que os elementos positivos superam em muito os negativos.”

Copiando artistas e raspando direitos autorais

Um domínio visual que a Stability AI certamente não filtrou de seus dados de treinamento é o trabalho protegido por direitos autorais. Como resultado, muitos veem a capacidade do Stable Diffusion de imitar o estilo e a estética de artistas vivos como insustentável: não apenas uma violação potencial de direitos autorais, mas também de ética. Um tweet viral inicial criticando o software catalogou alguns dos muitos artistas vivos que o modelo pode imitar (embora alegasse falsamente que a Stability AI estava “anunciando” essa função).

Como a maioria dos sistemas modernos de IA, o Stable Diffusion é treinado em um vasto conjunto de dados que explora padrões e aprende a replicar. Nesse caso, esse núcleo dos dados de treinamento é um enorme pacote de mais de 5 bilhões de pares de imagens e tags de texto conhecido como LAION-5B, todos extraídos da web pública. (Vale a pena notar que, embora o LAION-5B seja mantido pela Stability AI, ele é derivado do trabalho da organização sem fins lucrativos Common Crawl , que economiza enormes resmas de páginas da Web e libera os dados gratuitamente para qualquer pessoa usar.)

Sabemos com certeza que o LAION-5B contém muito conteúdo protegido por direitos autorais. Uma análise independente de uma amostra de 12 milhões do conjunto de dados descobriu que quase metade das fotos contidas foram tiradas de apenas 100 domínios. O mais popular foi o Pinterest, constituindo cerca de 8,5% das fotos amostradas, enquanto as próximas maiores fontes foram sites conhecidos por hospedar conteúdo gerado pelo usuário (como Flickr, DeviantArt e Tumblr) e sites de fotos como Getty Images e Shutterstock. Em outras palavras: fontes que contenham conteúdo protegido por direitos autorais, sejam de artistas independentes ou fotógrafos profissionais.

Esse aspecto de direitos autorais adiciona uma nova dimensão às reclamações de que ferramentas como Stable Diffusion estão tirando o trabalho de artistas humanos. A IA não apenas está roubando os empregos dos artistas, dizem os críticos, mas está fazendo isso contrabandeando as habilidades que esses indivíduos levaram horas e horas para aprimorar.

“Alguns dos meus primeiros trabalhos freelance foram ilustrações de jogos de cartas, capas de livros e capas de álbuns. É de partir o coração ver esse espaço (especialmente o último) se encher de imagens geradas por IA e perceber o quanto isso se tornou mais difícil para aspirantes a artistas”, comentou o diretor de arte Logan Preshaw em um recente tópico viral no Twitter sobre software de arte de IA. “Todo mundo tem o direito de criar arte, mas não tem o direito de fazê-lo às custas dos outros.”

A resposta da Stability AI é novamente uma alegada neutralidade. Mostaque diz que extrair material público da web - mesmo conteúdo protegido por direitos autorais - é legal nos EUA e no Reino Unido (embora isso não signifique que objeções legais não serão levantadas no futuro). Ele também argumenta que a natureza de código aberto do Stable Diffusion significa que ele e seus colegas não estão fortalecendo esses novos poderes, mas os compartilhando amplamente para qualquer um usar.

“Como isso está sendo divulgado?” pergunta Mostaque. “Isso está criando um serviço em torno dele que mantemos privado, como o OpenAI? Este é um modelo de arte? Não, isso está sendo lançado por um instituto de pesquisa como um modelo generalizado, e cabe ao usuário final como usá-lo. Se eles o usarem de uma maneira que infrinja os direitos autorais, eles estão infringindo a lei.” (Vale notar que Stability AI pode ser, no enquadramento de Mostaque, um instituto de pesquisa, mas também é uma empresa que ganha dinheiro vendendo acesso à sua tecnologia e planeja expandir as vendas no futuro.)

Mostaque diz que futuras iterações do Stable Diffusion darão aos artistas a opção de fazer upload de seus portfólios e nomes para filtrar sua influência da produção do modelo. Mas, assim como na geração de conteúdo NSFW, esses filtros serão opcionais para os usuários que baixarem a versão open-source do software. Em outras palavras: se os artistas tiverem problemas com geradores de arte de IA que imitam seu trabalho, é improvável que as soluções venham de empresas como a Stability AI.

(A galeria abaixo mostra as pesquisas da Stable Diffusion sobre alguns artistas nomeados.)

É hora de alguma teoria dos jogos

Tudo isso, porém, leva a outra pergunta interessante: o que é Stability AI e o que a empresa está tentando alcançar?

O próprio Mostaque é um ex-gerente de fundos de hedge que contribuiu com uma quantia desconhecida (mas aparentemente significativa) para financiar a criação da Stable Diffusion. Ele deu estimativas ligeiramente variadas quanto ao custo inicial do projeto, mas elas tendem a oscilar em torno de US$ 600.000 a US$ 750.000. É muito dinheiro – bem fora do alcance da maioria das instituições acadêmicas – mas uma quantia minúscula comparada com o valor imaginado do produto final. E Mostaque deixa claro que ele quer que a Stability AI ganhe muito dinheiro enquanto mantém seu ethos de código aberto, apontando para unicórnios de código aberto no mercado de banco de dados como comparação.

Ele também insiste, porém, que o dinheiro não é sua maior preocupação. Em vez disso, ele diz que quer alcançar algo mais parecido com uma revolução no mundo da IA: destronar os gigantes corporativos que estão construindo sistemas cada vez maiores e mais caros e substituí-los por comunidades mais inteligentes, rápidas e independentes. .

“OpenAI e todos terão que se juntar às nossas comunidades e nossos ecossistemas.”

“Vejo empresas e organizações como IA lenta e burra”, diz ele. “E quando falamos em ser morto pela IA se ficar muito inteligente, já estamos sendo mortos todos os dias pelas burocracias que realmente nos esmagam.” Liberar o Stable Diffusion como um projeto de código aberto é, em sua opinião, uma maneira de manobrar essas instituições desajeitadas. “Todo mundo está tornando [esses modelos de IA] privados até que a primeira pessoa os torne públicos. Do ponto de vista da teoria dos jogos, o que acontece quando alguém os torna públicos? Todo mundo vai a público. OpenAI e todos terão que se juntar às nossas comunidades e nossos ecossistemas.”

Forçar essa mudança não é apenas desenvolver a tecnologia mais rapidamente, diz Mostaque, mas espalhar esses sistemas globalmente. Em sua opinião, o mundo da IA ​​está atualmente em um caminho para ser dominado pela cultura e ética do Vale do Silício, mas o software de código aberto pode ajudar a descentralizar esse futuro. No caso de ferramentas de geração de imagens, por exemplo, ele espera que diferentes nações desenvolvam seus próprios modelos e conjuntos de dados para “refletir a diversidade da humanidade” em vez da “monocultura da internet, que é predominantemente ocidental”.

É um grande objetivo, mas não menos que sua descrição da Difusão Estável como “trazer o fogo dos deuses da criatividade para o mundo”.

Agora, o mundo precisa descobrir como não se queimar.

Traduzido de: https://www.theverge.com/2022/9/15/23340673/ai-image-generation-stable-diffusion-explained-ethics-copyright-data

Outras postagens

Onde assistir Naruto em 2022
RECOMENDAÇÕESOnde assistir à série Naruto em 2022 [ATUALIZADO]
Melhores sites para assistir futebol
RECOMENDAÇÕESTOP 5 melhores sites para assistir futebol ao vivo grátis em 2022
O que é inflação?
CURIOSIDADESO que é inflação? Causas e consequências
Como ganhar dinheiro no Instagram
REDES SOCIAISSaiba como ganhar dinheiro no Instagram em 2022
Como baixar vídeos do Instagram
TUTORIAISComo baixar vídeos do Instagram em 2022
Cartão PicPay
FINANÇASSaiba como solicitar o cartão de crédito do PicPay
TOP 5 Melhores bots de música no Discord [ATUALIZADO]
RECOMENDAÇÕESTOP 5 Melhores bots de música no Discord [ATUALIZADO]
Como ativar o Windows 10 [ATUALIZADO]
TUTORIAISSaiba como ativar o Windows 10 [ATUALIZADO]
mobbip
Sobre

O Mobbip é um portal criado para trazer informações e notícias sobre o universo Android e iOS, com uma base robusta com mais de 6 mil produtos, vamos trazer reviews, especificações técnicas e muitas outras informações para você sanar todas as dúvidas na hora de comprar.