Ilustração tradicional vs Imagens geradas por IA

Erika Mayumi Miyoshi
SiDi Design
Published in
7 min readNov 1, 2023

Lembranças, experimentos e reflexões

Desde que me entendo por gente, sempre gostei de desenhar, era uma das minhas brincadeiras favoritas na infância. Dentre tantos sonhos absurdos de criança do que ser quando crescer, ser desenhista foi o único que sobreviveu e acabou se concretizando na vida adulta.

Lembro que eu adorava ler gibis da Turma da Mônica, e eles foram minhas primeiras referências juntamente com jogos de video game e desenhos animados que passavam na TV. Mas, apesar do amor pela ilustração, acabei seguindo carreira na área de Computação como desenvolvedora e, somente pouco antes da minha migração para a área de Design de UI/UX, é que resolvi fazer um curso de ilustração para aprender formalmente técnicas e conceitos. Saber ilustrar não é requisito para ser designer de UI/UX, mas tive a oportunidade de produzir ilustrações para alguns projetos em que trabalhei.

Estando inserida na área de tecnologia, vivenciei a explosão das IAs generativas, que começou com o lançamento do ChatGPT e que ganhou ainda mais notoriedade quando algo que parecia intocável, justamente a criação artística, provou-se possível com IAs gerando imagens e ilustrações impressionantes em questão de segundos.

Houve muita empolgação, especulação e até mesmo medo e revolta, principalmente por parte de artistas e fotógrafos, afinal, até concursos foram ganhos com imagens geradas por IA. Muitos acreditaram que perderiam sua fonte de renda e que a credibilidade de seu trabalho estava sendo colocada em xeque.

As IAs generativas viralizaram em 2022, primeiro com o DALL-E, seguido pelo Midjourney e Stable Diffusion, dentre tantas outras que surgiram depois. Mas afinal, como é que elas funcionam?

Assim como o cérebro humano é bom em reconhecer padrões em tudo, desde enxergar formas em nuvens até figuras no céu noturno apenas ligando estrelas com algumas retas, a IA é treinada com milhares e milhares de imagens diferentes primeiro para aprender a reconhecer coisas, e depois reproduzi-las. Por exemplo, o Stable Diffusion utiliza como guia um texto descritivo (prompt) e como base ruídos aleatórios (basicamente um ajuntamento aleatório de pixels). Ele tenta “enxergar” o que foi descrito no prompt em meio ao caos de pixels. Após várias e várias tentativas, em que cada tentativa é uma versão melhorada e refinada da tentativa anterior, finalmente o Stable Diffusion chega a uma imagem.

Resolvi então fazer um experimento: peguei uma das minhas ilustrações mais recentes e a transformei em um prompt, na tentativa de gerar um resultado parecido com o que desenhei, utilizando as IAs generativas StableDiffusion e Adobe Firefly.

O primeiro prompt que escrevi foi: “Dois magos, um homem e uma mulher, sorrindo, um ao lado do outro, usando roupas azuis, segurando um cajado”. Como resultado deste prompt, o Adobe Firefly me trouxe esta imagem:

Dois magos (Créditos: Adobe Firefly)

Um resultado OK se desconsiderarmos as mãos, mas não era exatamente o que eu tinha em mente. Então escrevi um segundo prompt, adicionando mais alguns detalhes: “Dois magos, um homem e uma mulher, sorrindo, um ao lado do outro, usando roupas azuis, cada um segurando seu cajado mágico”. O novo resultado do Adobe Firefly foi:

Dois magos com um pouco mais de detalhes (Créditos: Adobe Firefly)

Resultado um pouco mais interessante, ainda com algumas partes estranhas e alguns erros, mas ainda bem diferente do que eu queria. Tentei escrever então um terceiro prompt, com ainda mais detalhes: “Dois magos, um homem e uma mulher, sorrindo, um ao lado do outro, usando roupas azuis, cada um segurando seu cajado mágico, o homem segurando um cajado retorcido, a mulher segurando um cajado lunar, no estilo anime”, e obtive resultados digamos, perturbadores:

Combustível para pesadelos? (Créditos: Adobe Firefly)

O interessante é que quanto maior a quantidade de detalhes, mais estranho é o resultado. Foi então que resolvi me informar melhor sobre como produzir prompts efetivos e testei as dicas no StableDiffusion (que aceita prompts somente em inglês).

Escrevi o seguinte prompt, trabalhado para ter frases mais curtas e diretas, mas mantendo o mesmo nível de detalhes: “Two wizards, a man and a woman, smiling, wearing blue clothes, holding magic staffs, anime style” (“Dois magos, um homem e uma mulher, sorrindo, usando roupas azuis, segurando cajados mágicos, estilo anime”). E desta vez obtive resultados bem mais interessantes:

Dois magos felizes (Créditos: Stable Diffusion)

Os resultados variam de IA para IA e de prompt para prompt, mas no geral achei o StableDiffusion mais interessante e com nível de maturidade maior que as demais IAs.

E se vocês estão se perguntando qual é a ilustração que originou todos esses prompts, foi esta aqui:

Dois magos (Créditos: Erika Mayumi Miyoshi)

Para fazer a ilustração acima utilizei um processo mais tradicional de ilustração, em que normalmente sigo os seguintes passos:

  • Primeiro começo pesquisando e buscando referências relacionadas ao que quero desenhar.
  • Conforme pesquiso, vou colocando tudo em um moodboard (painel) para deixar organizado e fácil de consultar a qualquer momento.
  • Se a ilustração for de um personagem, defino a “essência” dele, já pensando que estilo de roupa, acessórios, cabelo, tipo físico, raça e personalidade combinam com ele.
  • Terminada a pesquisa, faço uma curadoria para separar as ideias e elementos mais interessantes.
  • Defino as paletas de cores de cada elemento.
  • Faço um rascunho inicial com papel e lápis e vejo se “funciona” ou se precisa de ajustes (o que pode incluir uma nova pesquisa).
  • Decido se vai ser uma ilustração no papel ou digital: neste caso, digital.
  • Escolho/separo os materiais/software a serem utilizados na minha ilustração.
  • Passo as linhas a limpo ou digitalizo: neste caso digitalizei utilizando iPad, Apple pencil e Adobe Photoshop.
  • Tanto no digital quanto no papel, utilizando as “linhas limpas” como guia, começo a colorir cada elemento com a cor base (por exemplo, usando um tom de azul para o chapéu).
  • Em cima da cor base, adiciono duas ou três variações de tons mais escuros dessa cor para as sombras, momento em que a ilustração começa a ganhar algum volume.
  • Em cima da cor base, também adiciono duas ou três variações de tons mais claros dessa cor para as “luzes”, que também contribuem para dar ainda mais tridimensionalidade à ilustração.
  • Para finalizar, adiciono texturas/efeitos caso necessário.
Passos de uma ilustração (Créditos: Erika Mayumi Miyoshi)

Como vocês podem imaginar, todo este processo leva bem mais do que os poucos segundos que o StableDiffusion precisa para gerar uma imagem. O processo pode ser acelerado ou mais demorado dependendo do casamento entre o que vai ser desenhado e o seu repertório pessoal, ou seja, suas inspirações, referências/prática prévias, gosto, preferências e até mesmo experiências de vida.

É um processo bastante trabalhoso sim, mas que, na minha opinião, é extremamente recompensador. Para mim, é como se fosse um passeio: enquanto você caminha, conhece coisas novas, se diverte, aprende, ganha experiência e, ao chegar no destino, você sente uma sensação de realização e crescimento. O durante é tão importante quanto o resultado final.

A vantagem das IAs é a possibilidade de gerar muitas imagens em um curto espaço de tempo, porém, se você tem uma ideia muito clara e detalhada do que você quer ou se você precisa de algo exato (como em um storyboard) ou que não seja muito conhecido, terá que dedicar um tempo considerável para refinar seu prompt. Muito provavelmente, também será necessário utilizar juntamente com o prompt um prompt negativo, ou seja, o que você NÃO quer que apareça na imagem, para resolver as esquisitices e absurdos, como dedos a mais ou a menos nas mãos e outros problemas de anatomia.

Seguir o processo de ilustração tradicional tende a ser bem mais demorado, porém, há um controle bem maior do resultado. Vale também notar que cada ilustrador tem seu próprio processo, e que o processo criativo não segue uma receita de bolo, e é aí que mora a beleza da coisa!

Vejo a IA como uma ferramenta poderosíssima principalmente para inspirações e referências, acredito que ela pode ser utilizada como aliada e até mesmo como atalho para encurtar caminhos, mas não como uma substituta.

Deixe seu feedback sobre esse artigo aqui: Formulário de avaliação

--

--

Erika Mayumi Miyoshi
SiDi Design

UX/UI designer, UX writer, illustrator, ex-programmer, nerd/otaku, traveler and mother. =)