최근 이미지 생성 인공지능 분야는 시각적으로 기능적으로 혁신이 일어나고 있습니다. 예전에는 경험 많은 그래픽 디자이너만 할 수 있던 일들을 이제는 클릭 몇번이면 누구나 할 수 있게 되었습니다. 사진을 카툰 스타일로 바꾸거나, 이미지의 스타일을 바꾸거나 동일한 캐릭터에 대한 여러가지 변형된 이미지 등의 작업이 그러한 예입니다.
이 "스타일 변환", 즉 콘텐츠는 유지하면서도 외형을 바꾸는 기능은 생성형 AI에서 가장 핵심적으로 널리 사용되고 있습니다. 이 글은 정말 어떤 일이 가능한지, 어떤 도구를 사용하는지에 대해 정리해 보겠습니다.
스타일 바꾸기 예 |
이미지 스타일 변경
이미지 스타일 변경이란 기존의 이미지에 새로운 시각적 스타일을 적용하는 것을 말합니다. 아래는 2025년 현재 가능한 스타일 변경 예를 나열합니다.
셀카 사진 혹은 초상화 스타일 변경
셀카 사진의 스타일을 바꾸는 것이 현재 가장 널리 사용되는 방법입니다. ChatGPT나 Gemini등을 사용하면 누구나 자신의 사진을 3D 피규어나 애니 스타일, 특히 지블리나 픽사 스타일로 바꿀 수 있습니다.
![]() |
![]() |
이러한 사용예는 2025년 5월, GPT-4o가 공개될 때, Open-AI의 샘 알트만이 이 모델의 기능을 소개하면서 자신의 얼굴을 지브리
스타일로 바꾼 사진을 올리면서 유명해졌습니다.
이후, 수 많은 사람들이 이를 따라하기 시작했고, 그후 페이스북 등의 소셜미디어에 한 때 유행이 되었습니다. 지브리 스타일이 부드럽고 편안한 느낌을 주는데다 널리 알려진 스타일이었던 것이 유행을 탄 이유기도 합니다.
예술적 스타일
사진을 인상주의 그림 스타일로 바꾸거나, 강아지를 초현실적으로 바꾸고 싶으신가요? 이제 DeepArt, Stable Diffusion("img2img" 모드), FLUX.1 Kontext 등의 도구를 사용하면 누구나 쉽게 변환할 있게 되었습니다. 그냥 원하는 사진을 올리고 바꾸고자하는 스타일을 명시하기만 하면 쉽게 바꿀 수 있습니다.
![]() |
![]() |
로고 바꾸기
기존의 일러스트나 로고의 스타일을 바꾸면 여러가지 맥락(포스터, 소셜 미디어, 기타 주제)에 사용할 수 있는 여러가지 변형 로고를 생성할 수 있습니다. 또한 원하는 분위기에 따라 "만화", "펙셀 아트", "수채화" 등의 스타일로 변경할 수도 있습니다.
![]() |
![]() |
이미지 스타일 적용
가장 놀라운 방법은 내가 원하는 스타일이 포함한 이미지를 사용하여, 다른 이미지를 비슷한 분위기로 변환하는 기능입니다. 예를 들어 Stable Diffusion의 IP-Adapter와 같은 기능을 이용하면 이미지를 참조 이미지로 사용할 수 있습니다. 이를 통해 원래의 구도는 그대로 유지하면서 시각적 분위기(색, 텍스처, 조명 등)를 어떤 이미지에서 다른 이미지로 복제할 수 있습니다.
![]() |
![]() |
작동 원리
기술적으로 파고들 필요는 없겠지만, 기본적인 원리를 이해하면 도구를 좀 더 자유롭게 사용하는데 도움이 됩니다. 따라서 여기에서는 현재 인공지능을 이용해 이미지 스타일을 바꾸는 기법에 대해 간단히 살펴보겠습니다.
신경망 스타일 전송
이 기법은 무려 10년전인 2015년에 대중화된 최초의 AI 스타일 기법입니다.
이 기법에서는 어떤 이미지의 내용에 다른 이미지(대부분 예술 작품)의 스타일을 결합합니다. 신경망은 형태(내용) 과 텍스처(스타일)을 추출하고, 이 둘을 합한 새로운 이미지로 최적화하는 방법을 사용합니다. 그 결과 원래의 이미지와 참조 이미지의 예술적 텍스처가 결합되어 표현력이 뛰어난 결과물을 생성합니다. 이 방법은 leonGatys에 의해 도입되었는데, DeepArt와 Prisma와 같은 응용에서 성공을 거두었습니다.
GAN(Generative Adversarial Networks, 생성형 적대적 네트워크)
GAN은 학습 데이터로부터 이미지를 생성할 수 있는 여러가지 모델 군을 말합니다. CycleGan과 같은 변형 GAN의 경우, 원 이미지와 결과 이미지가 완전하게 일치하지는 않지만, 이미지의 스타일을 변경할 수 있습니다. 예를 들어, 프레임 대 프레임 예제가 없더라도 사진을 유화 스타일로 바꾸거나, 말을 얼룩말로 바꾸는 등의 변환이 가능합니다. CycleGAN은 함께 학습시키는 두개의 적대적 네트워크(생성기와 판별기)를 사용하여 복제된 스타일의 품질 및 일관성을 향상시킵니다.
디퓨전 모델(Diffusion model, Stable Diffusion, DALL-E ... 등등)
디퓨전 모델은 현재 이미지 생성 인공지능에서 표준이 되어 있습니다. 사실 이 블로그에서 다루는 인공지능 모델은 대부분 디퓨전 모델이죠. 디푸전 모델은 점진적으로 잡음을 제거하는 방식입니다. 처음에는 무작위 이미지에서 시작하여 텍스트 프롬프트의 지시에 따라 일관된 이미지를 재구성하는 방법을 학습합니다.
스타일 변경의 경우, 소스 이미지와 함께 "vintage comic book style" 또는 "water color"와 같은 프롬프트를 입력하면 소스 이미지의 내용은 유지하면서 스타일을 변경시킬 수 있습니다. 이는 별도의 학습을 시킬 필요 없이 무한한 방법으로 스타일을 변경할 수 있다는 장점이 있습니다.
문맥기반 편집 템플릿(Contextual Editing Templates, InstructPic2Pic, Flux Kontext 등)
이들 모델은 기존의 이미지를 엄격히 통제하여 편집하도록 설계되었습니다. 예들 들어 InstructPix2Pix 는 어떤 명령의 입력 및 출력에 해당하는 이미지 쌍을 사용하여 학습시켰습니다.
이를 통해 사용자가 변경시키고자하는 내용("픽셀아트로 스타일 변경", "유화 효과 추가" 등)을 설명하면, 모델이 원 이미지 피사체를 존중하면서 이러한 변경사항을 적용시킬 수 있습니다.
FLUX.1 Kontex의 경우에는 멀티모달 콘텍스트(문자, 이미지, 구역)를 통합함으로써 복잡한 장면에서도 스타일을 변경시킬 수 있도록 진화하였습니다.
멀티모달 인공지능(ChatGPT, Gemini... 등)
GPT-4o와 같은 멀티모달 모델은 텍스트와 이미지를 통합 해석할 수 있습니다. 즉, 사진을 입력한 후, "지브리 스타일로 바꿔줘"와 같은 명령을 내리면, 바로 스타일이 변경된 결과물을 얻을 수 있습니다. 이 도구는 아무런 기술적 설정이 필요없이 아주 쉽게 사용할 수 있어서, 모든 사용자들이 쉽게 사용할 수 있습니다.
이러한 멀티모달 인공지능은 다양한 이미지를 사용하여 학습된 모델을 사용합니다. 예를 들어 ChatGPT의 경우 GPT-Image-1을 사용합니다.
스타일 변경 도구 비교
도구/플랫폼 | 접근 방법 | 텍스트로 수정 | 참조 이미지 |
사용 난이도
|
ChatGPT (GPT-4o)
|
웹/ 일부 무료 |
✅
|
✅
|
매우 쉬움
|
Stable Diffusion (img2img)
|
오픈소스, 웹UI
|
✅
|
✅
|
고급 사용자들에게만 상당히 쉬움
|
Flux Context
|
프로
|
✅
|
✅
|
상당히 쉬움
|
Photoleap / Lensa
|
모바일/일부 무료
|
일부 |
❌
|
매우 쉬움
|
Prisma, DeepArt
|
모바일/웹
|
❌
|
✅
|
매우 쉬움
|
ComfyUI / Automatic1111
|
로컬, 고급
|
✅
|
✅
|
고급 |
결론
인공지능을 사용해 이미지 스타일을 바꾸는 것은 더이상 전문가들만의 전유물이 아닙니다. 이제 너무나 간단하고, 직관적이며 누구나 쉽게 접근할 수 있습니다. 자신의 셀카 사진 스타일을 바꿔보거나, 일러스트를 새로운 그래픽 스타일로 전환하거나, 예술적 분위기를 추가하거나 블로그를 위해 시각적으로 돋보이는 콘텐츠를 제작하는 등, 모두 AI 도구를 이용하면 매우 쉽게 가능하게 되었습니다.
하지만 이러한 도구를 원하는 대로 사용하기 위해서는 기술적인 한계가 어디까지인지 이해하는 것이 중요합니다. 어떤 도구를 어떻게 사용해야만 쉽게 원하는 결과를 얻을 수 있을지를 알아두시면 좋습니다. 아울러 원래의 작품을 존중하고 저작권을 준수하는 등 새로운 책임감도 가져야 할 것입니다.
제가 보기에 이 글에서 소개한 이미지 스타일 변경 등의 인공지능 이미지 편집기능은 아직 초보적인 단계입니다. 거의 매달 새로운 인공지능 이미지 모델 들이 등장하고, 리더보드 순위가 계속 변하고 있는 상황을 볼 때 앞으로 1-2년 후는 현재와는 또다른 상황으로 바뀔 것으로 예상됩니다. 더 많은 발전을 기대합니다.
이상입니다.
이 글은 stablediffuision.blog의 글을 참고로하여 작성했습니다.
민, 푸른하늘