text-to-video 16

LTX Video 0.9.5

LTX Video 0.9.5는 예전에 소개시켜 드렸던 LTX 비디오 모델의 업그레이드 버전입니다. 이 모델은 매우 빠르게 비디오를 생성할 수 있는 것이 장점입니다. RTX 4090의 경우 4초짜리 비디오를 17초만에 생성할 수 있다고 합니다.소프트웨어LTXV 0.9.5에서 개선된 사항LTXV 0.9.5 Text-to-Video 워크플로 따라하기LTXV 0.9.5 Image-to-Video 워크플로 따라하기첫 프레임과 마지막 프레임을 지정한 비디오참고사항소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제가 제일 좋아하는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.LTXV 0.9.5에서 개선된 사항라이선스LTXV 0.9.5는 상..

Wan 2.1 Video 모델로 비디오 생성하기(ComfyUI)

Wan 2.1 Video는 일련의 개방형 인공지능 비디오 생성 모델입니다. 이 모델은 다양한 비디오 생성을 지원합니다. 텍스트-이미지 및 이미지-비디오를 지원할 뿐 아니라, 특히 480p(720x480) 또는 720p(1280x720) 해상도의 비디오를 생성할 수 있습니다. 소프트웨어Wan 2.1 샘플 비디오Wan 2.1 모델이란이미지-비디오(Image-to-Video) 따라하기텍스트-비디오(Text-to-Video) 따라하기결론소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력하며, 현재 거의 대세로 자리잡고 있는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.Wan 2.1 샘플 비디오아래의 남자가 나타나는 비디오는 이..

알리바바, Wan 2.1 공개

2025년 2월 25일, 알리바바에서 고급 비디오 생성 작업을 위해 설계된 오픈 소스 AI 모델인 Wan 2.1을 공개했습니다. 2025년 2월의 공식적으로 공개되었으며, 현재 Apache 2.0 라이선스하에 자유롭게 사용할 수 있어, 전세계의 개발자들이나 기업들이 거의 아무런 제한없이 사용할 수 있습니다.Wan 2.1 이란?중요 기능 및 벤치마크 성능Wan 2.1을 Latenode의 자동 워크플로에 통합하기Wan 2.1 이란?Wan 2.1은 텍스트 프롬프트 또는 이미지 프롬프트를 입력받아 비디오를 생성할 수 있는 대규모언어모델(LLM, large language model)입니다. VBench에서 행해진 독립적인 평가에 따르면 Wan 2.1은 약 84.7%에 달하는 점수를 획득하여, 최고 성능의 AI ..

Mochi GGUF 무비 비디오

Mochi는 짧은 비디오 움짤을 생성할 수 있는 최신의 로컬 비디오 모델입니다. 비디오를 몇개 이어서 스토리를 만들고 싶다면 어떻게 해야 할까요? Mochi 무비 비디오 워크플로를 이용하면 4개의 비디오 클립을 생성하고 이를 결합해 긴 비디오를 만들 수 있습니다. 이 무비 비디오는 ComfyUI에서 텍스트 프롬프트를 이용해 생성합니다.소프트웨어따라하기개인적인 느낌소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Mochi GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.따라하기1 단계: Mochi  GGUF 모델 다..

Mochi GGUF txt2vid (ComfyUI)

Mochi는 PC에서 돌릴 수 있는 최고의 비디오 AI 모델중 하나입니다. Mochi를 사용하면 텍스트 프롬프트를 480p 비디오로 바꿀 수 있습니다.이 글에서는 ComfyUI에서 Mochi GGUF를 설치하고 돌릴 수 있는 방법을 알려드립니다.소프트웨어Mochi AI 모델따라하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Mochi GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.Mochi AI 모델Mochi란?Mochi는 Genmo AI에서 개발한 개방형 비디오 AI 모델입니다. 아래에서 보시는 것처럼 비디..

TeaCache: 생성속도를 두배로

AI 이미지 생성속도를 올리고 싶으신가요? TeaCache를 사용하면 품질에는 거의 영향을 미치지 않으면서도 디퓨전 모델의 속도를 올릴 수 있습니다. 구현하기도 쉽고, 무엇보다 Flux와 Hunyuan Video와 같은 최신 이미지/비디오 생성모델에 적용할 수 있다는 장점이 있습니다.이 글에서는 TeaCache의 작동원리와 함께, Flux 및 HunyuanVideo에 적용하는 워크플로를 소개시켜드립니다.소프트웨어TeaCache 란?TeaCache의 작동 원리Flux에서 TeaCache 사용하기Hunyuan에서 TeaCache 사용하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기..

Flux-LTX img2vid 워크플로-ComfyUI

LTX 비디오는 고품질 비디오를 아주 빠르게 생성할 수 있는, 자신의 PC에서 돌릴 수 있는 비디오 모델입니다. LTX 는 img2vid 모드가 있어서, 이미지를 비디오로 바꿔줄 수 있습니다.Flux 모델은 현재 고품질의 이미지를 생성할 수 있는 가장 좋은 선택지중 하나입니다. 이 글에서는 Flux의 이미지 품질과 LTX의 빠른 비디오 생성을 통합한 워크플로를 선보입니다.소프트웨어Flux 모델과 Flux Fill 모델을 사용한 인페인트 비교따라하기워크플로 설명개인적인 느낌소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제가 제일 좋아하는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.따라하기1 단계: 모델 다운로드여기에는 간단하..

Flux-CogVideo 워크플로(ComfyUI)

이 워크플로는 Flux AI 모델을 사용하여 고품질 이미지를 생성하고 이를 CogVideo를 사용해 비디오로 전환하는 워크플로입니다. 이렇게 하면 텍스트 프롬프트만으로도 비디오를 생성할 수 있을 뿐 아니라, 원래의 CogVideo txt2vid 모델보다 품질이 좋은 비디오를 생성할 수 있습니다.소프트웨어따라하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 요즘 가장 널리 사용되고 있는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.따라하기1 단계: Flux1 dev GGUF 모델 다운로드여기에는 간단하게만 정리했습니다. 더 자세한 내용은 이 글을 참고하세요.GGUF unet 모델아래 사이트에서 파일을 다운로드 받아, Comfy..

ComfyUI에서 CogvideoX GGUF 사용하기

CogVideo는 자신의 PC에서 돌릴 수 있는 최신 AI 비디오 생성기 입니다. 이 글에서는 ComfyUI에서 Cogvideo를 사용하는 방법을 설명합니다.소프트웨어CogvideoX 란?Txt2Vid따라하기Img2Vid따라하기참고소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 요즘 가장 널리 사용되고 있는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Flux Dev GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.CogvideoX 란?현재 여러가지 text-to-video / img-to-video모델 및 서비스가 나와 있습니다. 그중에서도 CogVideoX는 텍스트-..

LTX 비디오

LTX Studio, Facetune, Videoleap 등의 앱을 개발한 Lightricks가 최초의 비디오 생성 모델인 LTX Video 0.9를 공개했습니다. 이 모델은 오픈소스이며, 5초짜리 AI 비디오를 단 4초만에 생성할 수 있다고 주장하고 있습니다.LTX는  5초짜리 768x512 해상도 (24 fps)의 비디오를 단 4초만에 생성할 수 있는 "실시간 비디오 생성기"라고 주장합니다. 여기에 사용된 하드웨어는 Nvidia H100 GPU를 사용했는데,  RTX4090의 경우엔 4초짜리 비디오를 10초 이내에 생성할 수 있습니다. RTX 3070의 경우에는 약 50초 정도 소요되고요.LTX  모델은 이 디퓨전 트랜스포머(DiT) 아키텍처를 사용하며, 모델의 크기가 20 억개로 작아서, 6 GB ..