이앤아이 WithENI  로고

홈으로
ENI Media
SMART News
ENI Media

ENI Media


알리바바 ‘완 2.7 비디오’ 공개, 영상 생성 AI가 ‘제작’ 단계로 들어가다

조회 152

2026-04-11 00:00

텍스트·이미지·레퍼런스를 한 번에 묶어 생성부터 편집까지… 기업용 워크플로우 경쟁도 본격화


안녕하세요. 디지털에이전시 이앤아이입니다.


요즘 생성형 AI 흐름을 보면, 이미지는 ‘잘 뽑는’ 수준을 넘어 브랜드 톤을 맞추는 단계로, 영상은 ‘짧은 클립’에서 ‘제작 공정’으로 빠르게 이동하고 있습니다. 알리바바가 공개한 통합 영상 생성 모델 ‘완 2.7 비디오(Wan2.7-Video)’는 그 변화를 상징적으로 보여줍니다. 텍스트로 영상을 만들고(t2v), 이미지에서 영상을 만들고(i2v), 레퍼런스를 반영해 영상의 정체성을 유지하고(r2v), 자연어로 편집까지(videoedit) 한 번에 이어지게 설계했기 때문입니다.


이번 발표가 더 눈에 띄는 이유는 ‘통합’이라는 키워드에 있습니다. 그동안 영상 생성 AI의 가장 큰 불만은 장면이 바뀔 때 인물의 얼굴, 의상, 조명, 색감이 흔들린다는 점이었죠. 알리바바는 멀티 샷 일관성과 서사적 흐름을 핵심 한계로 짚고, 스크립트 입력부터 스토리보드 구성, 장면 전환 리듬, 조명 연출까지 한 흐름에서 제어하도록 방향을 잡았습니다. 단일 프롬프트로 FPV 드론 시점이나 360도 회전 샷 같은 카메라 연출까지 포함한 스토리보드를 만든다는 설명은, ‘콘텐츠 생성’보다 ‘연출 자동화’에 더 가깝습니다.



실무 관점에서 중요한 스펙도 명확합니다. 2초에서 15초까지 길이를 지원하고 720p와 1080p 해상도를 제공합니다. 엔터프라이즈 API로 대량 처리와 맞춤형 워크플로우 구성이 가능하다는 점은 마케팅팀, 미디어팀, 커머스 조직에서 반복 제작 비용을 줄일 여지가 큽니다. 특히 자연어 기반 편집이 포함되면서, 기존 후반 작업에서 많이 들던 ‘수정 커뮤니케이션 비용’이 얼마나 줄어들지가 관전 포인트입니다.


또 하나, ‘캐릭터 유지’가 기능으로 들어온 점도 흥미롭습니다. 최대 5개 캐릭터에 대해 고유한 음성 톤과 시각적 정체성을 설정해 서사 전반에서 일관성을 유지한다는 구조는, 캠페인 영상이나 시리즈형 숏폼처럼 “계속 같은 세계관”이 필요한 작업에 특히 유리합니다. 여기에 수천 가지 스타일 조합과 50개 이상의 감정 표현 지원까지 더해지면, 기획자가 원하는 분위기를 더 정밀하게 맞추는 방향으로 발전할 가능성이 큽니다.


물론 체크할 지점도 있습니다. 생성형 영상은 저작권, 초상권, 데이터 출처, 워터마킹 같은 ‘사용 조건’이 제품 선택의 핵심이 되고 있습니다. 또한 기업 환경에서는 생성 결과의 재현성, 버전 관리, 보안(프라이빗 환경 지원 여부), 승인 프로세스와의 연결이 실사용을 가릅니다. 완 2.7 비디오가 알리바바 클라우드 모델 스튜디오와 공식 웹사이트에서 제공되고, 큐원(Qwen) 앱에도 통합될 예정이라는 점은 “플랫폼 안에서 생성-검수-배포까지 묶겠다”는 전략으로도 읽힙니다.


영상 생성 AI는 이제 ‘한 번 재미로 만들어보는 도구’를 넘어, 브랜드 운영과 웹/앱 콘텐츠 생산 라인에 들어올 준비를 하고 있습니다. 조직 내에서 테스트를 시작한다면, 먼저 반복 제작이 많은 영역(제품 소개, 행사 하이라이트, 공지 영상, 숏폼 템플릿)부터 작은 워크플로우로 검증해보는 방식이 가장 안전합니다.


메타 설명: 알리바바가 통합 영상 생성 모델 ‘완 2.7 비디오(Wan2.7-Video)’를 공개했다. 텍스트·이미지·레퍼런스 기반 생성과 자연어 편집을 하나의 흐름으로 묶어 멀티 샷 일관성과 서사 제어를 강화했으며, 기업용 API로 대량 처리와 워크플로우 구축도 지원한다.


이앤아이와 함께 더 나은 웹 환경을 만들어 나가요!


#완2.7비디오 #Wan2.7 #알리바바클라우드 #영상생성AI #생성형AI #AI영상편집 #스토리보드생성 #Qwen #마케팅콘텐츠자동화 #엔터프라이즈API #이앤아이 #디지털에이전시 #대학교홈페이지 #병원홈페이지 #AI전문기업