田中義弘 | taziku CEO / AI × Creative (@taziku_co)

Midjourney v8 α의 성능을 소개하는 게시물. v8α와 영상 생성 AI를 조합해 제작된 영상 작품을 예로 들며, 기존처럼 세계관 있는 아트워크 정확도가 높고 첫 프레임·시점 설계가 중요해져 영상 창작 수준이 한층 올라갈 가능성을 시사.

https://x.com/taziku_co/status/2034200579673903207

#midjourney #v8 #videogeneration #generativeai

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X

Midjourney v8 αの実力 v8αと動画生成AIの組み合わせで制作された動画作品。アートワークについては、従来の通り世界観があり、かなり良い精度。 動画に展開するにもファーストフレームの絵づくりや視点はかなり重要。レベルが一段上がりそうな予感。 Creator:@Diesol

X (formerly Twitter)

Angry Tom (@AngryTomtweets)

OpenClaw 에이전트가 기존의 캘린더·이메일·업무 자동화 기능에 더해 이제 음악, 전환, 페이싱을 포함한 '실제 비디오'를 자동 생성할 수 있게 되었다는 발표입니다. 여러 비디오 모델을 활용해 편집 기술이나 복잡한 프롬프트 없이도 완성된 영상 제작을 목표로 합니다.

https://x.com/AngryTomtweets/status/2034057409069793348

#agents #videogeneration #automation #multimodal

Angry Tom (@AngryTomtweets) on X

Your OpenClaw agent already runs your calendar, answers emails, and automates your work. But now… it can make full videos too. Real videos with music, transitions, and pacing from your favorite video models. No editing skills. No prompt gymnastics. Here’s how it works 👇

X (formerly Twitter)

Hands on with Video Generation

Of all of the modes of generative AI - including text, audio, image, and code - video generation is still one of the earliest and most complex. This post explores video generation from a couple of the most successful current platforms, but the point isn't really to see what the technology can do right now: it's to see what's on the near horizon. I've written elsewhere about the multimodality of generative AI, and why I'm convinced that increasingly multimodal platforms are the future of the […]

https://leonfurze.com/2023/11/06/hands-on-with-video-generation/

PixVerse (@PixVerse_)

PixVerse CLI가 출시되어 AI 에이전트가 동영상을 생성할 수 있게 되었습니다. CLI는 JSON 출력, 6개의 결정적 종료 코드, PixVerse v5.6 포함 지원하며 Sora2·Veo 3.1, Nano Banana에 터미널 접근을 제공합니다. 동일 계정·크레딧으로 추가 가입 불필요.

https://x.com/PixVerse_/status/2033529437808201897

#pixverse #cli #videogeneration #sora2 #veo

X

X (formerly Twitter)

I created my first #Python script by #VibeCoding, in this case I used #Gemini.

#SnakeVISE is a CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets. It's #FLOSS under #AGPL.

https://github.com/haschek/snakevise

#SocialMedia #VideoGeneration

GitHub - haschek/snakevise: CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets.

CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets. - haschek/snakevise

GitHub

Alisa Qian (@alisaqqt)

Wan 2.7이 3월 내 출시 예정이며 2.6 대비 전반적인 대규모 업그레이드다. 첫 프레임·마지막 프레임 비디오 생성, 9-grid 이미지→비디오, 피사체·음성 레퍼런스 지원, 지시 기반 비디오 편집, 비디오 재창조/복제 등 주요 신규 기능을 포함한다.

https://x.com/alisaqqt/status/2032522796866416896

#wan #wan2.7 #videogeneration #imagetovideo #videoediting

Alisa Qian (@alisaqqt) on X

Wan 2.7 is planned to launch within March — and it’s a major all-around upgrade over 2.6. Wan 2.7 will support: - first-frame & last-frame video generation - 9-grid image-to-video - subject + voice reference - instruction-based video editing - video recreation / replication A

X (formerly Twitter)

Engadget (@engadget)

OpenAI가 ChatGPT에 'Sora' 기반 비디오 생성 기능을 추가할 계획이라는 보도입니다. ChatGPT에 비디오 생성이 통합되면 멀티모달 생성능력이 강화되어 콘텐츠 제작, 대화형 멀티미디어 응용, AI 기반 크리에이티브 워크플로우에 큰 영향을 줄 수 있습니다.

https://x.com/engadget/status/2032585375458222123

#openai #chatgpt #sora #videogeneration #ai

Engadget (@engadget) on X

OpenAI reportedly plans to add Sora video generation to ChatGPT https://t.co/d20LF2WgsK

X (formerly Twitter)

Joshua Xu (@joshua_xu_)

HeyGen이 'Styles' 기능을 공개해 AI 영상 생성 전에 스타일을 선택하면 전체 영상에 일관된 시각 정체성을 자동 적용하도록 바꿨다는 소식입니다. 기존에는 스크립트만 변경 가능했으나 영상의 외형 통제를 불가능했던 문제를 해결한다고 주장합니다.

https://x.com/joshua_xu_/status/2032496233479311581

#heygen #videogeneration #aivideo #styletransfer

新清士@(生成AI)インディゲーム開発者 (@kiyoshi_shin)

세미나에서 공개한 田中さん 영상 관련 설명입니다. Seedream5로 생성한 영상과 Seedance1.5로 만든 영상을 이어 붙인 작품이며 음악은 Suno로 제작되었습니다. 흥미롭게도 일본어 대사만 지정했음에도 따로 만든 세 영상에서 같은 듯한 매우 유사한 음성이 반복되어 나오는 현상을 관찰하고 공유한 내용입니다.

https://x.com/kiyoshi_shin/status/2032323490645418314

#seedream #seedance #suno #videogeneration #voicesynthesis

Min Choi (@minchoi)

Grok Imagine의 최신 업데이트로 비디오에 최대 7개의 이미지 레퍼런스를 넣을 수 있게 되었다고 알렸습니다. 여러 예시가 공개되었으며, 멀티이미지 기반의 비디오 생성·편집 기능이 크게 강화된 것으로 보입니다.

https://x.com/minchoi/status/2032293204607782970

#grok #grokimagine #videogeneration #multimodal