Hands on with Video Generation

Of all of the modes of generative AI - including text, audio, image, and code - video generation is still one of the earliest and most complex. This post explores video generation from a couple of the most successful current platforms, but the point isn't really to see what the technology can do right now: it's to see what's on the near horizon. I've written elsewhere about the multimodality of generative AI, and why I'm convinced that increasingly multimodal platforms are the future of the […]

https://leonfurze.com/2023/11/06/hands-on-with-video-generation/

PixVerse (@PixVerse_)

PixVerse CLI가 출시되어 AI 에이전트가 동영상을 생성할 수 있게 되었습니다. CLI는 JSON 출력, 6개의 결정적 종료 코드, PixVerse v5.6 포함 지원하며 Sora2·Veo 3.1, Nano Banana에 터미널 접근을 제공합니다. 동일 계정·크레딧으로 추가 가입 불필요.

https://x.com/PixVerse_/status/2033529437808201897

#pixverse #cli #videogeneration #sora2 #veo

X

X (formerly Twitter)

I created my first #Python script by #VibeCoding, in this case I used #Gemini.

#SnakeVISE is a CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets. It's #FLOSS under #AGPL.

https://github.com/haschek/snakevise

#SocialMedia #VideoGeneration

GitHub - haschek/snakevise: CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets.

CLI-based video sequencer, generating media from multiple files. Can apply a range of visual effects. Synced to audio by slicing input media into beat-accurate snippets. - haschek/snakevise

GitHub

Alisa Qian (@alisaqqt)

Wan 2.7이 3월 내 출시 예정이며 2.6 대비 전반적인 대규모 업그레이드다. 첫 프레임·마지막 프레임 비디오 생성, 9-grid 이미지→비디오, 피사체·음성 레퍼런스 지원, 지시 기반 비디오 편집, 비디오 재창조/복제 등 주요 신규 기능을 포함한다.

https://x.com/alisaqqt/status/2032522796866416896

#wan #wan2.7 #videogeneration #imagetovideo #videoediting

Alisa Qian (@alisaqqt) on X

Wan 2.7 is planned to launch within March — and it’s a major all-around upgrade over 2.6. Wan 2.7 will support: - first-frame & last-frame video generation - 9-grid image-to-video - subject + voice reference - instruction-based video editing - video recreation / replication A

X (formerly Twitter)

Engadget (@engadget)

OpenAI가 ChatGPT에 'Sora' 기반 비디오 생성 기능을 추가할 계획이라는 보도입니다. ChatGPT에 비디오 생성이 통합되면 멀티모달 생성능력이 강화되어 콘텐츠 제작, 대화형 멀티미디어 응용, AI 기반 크리에이티브 워크플로우에 큰 영향을 줄 수 있습니다.

https://x.com/engadget/status/2032585375458222123

#openai #chatgpt #sora #videogeneration #ai

Engadget (@engadget) on X

OpenAI reportedly plans to add Sora video generation to ChatGPT https://t.co/d20LF2WgsK

X (formerly Twitter)

Joshua Xu (@joshua_xu_)

HeyGen이 'Styles' 기능을 공개해 AI 영상 생성 전에 스타일을 선택하면 전체 영상에 일관된 시각 정체성을 자동 적용하도록 바꿨다는 소식입니다. 기존에는 스크립트만 변경 가능했으나 영상의 외형 통제를 불가능했던 문제를 해결한다고 주장합니다.

https://x.com/joshua_xu_/status/2032496233479311581

#heygen #videogeneration #aivideo #styletransfer

新清士@(生成AI)インディゲーム開発者 (@kiyoshi_shin)

세미나에서 공개한 田中さん 영상 관련 설명입니다. Seedream5로 생성한 영상과 Seedance1.5로 만든 영상을 이어 붙인 작품이며 음악은 Suno로 제작되었습니다. 흥미롭게도 일본어 대사만 지정했음에도 따로 만든 세 영상에서 같은 듯한 매우 유사한 음성이 반복되어 나오는 현상을 관찰하고 공유한 내용입니다.

https://x.com/kiyoshi_shin/status/2032323490645418314

#seedream #seedance #suno #videogeneration #voicesynthesis

Min Choi (@minchoi)

Grok Imagine의 최신 업데이트로 비디오에 최대 7개의 이미지 레퍼런스를 넣을 수 있게 되었다고 알렸습니다. 여러 예시가 공개되었으며, 멀티이미지 기반의 비디오 생성·편집 기능이 크게 강화된 것으로 보입니다.

https://x.com/minchoi/status/2032293204607782970

#grok #grokimagine #videogeneration #multimodal

NOBU (@nbykos)

오늘(19:00) 해당 플랫폼에서 발표를 진행하며 주로 Seedance2에 대해 이야기할 예정이라는 안내다. 작성자는 Seedance2를 다루며 얻은 경험을 바탕으로 향후 영상 생성 AI(비디오 생성 AI)에 대한 통찰을 공유하겠다고 밝혔다.

https://x.com/nbykos/status/2031911690619736542

#seedance2 #videoai #videogeneration #generativeai

NOBU (@nbykos) on X

本日19:00から、こちらで話します! 主にSeedance2についてですが、いろいろ触る中で今後の動画生成AIについて洞察を得たのでその辺りを話します。

X (formerly Twitter)

Microsoft Research (@MSFTResearch)

멀티모달 추론을 다루는 Phi-4-reasoning-vision 등 최신 연구·기술 업데이트 요약: LLM 추론 스케일링 관련 신작, 네트워크 운영용 AI 에이전트 벤치마킹, 시네마틱 비디오 생성, LLM 적응형 평가(adaptive evaluation), 개인 및 공중 보건 개선을 위한 AI 응용을 포함한 종합 리포트(링크 포함).

https://x.com/MSFTResearch/status/2031047505786347769

#multimodal #phi4 #llm #ai #videogeneration

Microsoft Research (@MSFTResearch) on X

Multimodal reasoning with Phi-4-reasoning-vision, new work on scaling LLM inference, benchmarking AI agents in network operations, cinematic video generation, adaptive evaluation for LLMs, and using AI to improve individual and population health. https://t.co/9Y0SyTlG5W

X (formerly Twitter)