Wes Roth (@WesRoth)
Suno 5.5가 공개한 새로운 음악 생성 능력이 화제를 모은다. 사용자는 직접 만든 곡의 라이브 반응을 공유하며, 몽골 목노래와 덥스텝을 결합한 결과가 인상적이라고 평가했다.
Wes Roth (@WesRoth)
Suno 5.5가 공개한 새로운 음악 생성 능력이 화제를 모은다. 사용자는 직접 만든 곡의 라이브 반응을 공유하며, 몽골 목노래와 덥스텝을 결합한 결과가 인상적이라고 평가했다.
https://winbuzzer.com/2026/03/25/google-launches-lyria-3-pro-ai-music-generation-model-xcxwbn/
Google's New Lyria 3 Pro AI Music Model Generates 3 Minute Tracks
#AI #Lyria3Pro #Lyria #Google #GenerativeAI #GoogleDeepMind #AIMusic #AIAudio #AudioGeneration #Music #GoogleVertexAI #GoogleAIStudio #BigTech #SynthID #Suno #Udio
Google erweitert mit Lyria 3 Pro die multimodale Audio-Generierung auf zusammenhängende Outputs von drei Minuten.
Das KI-Modell verarbeitet Text-, Bild- und Video-Inputs zu strukturierten Tracks mit definierten Intros und Bridges. Entwickler integrieren die Architektur via Gemini-API und Vertex AI. Die Authentifizierung erfolgt mittels Wasserzeichen.
#Google #Lyria3Pro #AI #AudioGeneration #News
https://www.all-ai.de/news/news26top/google-lyria-3-pro-start
Pengfei Liu (@stefan_fee)
Seedance 2.0이 인상적이지만 오픈소스가 아니라는 언급과 함께, 비디오와 오디오를 동시에 생성하는 단일 스트림 15B Transformer 기반 daVinci-MagiHuman을 새로 소개했다. 크로스어텐션이나 멀티스트림 없이 self-attention만 사용하며, 처음부터 학습한 생성형 멀티모달 모델로 보인다.
https://x.com/stefan_fee/status/2036450014394982413
#transformer #videogeneration #audiogeneration #multimodal #model

Seedance 2.0 is impressive. But it's closed-source! Introducing our daVinci-MagiHuman — a single-stream 15B Transformer trained from scratch that jointly generates video + audio. No cross-attention. No multi-stream branches. Just self-attention. ⚡ 5s 1080p video in 38s on a
Hands on with AI audio generation: GAI voice, music, and sound effects
This is the second post in a series exploring the multimodal possibilities of generative AI. This series will take a detailed, hype-free look at text, image, audio, video, and code generation and explore the creative potential as well as the ethical concerns of GAI. Although Generative AI isn't a new technology, it's definitely been having a hype moment since the release of ChatGPT in November 2022. Unfortunately, the focus has been squarely on the text-based chatbot at the exclusion of […]Emily (@IamEmily2050)
트윗 작성자는 'Seedance V2 Fast'를 언급하며 해당 버전(모델)을 지칭하고 있습니다. 시점은 2026년 3월이며, 향후 발전 및 영향에 대한 기대감을 표현하고 있어 새로운 모델 버전의 존재 또는 공개 가능성을 시사합니다.
Google for Developers (@googledevs)
Google DeepMind의 오디오 모델 Lyria 3가 Gemini 앱에 도입되어 커스텀 사운드트랙 생성 기능을 제공한다. 사용자는 장르·템포 프롬프트를 입력해 이미지(예: Nano Banana)로부터 오디오를 생성할 수 있으며 장르와 보컬 제어 기능을 지원해 이미지→오디오 멀티모달 생성 및 세부 제어가 가능하다.
Jay Estrada (@JayEstrada8)
사용자가 GeminiApp의 음악 관련 기능을 실험해보고 있음을 간단히 알림. Gemini의 음악(오디오) 생성·처리 역량을 테스트하는 사용 사례를 시사함.
https://winbuzzer.com/2026/02/19/google-gemini-lyria-3-music-generation-xcxwbn/
Google Gemini Now Generates AI Music with Lyria 3
#AI #Google #GoogleGemini #AIMusic #Lyria3 #GenerativeAI #GoogleDeepMind #Copyright #SynthID #AudioGeneration #GeminiApp #Alphabet
AK (@abh1nash)
lego 모드를 테스트하기 위해 전용 UI를 구축했지만 ACE-Step과의 조합에서 큰 성과를 얻지 못했다고 보고합니다. 모델이 변경되어 해당 모드가 더 이상 의도대로 동작하지 않는 것 같으며, 시도할 때 전체 오디오를 생성해버리는 등 기대한 결과가 나오지 않았다고 합니다.

@cocktailpeanut I did build a UI specifically to test the lego mode but I have not had much success in that regards with ACE Step - not sure if they have changed the model to make this work but results were like in the video last time (it would end up generating complete audio despite attempting