AshutoshShrivastava (@ai_for_success)

Luma가 새로운 이미지 모델 Uni-1을 출시했다. 텍스트와 레퍼런스 이미지를 잘 활용하며, 특히 텍스트-투-이미지 품질이 매우 강력하다고 언급돼 이미지 생성 분야의 주목할 만한 신제품으로 보인다.

https://x.com/ai_for_success/status/2036150255650218333

#luma #imagegeneration #texttoimage #aimodel #generativeai

AshutoshShrivastava (@ai_for_success) on X

Luma just launched its new image model, Uni-1. I had early access and have been using it for the last few days. It’s extremely powerful. It works really well with text and reference images. But what impressed me most is its text-to-image quality. I ran some of my best prompts,

X (formerly Twitter)

Microsoft MAI-Image-2 promises better AI images, but do we really need another generator?

https://fed.brid.gy/r/https://nerds.xyz/2026/03/mai-image-2-ai-image-generator/

田中義弘 | taziku CEO / AI × Creative (@taziku_co)

Midjourney의 V8 초기가 community 대상 테스트가 시작되었으며, 핵심 업데이트는 화질보다 '추종성(입력에 대한 일관된 반응)'으로 보입니다. 성능은 5배 빨라지고 네이티브 2K 지원, 텍스트 렌더링 개선이 포함되어 실용성이 크게 향상된 인상입니다.

https://x.com/taziku_co/status/2034053066136363412

#midjourney #v8 #texttoimage #imagegeneration #generativeai

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X

今回のV8アップデートで大きいのは画質より「追従性」かもしれない。 @midjourneyのV8の早期版テストがコミュニティ向けに始まった。 5倍高速、native 2K、text renderingが改善。 より実用的にアップデートされた印象。

X (formerly Twitter)

Jay Sensei (@hckinz)

대다수 주요 텍스트→이미지·텍스트→비디오 생성 시스템은 여전히 핵심에 디퓨전(diffusion) 계열 기법을 사용하고 있으며, flow matching 같은 방법은 사실상 현대화된 디퓨전으로 볼 수 있다는 관찰입니다. 즉, 현재 생성형 비전 모델들의 근간은 여전히 디퓨전 계열 기술에 의존하고 있다는 기술적 통찰을 제공합니다.

https://x.com/hckinz/status/2034056299978362931

#diffusion #flowmatching #texttoimage #texttovideo #generativeai

Jay Sensei👾 (@hckinz) on X

Almost every major text-to-image / text-to-video system still relies on diffusion (or very close relatives like flow matching, which is basically modernized diffusion) at its core.

X (formerly Twitter)

Brie Wensleydale (@SlipperyGem)

모델 제작자가 SmoothMix Ultimate V2(일루스트리어스 계열) 모델을 공개했습니다. 애니메·세미리얼 스타일을 모두 지원하며, 14일 뒤에는 전면 무료 전환 예정입니다. 현재는 'Yellow Buzz' 500으로 즉시 접근 가능하고 Civitai에 모델 페이지가 등록되어 있습니다. 제작자(베이커) 후원 권장.

https://x.com/SlipperyGem/status/2029958721472975146

#civitai #smoothmix #aiart #texttoimage

Brie Wensleydale🧀🐭 (@SlipperyGem) on X

One of my fav model bakers have released SmoothMix Ultimate V2, an Illustrious model. Does both anime and semi-real. Goes fully free in in 14 days, but you can access right now for 500 Yellow Buzz. Support the baker, if you can ~ https://t.co/7RvVeODt7b

X (formerly Twitter)

Artificial Analysis (@ArtificialAnlys)

Google DeepMind의 Nano Banana 2(또는 Gemini 3.1 Flash Image Preview)가 'Artificial Analysis Image Arena'의 텍스트→이미지 부문에서 1위를 차지했다고 보고되었으며, Nano Banana Pro보다 절반 가격으로 소개됩니다. Nano Banana 2는 Google DeepMind가 발표한 최신 Flash급 이미지 생성 모델로, 기존 Nano Banana(Gemini)를 계승하는 모델로 언급됩니다.

https://x.com/ArtificialAnlys/status/2027052241019175148

#google #gemini #texttoimage #generativeai

Artificial Analysis (@ArtificialAnlys) on X

Google's Nano Banana 2 (Gemini 3.1 Flash Image Preview) takes #1 in Text to Image in the Artificial Analysis Image Arena at half the price of Nano Banana Pro! Nano Banana 2 is the latest Flash-tier image model from @GoogleDeepMind , succeeding the original Nano Banana (Gemini

X (formerly Twitter)

Linoy Tsaban (@linoy_tsaban)

텍스트→이미지(text-to-image) 최신 릴리스들이 점점 덜 흥미롭게 느껴지지만, 여전히 시계가 특정 시간을 가리키거나 넘치는 와인잔 같은 세부를 제대로 생성하지 못하는 등 기본적 제어와 세부 표현에서 한계가 남아 있음을 지적하는 내용입니다.

https://x.com/linoy_tsaban/status/2026669021089955854

#texttoimage #generativeai #imagegeneration

Linoy Tsaban (@linoy_tsaban) on X

it's funny the gap between how relatively less exciting new text-to-image releases have become, and how we still struggle to generate a clock pointing at a given time or an overflowing glass of wine

X (formerly Twitter)

David Singleton (@dps)

@karpathy의 오리지널 프롬프트를 기반으로 @dreamer를 활용해 트랜스크립트를 분석하고 챕터로 나눈 뒤, 이미지 생성 툴로 삽화를 생성하는 실험을 수행함. 이는 자동화된 비디오 요약 및 콘텐츠 시각화의 새로운 사례로 주목받음.

https://x.com/dps/status/2026352832711110933

#dreamer #texttoimage #aiautomation #karpathy

David Singleton (@dps) on X

@swyx @dreamer @eladgil This is a cool challenge! I did one shot it (with @karpathy 's original prompt). @dreamer made something useful - figured out how to get the transcript, broke it into chapters and used our image generation tool to make the illustrations. This would not pass Andrej's acceptance

X (formerly Twitter)
The images were created with Stable Diffusion 3.5, using the text encoders:
- clip_g
- clip_l
- t5xxl_fp8_e4m3fn

SD 3.5 is particularly strong in concept art, abstract ideas, and complex scenes, as it handles nested prompts very well. The multiple text encoders are needed to accurately capture different aspects of the description: clip_g and clip_l for general visual semantics and style, and t5xxl_fp8_e4m3fn for complex, nested language structures.

Compared to SDXL, SD 3.5 is more experimental and geared toward creative, symbolic compositions, while SDXL is more stable with photorealism and figures.

Included: a screenshot of my ComfyUI workflow, which was used to implement the prompts in SD 3.5.

#AI #StableDiffusion #ComfyUI #GenerativeArt #ConceptArt #DigitalArt #AIArt #CreativeAI #TextToImage #PromptEngineering #OpenSource #Fediverse #ProceduralArt #SurrealArt #SciFiArt #FantasyArt #VisualAI #AIWorkflow