Wildminder (@wildmindai)

학습(Training)이나 수작업(operator)이 필요 없는 이미지·비디오 정제 기법을 소개합니다. Wan2.2와 CogVideoX에 대해 제로샷으로 시네마틱 카메라 제어 및 편집을 지원하며, 최첨단(SOTA) 초해상도(super-res)와 인페인팅 기능을 제공한다고 밝히고 있습니다. 구현 코드와 자료는 HKUST-LongGroup의 GitHub 리포지토리(Coarse-guided-Gen)에서 확인 가능합니다.

https://x.com/wildmindai/status/2032409925901860919

#zeroshot #video #superresolution #inpainting #computervision

Wildminder (@wildmindai) on X

Training-free, operator-free refinement for images and video. - Zero-shot cinematic camera control and editing for Wan2.2/CogVideoX. - SOTA Super-res and inpainting https://t.co/qCkqGUXvlC

X (formerly Twitter)

Тихая эволюция zero-shot энкодеров. От UniNER до GLiNER 2

Пока все говорят про LLM агентов, есть целый класс задач где 205M энкодер делает ту же работу что ChatGPT - быстрее, дешевле, без vendor lock-in. Я хочу рассказать про эволюцию энкодеров, которую вы возможно пропустили: начиная от UniNER, заканчивая GLiNER 2, с ключевыми инсайтами на каждом шаге.

https://habr.com/ru/companies/raft/articles/1010028/

#gliner #ai #ml #llm #nlp #gliner2 #zeroshot #encoder

Тихая эволюция zero-shot энкодеров. От UniNER до GLiNER 2

Эта статья является адаптацией моей статьи , опубликованной в Towards AI Intro Большие языковые модели показывают впечатляющую обобщающую способность, причём не только в задачах генерации текста вроде...

Хабр

Lukas Ziegler (@lukas_m_ziegler)

스탠퍼드 연구진이 SimToolReal을 공개했습니다. 단일 강화학습(RL) 정책으로 테스트 시 객체나 작업별 전용 훈련 없이 24개 작업에서 제로샷(dexterous) 도구 조작을 수행한다는 연구 결과로, 범용적인 섬세한 도구 조작 제어에 큰 진전입니다.

https://x.com/lukas_m_ziegler/status/2028389274521850111

#simtoolreal #dexterousmanipulation #reinforcementlearning #zeroshot #robotics

Lukas Ziegler (@lukas_m_ziegler) on X

Zero-shot dexterous tool manipulation across 24 tasks! 🔧 Stanford University researchers just released SimToolReal, a single RL policy that performs general dexterous tool manipulation at test-time without any object or task-specific training. Tool manipulation requires

X (formerly Twitter)

fly51fly (@fly51fly)

TOPReward 논문은 언어모델의 토큰 확률을 로봇 제어를 위한 숨겨진 제로샷 보상으로 활용하는 새로운 접근을 제안합니다. University of Washington과 Amazon 연구진이 제시한 이 방법은 보상 설계 없이 텍스트 기반 확률 정보를 보상 신호로 변환해 로봇 태스크에 적용하는 실험·분석을 담고 있으며 로보틱스에서 제로샷 보상 추출 가능성을 탐구합니다.

https://x.com/fly51fly/status/2028229277972607293

#robotics #rewardlearning #zeroshot #llm

fly51fly (@fly51fly) on X

[RO] TOPReward: Token Probabilities as Hidden Zero-Shot Rewards for Robotics S Chen, C Harrison, Y Lee, A J Yang… [University of Washington & Amazon] (2026) https://t.co/uOGOrnVy5j

X (formerly Twitter)

@TexJoachim Ja, ok. Kann man so sehen.

Wenn ich (gerade mit Bildungsbezug) etwas generieren möchte habe ich eine Idee, die ich umsetzen will. In der Regel mit einem methodischen oder didaktischen Gedanken oder einer Idee zur Illustration.

Vielleicht ist das der Grund dafür das #Metaprompting bei mir exzellent funktioniert. Dann kann ich die Idee in natürlicher Sprache verfassen und die KI erstellt mir einen funktionalen #Bildprompt für das gewünschte Bildmodell. Klar dauert das etwas. Es ist aber auch kein Selbstläufer gute Bilder zu generieren (nicht fotografieren)!

Solche #Zeroshot-Prompts funktionieren bei mir mit Bildergenerierung fast nie wie gewünscht. Dafür ist mir persönlich dann einfach die Energie zu schade, die verbraucht wird für Datenmüll.

Zeroshots funktionieren m.E. nur gut bei Veränderung von Bildern oder passenden Kontextdateien. Farben tauschen von Objekten in bestehenden Bild oder sowas, dafür passt das prima!

Akkoma

Lukas Ziegler (@lukas_m_ziegler)

Shanghai AI Lab와 Shanghai Jiao Tong University 연구진이 XHugWBC라는 단일 전신 제어 정책을 공개했습니다. 이 정책은 한 번의 학습으로 일곱 종류의 휴머노이드 로봇에 제로샷으로 일반화되어 적용되며, '한 번 훈련한 하나의 정책'으로 다양한 로봇을 제어할 수 있음을 보였습니다. 로봇 제어 일반화와 전신 제어 연구의 중요한 진전입니다.

https://x.com/lukas_m_ziegler/status/2023760074515099814

#xhugwbc #robotics #humanoid #zeroshot #control

Lukas Ziegler (@lukas_m_ziegler) on X

One policy to control all humanoid robots! 💍 Researchers from Shanghai AI Lab and Shanghai Jiao Tong University just released XHugWBC, a single whole-body control policy that generalizes across seven different humanoid robots with zero-shot transfer. One policy, trained once,

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

Eulerian 유체 시뮬레이션을 제로샷으로 테스트하며 Opus 4.6, GPT-5.3, Gemini 3 Deep Think를 비교한 벤치마크 게시물입니다. 작성자는 Gemini 3 Deep Think을 개인적으로 최고로 꼽았고, Opus 4.6와 GPT-5.3도 언급되었습니다 — 응용(유체 시뮬레이션)에서의 모델 성능 비교 사례입니다.

https://x.com/ivanfioravanti/status/2022744459654430787

#fluidsimulation #zeroshot #modelcomparison #gpt5.3 #gemini3

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Eulerian Fluid simulation test! Zero-shot! Opus 4.6 vs GPT-5.3 vs Gemini 3 Deep Think! My personal preference: 🥇 Gemini 3 Deep Think (really strong!) 🥈 Opus 4.6 🥉 GPT 5.3 High

X (formerly Twitter)

Jim Fan (@DrJimFan)

새 이정표: 세계 모델(world model) 백본으로 로봇 파운데이션 모델을 학습시켜 제로샷 오픈월드 프롬프팅(새로운 동사·명사·환경에 대한 즉시 대응) 능력을 부여했다고 발표. 세계 모델이 픽셀로 올바른 미래를 '꿈'꾸면 로봇이 모터로 잘 실행할 수 있다는 개념 제시.

https://x.com/DrJimFan/status/2019112603637920237

#robotics #foundationmodel #worldmodel #zeroshot #robotlearning

X

X (formerly Twitter)

Thảo luận: Giá LLM nên dựa trên “zero‑shot intelligence”. Hiện nhiều công ty tính phí token đầu ra gấp 4‑5× token đầu vào, ngầm cho rằng đầu ra chứa “trí tuệ”. Nếu vậy, mức giá nền tảng cần phản ánh chất lượng trí tuệ – mô hình zero‑shot mạnh hơn nên có mức phí cao hơn. Bạn nghĩ sao? #LLM #AI #Pricing #TríTuệ #ZeroShot #AIVietnam

https://www.reddit.com/r/LocalLLaMA/comments/1qivp84/llms_value/

🤖 #Zeroshot creates autonomous engineering teams for #ClaudeCode #AI #DevTools #opensource

🔧 Point at a #GitHub issue, walk away, and return to verified, production-ready PRs
🛡️ Multiple isolated agents check each other's work - validators didn't write the code, so they can't lie about tests
🔄 Smart task classification: TRIVIAL (1 agent) → CRITICAL (7 agents with security, adversarial testing)

🧵 👇