Prompting Patterns (Groq Documentation)
Groq 문서의 'Prompting Patterns' 가이드는 오픈소스 언어 모델과 작업할 때 적절한 프롬프트 패턴을 선택하는 체계적인 방법을 제시한다. 제로샷, 퓨샷, 체인 오브 쏘트 등 다양한 패턴을 업무 유형별로 추천하며, 고객 지원 티켓 처리 사례를 통해 각 패턴의 실무 적용법과 장점을 상세히 설명한다. 이를 통해 AI 기반 지원 자동화에서 정확도와 신뢰성을 높이고, 작업 효율을 개선할 수 있다.
https://console.groq.com/docs/prompting/patterns
#promptengineering #llm #fewshot #zeroshot #aiautomation

Prompt Engineering Patterns Guide - GroqDocs
A comprehensive guide to prompt engineering patterns for large language models, including Zero Shot, Few Shot, Chain of Thought, ReAct, Chain of Verification, and Chain of Density. Learn when and how to use each pattern with practical examples and tips for reliable results.
GroqDocsfly51fly (@fly51fly)
Google 연구진이 제로샷 LLM의 신뢰도를 높이기 위해 의미적으로 가까운 응답 후보들을 집계하는 ‘The Silent Vote’ 기법을 제안했다. 추가 학습 없이도 여러 의미 이웃을 활용해 출력 안정성과 일관성을 개선하는 연구다.
https://x.com/fly51fly/status/2054314303034163618
#llm #zeroshot #reliability #google #arxiv

fly51fly (@fly51fly) on X
[CL] The Silent Vote: Improving Zero-Shot LLM Reliability by Aggregating Semantic Neighborhoods
S Badhe, P Tiwari, D Shah [Google] (2026)
https://t.co/JGoCuMJUUG
X (formerly Twitter)ActCam: Zero-Shot Joint Camera and 3D Motion Control for Video Generation
ActCam은 사전 학습된 이미지-비디오 확산 모델을 기반으로, 드라이빙 비디오에서 캐릭터 모션을 새로운 장면으로 전이하면서 프레임별 카메라 내·외부 파라미터를 제어하는 제로샷 비디오 생성 기법이다. 깊이와 포즈 조건을 시간에 따라 단계적으로 적용해 장면 구조와 고주파 디테일을 균형 있게 생성하며, 다양한 벤치마크에서 기존 포즈 제어 방식 대비 카메라 일관성과 모션 충실도가 향상됨을 보였다. 별도의 추가 학습 없이도 카메라와 모션을 동시에 정밀하게 제어할 수 있어 영상 생성 및 AI 기반 콘텐츠 제작에 유용하다.
https://arxiv.org/abs/2605.06667
#videogeneration #diffusionmodel #3dmotioncontrol #zeroshot #computervision

ActCam: Zero-Shot Joint Camera and 3D Motion Control for Video Generation
For artistic applications, video generation requires fine-grained control over both performance and cinematography, i.e., the actor's motion and the camera trajectory. We present ActCam, a zero-shot method for video generation that jointly transfers character motion from a driving video into a new scene and enables per-frame control of intrinsic and extrinsic camera parameters. ActCam builds on any pretrained image-to-video diffusion model that accepts conditioning in terms of scene depth and character pose. Given a source video with a moving character and a target camera motion, ActCam generates pose and depth conditions that remain geometrically consistent across frames. We then run a single sampling process with a two-phase conditioning schedule: early denoising steps condition on both pose and sparse depth to enforce scene structure, after which depth is dropped and pose-only guidance refines high-frequency details without over-constraining the generation. We evaluate ActCam on multiple benchmarks spanning diverse character motions and challenging viewpoint changes. We find that, compared to pose-only control and other pose and camera methods, ActCam improves camera adherence and motion fidelity, and is preferred in human evaluations, especially under large viewpoint changes. Our results highlight that careful camera-consistent conditioning and staged guidance can enable strong joint camera and motion control without training. Project page: https://elkhomar.github.io/actcam/.
arXiv.org
fly51fly (@fly51fly) on X
[LG] Zero-shot World Models Are Developmentally Efficient Learners
K L Aw, K Kotar, W Lee, S Kim… [Stanford University] (2026)
https://t.co/kJIq691HFv
X (formerly Twitter)田中義弘 | taziku CEO / AI × Creative (@taziku_co)
SIM1 논문과 프로젝트가 소개되었습니다. Deformable Worlds에서 물리 정합 시뮬레이터를 활용해 zero-shot 데이터 스케일링을 가능하게 하는 연구로, 로보틱스와 시뮬레이션 기반 학습의 중요한 기술적 진전을 제시합니다.
https://x.com/taziku_co/status/2043266195344998465
#sim1 #robotics #simulation #research #zeroshot

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X
SIM1
Physics-Aligned Simulator as Zero-Shot Data Scaler in Deformable Worlds
Project:https://t.co/E7o43fjxFo
via:@Yunsong_Zhou
X (formerly Twitter)田中義弘 | taziku CEO / AI × Creative (@taziku_co)
SIM1은 실제 세계 데이터 수집을 계속 늘리지 않아도, 소수의 실세계 시연만으로 시뮬레이션에서 학습한 정책을 실제 로봇으로 zero-shot 전이할 수 있게 하는 접근입니다. 로봇 학습의 데이터 효율을 크게 높일 가능성이 있습니다.
https://x.com/taziku_co/status/2043266193474347357
#robotics #simulation #zeroshot #policylearning #ai

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X
実世界データを増やし続けないと
ロボットは賢くならない。
この前提をほぼ当然だと思っていた。
SIM1は、少数の実演だけで、
あとはシミュレーション内で鍛えたポリシーが
実機へゼロショット転移する。
ロボット学習のボトルネックを解消する技術となるか?
詳細は🧵
X (formerly Twitter)Today we're releasing WildDet3D—an open model for monocular 3D object detection in the wild.
It works with text, clicks, or 2D boxes, and on zero-shot evals it nearly doubles the best prior scores.
https://x.com/allen_ai/status/2041545111151022094
#3dobjectdetection #monocular3d #zeroshot #openmodel #multimodal

Ai2 (@allen_ai) on X
Today we're releasing WildDet3D—an open model for monocular 3D object detection in the wild.
It works with text, clicks, or 2D boxes, and on zero-shot evals it nearly doubles the best prior scores. 🧵
X (formerly Twitter)Lukas Ziegler (@lukas_m_ziegler)
Sanctuary AI가 유압식 로봇 손으로 큐브를 목표 위치로 10번 연속 재배치하는 인핸드 매니퓰레이션을 시연했다. 실세계 학습 없이, 리셋이나 사람 개입 없이 동작한 제로샷 손재주 기술의 진전으로 매우 주목된다.
https://x.com/lukas_m_ziegler/status/2039687930738819215
#robotics #zeroshot #dexterity #manipulation #ai

Lukas Ziegler (@lukas_m_ziegler) on X
Zero-shot dexterity is starting to work! 🪬
@TheSanctuaryAI just demonstrated in-hand manipulation with a hydraulic robotic hand, reorienting a cube to a target position 10 times in a row.
No resets. No human intervention.
And more importantly: no real-world training.
The
X (formerly Twitter)fly51fly (@fly51fly)
Google LLC 연구진이 YouTube Music 사례를 통해 제로샷 크로스도메인 지식 증류(knowledge distillation)를 다룬 새 연구를 소개했다. 도메인이 다른 환경에서도 사전 학습 지식을 효과적으로 이전하는 방법을 탐구한 AI 연구로, 추천·검색·멀티도메인 모델 최적화에 참고할 만하다.
https://x.com/fly51fly/status/2039455679875010773
#knowledgedistillation #zeroshot #crossdomain #youtubemusic #google

fly51fly (@fly51fly) on X
[IR] Zero-shot Cross-domain Knowledge Distillation: A Case study on YouTube Music
S Ranganathan, N Khani, S Andrews, C Lo… [Google LLC] (2026)
https://t.co/efSdMFeWeL
X (formerly Twitter)田中義弘 | taziku CEO / AI × Creative (@taziku_co)
Roadrunner는 횡렬/인라인 바퀴와 스테핑을 모두 다루는 멀티모달 이동 로봇으로, 단일 정책으로 다양한 주행 방식을 학습했다. 넘어짐 복구와 한쪽 바퀴 균형까지 실기기에서 제로샷으로 동작해 범용 로봇 이동 제어의 가능성을 보여줬다.
https://x.com/taziku_co/status/2036373975698465266
#robotics #multimodal #reinforcementlearning #zeroshot #embodiedai

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X
マルチモーダル移動を実現
「Roadrunner(@rai_inst)」は、横並び車輪、インライン車輪、ステッピングを使いこなす車輪融合ロボット。
横並び車輪とインライン走行などを単一ポリシーで学習し、
起き上がりや片輪バランスまでゼロショットで実機展開。
X (formerly Twitter)