Google Gemma (@googlegemma)
아이폰에서 Gemma 4를 로컬로 실행하는 방법을 소개하는 영상이다. 완전 오프라인으로 동작하며 긴 컨텍스트를 지원해 데이터 요금, API 호출, 월 구독료 없이 사용할 수 있는 점이 강조된다.
Google Gemma (@googlegemma)
아이폰에서 Gemma 4를 로컬로 실행하는 방법을 소개하는 영상이다. 완전 오프라인으로 동작하며 긴 컨텍스트를 지원해 데이터 요금, API 호출, 월 구독료 없이 사용할 수 있는 점이 강조된다.
iOS「Google AI Edge Eloquent」iPad最適化
https://jetstream.blog/2026/04/17/ios-google-ai-edge-eloquent-v1-2-5-release/
#jetstream_blog #新機能情報 #Gemma #Google_AI_Edge_Eloquent #iOS #iPhone
iOS「Google AI Edge Eloquent」iPad最適化
https://web.brid.gy/r/https://jetstream.blog/2026/04/17/ios-google-ai-edge-eloquent-v1-2-5-release/
Google Gemma (@googlegemma)
Gemma4와 Falcon Perception을 결합해 영상 추적을 수행하는 흥미로운 로컬 실행 사례입니다. Gemma 4가 영상 프레임을 설명하고, Falcon Perception이 객체를 분할 및 추적해 전체 파이프라인을 로컬에서 동작시킵니다. 멀티모달 영상 분석 응용 사례로 주목됩니다.

Check out this amazing combo using Gemma4 + Falcon Perception for video tracking! 1️⃣Give Gemma 4 video frames 2️⃣It describes what it sees 3️⃣Falcon Perception takes those descriptions, segments the objects, and tracks them across the video! The best part? All running locally!
RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert. Die abschließende Qualitätssicherung, das Lösen von Blockaden und die Hardware-Beschaffung machen den Großteil der Arbeit aus. Ich wollte mich bei einigen Leuten bedanken; ich habe 50 Modelle auf meinem HF, etwa 10 davon sind wirklich gut. Alle Besten? Sie haben eine Gemeinsamkeit: 0xSero (@0xSero). Wie versprochen! Gemma-4-21B-REAP ist da! Die Ergebnisse sind großartig, es hat sich sehr gut geschlagen und hat bei Reasoning-Aufgaben sogar an Genauigkeit gewonnen. MLX- & GGUF-Bros, macht euer Ding! Das sollte auf nur 12 GB VRAM mit etwas Kontext oder 16 GB mit vollem Kontext passen huggingface.co/0xSero/gemma-… — https://nitter.net/0xSero/status/2040822269400723955#m
mehr auf Arint.info
#AI #Gemma #HuggingFace #LLM #MachineLearning #Quantization #arint_info
We were looking for a local tokenizer for counting the number of input tokens before calling the gemini-embedding-001 endpoint on vertex AI. Turns out this Gemma tokenizer returns exactly the same number of tokens as the usage in the embeddings result `embedding.statistics.token_count` of the Gemini embeddings endpoint. Tested on 2000 datapoints. 😁
Ivan Fioravanti ᯅ (@ivanfioravanti)
Gemma-4는 현재 Python과 Swift 라이브러리에서 커스텀 출력 형식 때문에 완전 지원되지 않아 테스트용 모델을 Qwen3.5-35B-A3B로 변경한다고 했습니다. 4bit로 속도를 높여 평가를 진행하는 내용으로, 최신 모델 호환성 이슈와 벤치마크 전환을 보여줍니다.
Ivan Fioravanti ᯅ (@ivanfioravanti)
MLX 추론 엔진의 새 버전을 테스트해 달라는 요청과 함께, 새로운 라운드의 테스트가 시작됐습니다. Gemma-4-26B-A4B-IT 4bit 테스트를 시작한다고 밝혀, MLX 생태계의 성숙과 관련된 중요한 인퍼런스 도구 업데이트 신호로 볼 수 있습니다.

I want to thank all the MLX inference engine creators out there that reached me to test their new versions! Happy to start a new round now! Keep you posted! Together we make this ecosystem as mature as Nvidia one sooner than later 💪 gemma-4-26b-a4b-it-4bit test starting now!
Artificial Analysis (@ArtificialAnlys)
Gemma 4 31B의 비추론 모드가 적은 출력 토큰으로도 높은 성능을 내며, 추론 모드 대비 효율적인 대안이 될 수 있음을 보여줬다. Qwen3.5 27B 비추론 모드도 경쟁력 있는 점수를 기록해, 소형 오픈 웨이트 모델의 추론 효율과 비용 절감 가능성이 강조된다.

Non-reasoning modes are competitive in the sub-32B open weights field. Gemma 4 31B (Non-reasoning) scores 32 on the Intelligence Index using just 7.1M output tokens - 5.5x fewer than its reasoning mode for only a 7-point decrease. Qwen3.5 27B (Non-reasoning) scores 37 using 25M
Artificial Analysis (@ArtificialAnlys)
Artificial Analysis Intelligence Index 기준으로, 32B 이하 오픈 웨이트 모델들이 GPT-5 수준의 성능에 도달했다고 소개했다. Alibaba Qwen의 Qwen3.5 27B(Reasoning)와 Google DeepMind의 Gemma 4 31B(Reasoning)가 각각 GPT-5 중간/낮은 수준을 맞먹는 점수를 기록해, 오픈 모델 성능의 큰 진전을 보여준다.

Sub-32B open weights models now offer GPT-5 level intelligence with Qwen3.5 27B (Reasoning) matching GPT-5 (medium) at 42 and Gemma 4 31B (Reasoning) matching GPT-5 (low) at 39 on the Artificial Analysis Intelligence Index @Alibaba_Qwen's Qwen3.5 and @GoogleDeepMind's Gemma 4