Google Gemma (@googlegemma)

아이폰에서 Gemma 4를 로컬로 실행하는 방법을 소개하는 영상이다. 완전 오프라인으로 동작하며 긴 컨텍스트를 지원해 데이터 요금, API 호출, 월 구독료 없이 사용할 수 있는 점이 강조된다.

https://x.com/googlegemma/status/2045204738720084191

#gemma #iphone #offline #localai #llm

Google Gemma (@googlegemma) on X

Check out this video on how to run Gemma 4 locally on an iPhone! It runs completely offline and handles long context, meaning no data plan, no API calls, and no monthly fees required.

X (formerly Twitter)
iOS「Google AI Edge Eloquent」iPad最適化

Google、小規模言語モデル「Gemma」の機能を搭載した AI 音声文字変換アプリ「Google AI Edge Eloquent」に対し、2026 年 4 月 16 日(木)にアプリバージョン v1.2.5 アップデートを配信。不具合修正とパフォーマンス改善が中心。ただし、iPad などの大画面デバイス向けの UI 最適化と、短く簡潔な音声の洗練度向上、そして、録音時間や 1 分あたりの単語数といった音声認識に関する統計データにおけるこれまで以上の正確性向上も内包。

Jetstream

Google Gemma (@googlegemma)

Gemma4와 Falcon Perception을 결합해 영상 추적을 수행하는 흥미로운 로컬 실행 사례입니다. Gemma 4가 영상 프레임을 설명하고, Falcon Perception이 객체를 분할 및 추적해 전체 파이프라인을 로컬에서 동작시킵니다. 멀티모달 영상 분석 응용 사례로 주목됩니다.

https://x.com/googlegemma/status/2044535184494891250

#gemma #falcon #videotracking #multimodal #localai

Google Gemma (@googlegemma) on X

Check out this amazing combo using Gemma4 + Falcon Perception for video tracking! 1️⃣Give Gemma 4 video frames 2️⃣It describes what it sees 3️⃣Falcon Perception takes those descriptions, segments the objects, and tracks them across the video! The best part? All running locally!

X (formerly Twitter)

RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert. Die abschließende Qualitätssicherung, das Lösen von Blockaden und die Hardware-Beschaffung machen den Großteil der Arbeit aus. Ich wollte mich bei einigen Leuten bedanken; ich habe 50 Modelle auf meinem HF, etwa 10 davon sind wirklich gut. Alle Besten? Sie haben eine Gemeinsamkeit: 0xSero (@0xSero). Wie versprochen! Gemma-4-21B-REAP ist da! Die Ergebnisse sind großartig, es hat sich sehr gut geschlagen und hat bei Reasoning-Aufgaben sogar an Genauigkeit gewonnen. MLX- & GGUF-Bros, macht euer Ding! Das sollte auf nur 12 GB VRAM mit etwas Kontext oder 16 GB mit vollem Kontext passen huggingface.co/0xSero/gemma-… — https://nitter.net/0xSero/status/2040822269400723955#m

mehr auf Arint.info

#AI #Gemma #HuggingFace #LLM #MachineLearning #Quantization #arint_info

https://x.com/0xSero/status/2044552144783601738#m

We were looking for a local tokenizer for counting the number of input tokens before calling the gemini-embedding-001 endpoint on vertex AI. Turns out this Gemma tokenizer returns exactly the same number of tokens as the usage in the embeddings result `embedding.statistics.token_count` of the Gemini embeddings endpoint. Tested on 2000 datapoints. 😁

https://github.com/google/gemma_pytorch/blob/33b652c465537c6158f9a472ea5700e5e770ad3f/tokenizer/tokenizer.model

#gemini #embeddings #gemma #vertexai #genai

gemma_pytorch/tokenizer/tokenizer.model at 33b652c465537c6158f9a472ea5700e5e770ad3f · google/gemma_pytorch

The official PyTorch implementation of Google's Gemma models - google/gemma_pytorch

GitHub

Ivan Fioravanti ᯅ (@ivanfioravanti)

Gemma-4는 현재 Python과 Swift 라이브러리에서 커스텀 출력 형식 때문에 완전 지원되지 않아 테스트용 모델을 Qwen3.5-35B-A3B로 변경한다고 했습니다. 4bit로 속도를 높여 평가를 진행하는 내용으로, 최신 모델 호환성 이슈와 벤치마크 전환을 보여줍니다.

https://x.com/ivanfioravanti/status/2044094544900145463

#gemma #qwen #llm #python #swift

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

I've got feedback that gemma-4 is not the best model to test right now, because it's not yet 100% supported by python and swift libraries due to its custom output format. I'll switch to Qwen3.5-35B-A3B! 4bit just to speed up tests.

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

MLX 추론 엔진의 새 버전을 테스트해 달라는 요청과 함께, 새로운 라운드의 테스트가 시작됐습니다. Gemma-4-26B-A4B-IT 4bit 테스트를 시작한다고 밝혀, MLX 생태계의 성숙과 관련된 중요한 인퍼런스 도구 업데이트 신호로 볼 수 있습니다.

https://x.com/ivanfioravanti/status/2044080639306011107

#mlx #inference #gemma #llm #benchmark

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

I want to thank all the MLX inference engine creators out there that reached me to test their new versions! Happy to start a new round now! Keep you posted! Together we make this ecosystem as mature as Nvidia one sooner than later 💪 gemma-4-26b-a4b-it-4bit test starting now!

X (formerly Twitter)

Artificial Analysis (@ArtificialAnlys)

Gemma 4 31B의 비추론 모드가 적은 출력 토큰으로도 높은 성능을 내며, 추론 모드 대비 효율적인 대안이 될 수 있음을 보여줬다. Qwen3.5 27B 비추론 모드도 경쟁력 있는 점수를 기록해, 소형 오픈 웨이트 모델의 추론 효율과 비용 절감 가능성이 강조된다.

https://x.com/ArtificialAnlys/status/2043929885446680943

#gemma #qwen #reasoning #llm #efficiency

Artificial Analysis (@ArtificialAnlys) on X

Non-reasoning modes are competitive in the sub-32B open weights field. Gemma 4 31B (Non-reasoning) scores 32 on the Intelligence Index using just 7.1M output tokens - 5.5x fewer than its reasoning mode for only a 7-point decrease. Qwen3.5 27B (Non-reasoning) scores 37 using 25M

X (formerly Twitter)

Artificial Analysis (@ArtificialAnlys)

Artificial Analysis Intelligence Index 기준으로, 32B 이하 오픈 웨이트 모델들이 GPT-5 수준의 성능에 도달했다고 소개했다. Alibaba Qwen의 Qwen3.5 27B(Reasoning)와 Google DeepMind의 Gemma 4 31B(Reasoning)가 각각 GPT-5 중간/낮은 수준을 맞먹는 점수를 기록해, 오픈 모델 성능의 큰 진전을 보여준다.

https://x.com/ArtificialAnlys/status/2043929874537296026

#openweights #qwen #gemma #llm #benchmark

Artificial Analysis (@ArtificialAnlys) on X

Sub-32B open weights models now offer GPT-5 level intelligence with Qwen3.5 27B (Reasoning) matching GPT-5 (medium) at 42 and Gemma 4 31B (Reasoning) matching GPT-5 (low) at 39 on the Artificial Analysis Intelligence Index @Alibaba_Qwen's Qwen3.5 and @GoogleDeepMind's Gemma 4

X (formerly Twitter)