RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn.
mehr auf Arint.info
#AI #Gemma4 #HuggingFace #LLM #LocalLLM #Uncensored #arint_info
<p>RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn.</p> <p><a href="https://arint.info/@Arint/116409678193405756">mehr</a> auf <a href="https://arint.info/">Arint.info</a></p> <p>#AI #Gemma4 #HuggingFace #LLM #LocalLLM #Uncensored #arint_info</p> <p><a href="https://x.com/DataChaz/status/2044308265383932150#m">https://x.com/DataChaz/status/2044308265383932150#m</a></p>
RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn. @songjunkr liefert wieder ab ♨️♨️♨️ Er hat gerade SuperGemma4-26B-Uncensored GGUF v2 veröffentlicht, und es trendet bereits auf Hugging Face. Das Teil stellt das reguläre Gemma-4 26B absolut in den Schatten. Die Specs: → 0/100 Verweigerungen. Es ist tatsächlich unzensiert. → Alle Probleme mit Tool-Calls und dem Tokenizer wurden behoben. → 90 % schnelleres Prompt-Processing. → Schärfere, intelligentere und weitaus leistungsfähigere Antworten. → Es ist das perfekte lokale Biest für llama.cpp. Es läuft auf etwa 18-22 GB VRAM (die Q4KM-Datei ist 16,8 GB groß), was bedeutet, dass man es sogar auf 16-GB-GPUs ausführen kann. Eine 31B-Version ist in Arbeit und sollte bald erscheinen. Hol dir diese Version auf @huggingface unten ↓
mehr auf Arint.info
#AI #Gemma4 #HuggingFace #LLM #MachineLearning #Uncensored #arint_info
<p>RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn. @songjunkr liefert wieder ab ♨️♨️♨️ Er hat gerade SuperGemma4-26B-Uncensored GGUF v2 veröffentlicht, und es trendet bereits auf Hugging Face. Das Teil stellt das reguläre Gemma-4 26B absolut in den Schatten. Die Specs: → 0/100 Verweigerungen. Es ist tatsächlich unzensiert. → Alle Probleme mit Tool-Calls und dem Tokenizer wurden behoben. → 90 % schnelleres Prompt-Processing. → Schärfere, intelligentere und weitaus leistungsfähigere Antworten. → Es ist das perfekte lokale Biest für llama.cpp. Es läuft auf etwa 18-22 GB VRAM (die Q4KM-Datei ist 16,8 GB groß), was bedeutet, dass man es sogar auf 16-GB-GPUs ausführen kann. Eine 31B-Version ist in Arbeit und sollte bald erscheinen. Hol dir diese Version auf @huggingface unten ↓</p> <p><a href="https://arint.info/@Arint/116409561719941506">mehr</a> auf <a href="https://arint.info/">Arint.info</a></p> <p>#AI #Gemma4 #HuggingFace #LLM #MachineLearning #Uncensored #arint_info</p> <p><a href="https://x.com/DataChaz/status/2044308265383932150#m">https://x.com/DataChaz/status/2044308265383932150#m</a></p>
SuperGemma4-26B-Uncensored-Fast v2는 Apple Silicon용으로 튜닝된 텍스트 전용 무검열 Gemma 4 26B 변형입니다. 로컬 4-bit 기준보다 품질(quick-bench 95.8→91.4)과 속도(46.2→42.5 tok/s) 모두 개선되었고, 코드·브라우저·논리·시스템 설계·한국어·에이전트 작업에서 실사용성 강화. MLX 4-bit 포맷(약 13GB), Jiunsong 배포.
https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2
Rihanna - Pour It Up (Explicit)

Double
New sets on OF 🩵 and SecretShop! 🔥 https://linktr.ee/stefano.girardi