0xMarioNawfal (@RoundtableSpace)
14세 개발자가 13달러짜리 오프라인 AI 기기를 직접 만들었고, 이를 통해 잠긴 게임의 디버그 시스템에도 접근했다는 흥미로운 사례를 소개합니다. 저비용 오프라인 AI 하드웨어의 가능성을 보여주는 사례입니다.
0xMarioNawfal (@RoundtableSpace)
14세 개발자가 13달러짜리 오프라인 AI 기기를 직접 만들었고, 이를 통해 잠긴 게임의 디버그 시스템에도 접근했다는 흥미로운 사례를 소개합니다. 저비용 오프라인 AI 하드웨어의 가능성을 보여주는 사례입니다.
Ivan Fioravanti ᯅ (@ivanfioravanti)
Qwen3.6 27B가 현재까지 가장 선호하는 로컬 모델이라고 언급했다. 로컬 환경에서 사용하는 대형 언어모델 선택에 대한 실사용 의견이다.
You can use Gemma 4, the newly released #ai model by #google fully #local on your device. This means that, after the download, you dont need internet to use the AI and conversations are not send to google, which is a huge #privacy win.
You can download the model via the edge gallery app without login.
Im not associated with google in any way.
Do you use AI local on your device?
#gemma4 #googleai #localai #offlineai #PrivacyWins #Ai #dataprivacy #DataProtection #privateai
Google Gemma 4 Runs Natively on iPhone with Full Offline AI Inference
https://www.gizmoweek.com/gemma-4-runs-iphone/
#HackerNews #GoogleGemma4 #iPhone #OfflineAI #AIInference #MobileTech
via #AIFoundry : Foundry Local is now Generally Available
https://ift.tt/xUnc9oy
#FoundryLocal #GA #GeneralAvailability #FoundryLocalGA #AI #EdgeAI #OnPremiseAI #LocalAI #AIinApps #NoCloud #OfflineAI #CrossPlatform #Windows #macOS #Linux #OpenAICompatible #ONNXRuntime #WinML …
Rohan Paul (@rohanpaul_ai)
Google의 Gemma 4 E2B 모델을 Galaxy S25 Ultra에서 완전 오프라인으로, thinking mode를 켠 상태로 구동한 사례가 공유됐다. 약 5.1B 파라미터 구조와 2B 수준의 효율 성능이 언급되며, 모바일 온디바이스 추론의 가능성을 보여준다.