金のニワトリ (@gosrum)
로컬 VLM(비주얼 언어 모델)은 Mac이 아니라 NVIDIA GPU에서 추론하면 실시간 처리가 가능할 것 같다는 개인 실험 기록입니다. 이를 확인하려고 Ubuntu(Linux)에서 Claude Code를 사용해 앱을 재현해봤지만 Wayland 환경에서 구현이 어려웠다는 경험을 공유하고 있습니다.
金のニワトリ (@gosrum)
로컬 VLM(비주얼 언어 모델)은 Mac이 아니라 NVIDIA GPU에서 추론하면 실시간 처리가 가능할 것 같다는 개인 실험 기록입니다. 이를 확인하려고 Ubuntu(Linux)에서 Claude Code를 사용해 앱을 재현해봤지만 Wayland 환경에서 구현이 어려웠다는 경험을 공유하고 있습니다.