Das Bluefin-Projekt entwickelt eine auf Images basierende Distribution, die zwei interessante neue Editionen erhalten hat: Die erste bietet einen Long Term Support, die zweite enthält alles…
Das Bluefin-Projekt entwickelt eine auf Images basierende Distribution, die zwei interessante neue Editionen erhalten hat: Die erste bietet einen Long Term Support, die zweite enthält alles Notwendige für den Betrieb von KI-Modellen.#Bluefin #BluefinGDX #BluefinLTS #Distribution #KünstlicheIntelligenz
Bluefin LTS und GDX: Long Term Support und KI-Distribution - LinuxCommunity
Bluefin LTS und GDX: Long Term Support und KI-Distribution - LinuxCommunity
Das Bluefin-Projekt entwickelt eine auf Images basierende Distribution, die zwei interessante neue Editionen erhalten hat: Die erste bietet einen Long Term Support, die zweite enthält alles Notwendige für den Betrieb von KI-Modellen. Das Basissystem von Bluefin kommt in Form von Images auf das System. Bei einem Update schaltet Bluefin dann auf ein neueres Image um. Anwendungen holt die Softwareverwaltung Bazaar aus dem Flathub-Repository, als Dateisystem dient ZFS. Long Term Support All dies gilt auch für das neue Bluefin LTS, das auf eine besonders lange Lebensdauer ausgelegt ist. Unter der Haube kommt CentOS Stream 10 zum Einsatz, weitere Software stammt aus dem EPEL-Repository. Als Desktop-Umgebung fungiert ein zurückportiertes GNOME 48. Bluefin LTS nutzt standardmäßig den Kernel 6.12.0, den das Team bis zum Ende des LTS-Zeitraums pflegen will. Ähnlich wie bei Ubuntu kann man über einen Hardware Enablement Branch auf einen neueren Kernel wechseln. Die Installation wickelt die Anaconda Webui ab. Künstliche Intelligenz Zur Bluefin-Familie stößt zudem Bluefin GDX. Das Kürzel interpretieren die Entwickler derzeit als „GPU Developer eXperience“. Die Distribution enthält alle notwendigen Komponenten, um eine KI-Workstation aufzubauen. In erster Linie sind die proprietären Nvidia-Grafikkartentreiber und das CUDA-Framework vorinstalliert. KI-Entwickler und Machine-Learning-Experten finden an Bord zudem das Tool Ramalama, das beim lokalen Betrieb von KI-Modellen hilft.