O Czacie GPT słyszał już prawie każdy, a o Mistralu i Mixtralu, czyli MoE (Mixture of Experts) pewnie nadal nie tak wielu. Jest lepszy od GPT, Open Source i można go odpalić lokalnie, albo na serwerach Google Colab ;-) (dla Mixtral 8x7B, NV Tesla T4 w darmowej wersji Colab, to trochę za mało, 7B działa super).
Ocenzurowany przez OpenAI model nie odpowie na każde pytanie, a Dolphin nie dość że lepszy, to można go "douczyć".
Planowałem dokształcić go dziełami Lenina, ale to byłoby okrutne...
Moje pierwsze kroki z Mastodon i ActivityPub są całkiem obiecujące. Próba re-postowania z Hubzilli wpisu o większej ilości znaków niż 500 powiodła się 😉. Drogą prób i błędów doszedłem, że do Hubzilli trzeba dodać ActivityPub Protocol w linku "Brakuje funkcji -> Zainstaluj więcej aplikacji".
Fajnie, jakby to działało w standardowej konfiguracji. Inna sprawa, że 500 znaków to za mało nawet, żeby dobrze opisać wypróżnienie (nigdy nie lubiłem Tłitera).
Jako alternatywę do Big Muff Germanium 4 zmontowałem klona Fuzz Factory od Musikding, jeden z najciekawszych efektów gitarowych jaki widziałem. Wg schematu kondensator C2 to 100nF (0.1uF). Zmieniłem na 680nF. Wow! Można ten układ wprowadzić w oscylację, która brzmi jak gitara basowa. Pierwszy stopień, tranzystor Q1 (2N3904) zamieniłem na germanowy AC176K NPN, dwa pozostałe to też germanowe AC125 PNP. Dzięki temu efekt ma mnóstwo basu, górę i warczący distortion.
Mówią, że jak się zrobi pierwszy fuzz, to potem jest już z górki. To mój trzeci 🎛️