The Agentic AI book: From Language Models to Multi-Agent Systems by Dr. Ryan Rad is the featured book 📖 on Leanpub!

It's never been easier to build an AI agent—and never been harder to make one that actually works. This book takes you from language model foundations to production-ready multi-agent systems, with the depth to understand what you're building and why it fails.

Link: https://leanpub.com/TheAgenticAIbook

#ai #computer_science #deep_learning #data_science #gpt #neural_networks

The Agentic AI book

The definitive guide to agentic AI: LLMs, VLMs, RAG, prompt engineering, fine-tuning, agent architecture, and production-ready multi-agent systems.

Inside Large Language Models for absolute beginners: Volume I: Simple Arithmetic and beginning Python based approach by Ritesh Modi is a new release on Leanpub!

Link: https://leanpub.com/insidellmvol1

#books #ebooks #newreleases #leanpublishing #selfpublishing #computer_programming #ai #python #machine_learning #neural_networks #deep_learning #gpt

Inside Large Language Models for absolute beginners: Volume I

fine tuning large language models, RLHF and instruction tuning explained, LoRA and QLoRA fine tuning tutorial, LLM inference optimization for beginners, function calling LLM agents from scratch, deploy fine tuned models python, applied AI projects for engineers

The Hundred-Page Language Models Course by Andriy Burkov is the featured course 🎓 on Leanpub!

Master language models through mathematics, illustrations, and code―and build your own from scratch! This course includes nearly three hours of exclusive video interviews with the author, covering questions related to each of the six lessons included in the course.

Link: https://leanpub.com/courses/leanpub/theLMcourse

#ai #gpt #textbooks #data_science #computer_science #neural_networks #deep_learning #linguistics

The Hundred-Page Language Models Course

Inside Large Language Models for absolute beginners: Volume I: Simple Arithmetic and beginning Python based approach by Ritesh Modi is the featured book 📖 on Leanpub!

Link: https://leanpub.com/insidellmvol1

#computer_programming #ai #python #machine_learning #neural_networks #deep_learning #gpt

Generative AI for Science: A Hands-On Guide for Students and Researchers by J. Paul Liu is the featured book 📖 on Leanpub!

Link: https://leanpub.com/generativeaiforscience

#ai #machine_learning #data_science #neural_networks #deep_learning

Generative AI for Science

Master generative AI for scientific discovery with this hands-on guide. Learn Transformers, Diffusion Models, VAEs, GNNs & PINNs through 50+ Google Colab notebooks. Apply AI to drug discovery, protein structure prediction, climate modeling & more. 500+ pages of practical code—no setup required. By Dr. J. Paul Liu.

My Adventures with Large Language Models: Build foundational LLMs from Transformers to DeepSeek, from scratch, in PyTorch. by Prathamesh S. is a new release on Leanpub!

Link: https://leanpub.com/adventures-with-llms

#books #ebooks #newreleases #leanpublishing #selfpublishing #machine_learning #deep_learning #ai #python #computer_science #computer_programming #data_science #neural_networks

My Adventures with Large Language Models

Build LLMs from scratch in PyTorch: Transformers, GPT-2, Llama 3, and DeepSeek. Runnable code, real pretrained weights, every chapter end-to-end.

The Hundred-Page Language Models Course by Andriy Burkov is the featured course 🎓 on Leanpub!

Master language models through mathematics, illustrations, and code―and build your own from scratch! This course includes nearly three hours of exclusive video interviews with the author, covering questions related to each of the six lessons included in the course.

Link: https://leanpub.com/courses/leanpub/theLMcourse

#ai #gpt #textbooks #data_science #computer_science #neural_networks #deep_learning #linguistics

The Hundred-Page Language Models Course

Чистим аудиокниги от шума нейросетями

Фоновая музыка, гул, шипение — классические фильтры с этим не справляются. Нейросети справляются, но падают на длинных файлах. Решение: чанкование + сохранение прогресса. Делюсь инструментом.

https://habr.com/ru/articles/986738/

#python #audio #machine_learning #neural_networks #source_separation

Чистим аудиокниги от шума нейросетями

TL;DR: Классические фильтры (FFmpeg, Audacity) плохо справляются со сложным шумом в аудиокнигах. Нейросети для source separation работают в разы лучше. Написал обертку над audio-separator, которая...

Хабр

Сколько VRAM нужно для нейросетей?

Этот пост будет полезен людям, кто хочет разобраться в локальных моделях, особенно использующим их, как инструмент в создании контента, арта и дизайна (контекст нейросетей - image и video). Так же поговорим о выборе видеокарты и параметрах влияющих на генеративные workflow. Telegram

https://habr.com/ru/articles/979092/

#нейросеть_локально #нейросеть_для_генерации_изображений #видеокарты #quantization #comfyui #memory_bandwidth #vram #neural_networks #генеративные_модели

Сколько VRAM нужно для нейросетей?

Этот пост будет полезен людям, кто хочет разобраться в локальных моделях, особенно использующим их, как инструмент в создании контента, арта и дизайна (контекст нейросетей - image и video). Так же...

Хабр

Нейросеть, которая помнит всё: заморозка ядра вместо «костылей» (Frozen Core Decomposition)

Frozen Core Decomposition (FCD) — инновационный метод для решения проблемы катастрофического забывания в continual learning. Используя разложение Tucker, метод достигает 96.1% точности на Split MNIST с минимальным забыванием (0.2%) и поддерживает работу с CNN, ResNet, GPT-2 и другими архитектурами. В статье разбираем математику, результаты экспериментов и реализацию на PyTorch.

https://habr.com/ru/articles/979030/

#continual_learning #neural_networks #frozen_core_decomposition #tucker_decomposition #machine_learning #deep_learning #catastrophic_forgetting #incremental_learning #PyTorch #neural_network_training

Нейросеть, которая помнит всё: заморозка ядра вместо «костылей» (Frozen Core Decomposition)

Продолжение идеи DTG-MA Если вы помните мою предыдущую статью про DTG-MA , то знаете, что там была идея не «лечить» катастрофическое забывание регуляризациями, а архитектурно запретить нейросети...

Хабр