Комментарии (74)
- Fine-tuning is making a comeback as a niche tool for specific tasks, but the debate is whether it's worth the effort vs. using larger models with better prompting.
- The community is split: some see it as essential for control, IP ownership and cost savings, while others argue that frontier models have made it redundant for most use cases.
- Key friction points: cost-benefit of training vs. inference, data-labeling overhead, and whether the juice is worth the squeeze when prompt-engineering can achieve similar results.
- OpenAI, Anthropic and others are quietly re-opening fine-tuning APIs, while simultaneously pushing the narrative that "you don't need it anymore"—a tension that may be more about GPU budgets than user needs.
- The open-source community is rallying around LoRA and QLoRA as a compromise, but the real question is whether the economics of serving a custom model will ever make sense versus just paying per-token for a larger model.
Announcing Tinker
Tinker — это гибкий API для тонкой настройки языковых моделей, который позволяет исследователям и разработчикам экспериментировать с алгоритмами и данными, абстрагируясь от сложностей распределённого обучения. Сервис поддерживает модели разных масштабов, включая крупные смешанные экспертные архитектуры вроде Qwen-235B-A22B, и переключение между ними сводится к изменению одной строки в коде.
Tinker работает как управляемый сервис на внутренней инфраструктуре, автоматизируя планирование, распределение ресурсов и восстановление после сбоев, а для снижения затрат использует LoRA. API предоставляет низкоуровневые примитивы вроде forward_backward и sample, а открытая библиотека Tinker Cookbook содержит готовые реализации современных методов пост-обучения. Уже использовался группами из Принстона, Стэнфорда, Беркли и Redwood Research для задач от доказательства теорем до RL-настройки моделей.
Комментарии (64)
- Критика условий обслуживания (TOS) за предоставление компании неограниченного доступа к данным пользователей
- Обсуждение технических преимуществ Tinker как единого фреймворка для пост-обучения моделей с управлением сложностью
- Вопросы о уникальном торговом предложении (USP) и практической пользе тонкой настройки моделей по сравнению с использованием флагманских продуктов
- Скептицизм относительно бизнес-модели и целесообразности запуска инфраструктурного продукта стартапом с высокой оценкой
- Дебаты о названии компании и его возможных оскорбительных коннотациях в англоязычных странах
LoRA Without Regret
LoRA позволяет эффективно дообучать большие языковые модели, обновляя лишь малую часть параметров через низкоранговые матрицы, что экономит вычислительные ресурсы и память. Эксперименты показывают, что на небольших и средних наборах данных для обучения с учителем и reinforcement learning LoRA достигает той же производительности, что и полное дообучение, при условии корректной настройки.
Ключевые факторы успеха LoRA включают применение ко всем слоям модели (включая MLP и MoE), а не только к attention-слоям, и осторожный подбор размера батча — слишком большие батчи могут ухудшить результаты. Однако при превышении ёмкости адаптера данными или в сценариях, напоминающих предобучение, LoRA проигрывает полному дообучению.
Комментарии (48)
- Многие пользователи изначально путают аббревиатуру LoRA (Low-Rank Adaptation) с технологией беспроводной связи LoRa (Long Range).
- Обсуждается научная статья, ставящая под сомнение эквивалентность эффективности LoRA и полного тонкого обучения (Full Fine-Tuning), и ведется спор о доказательности этого утверждения.
- Поднимается вопрос о практических руководствах по применению LoRA и рекомендациях по оценке необходимого количества параметров для модели.
- Упоминается метод прогрессивного слияния матриц LoRA (progressive merging) как потенциально более эффективный, но не рассмотренный в обсуждаемом материале.
- Затрагивается тема применения LoRA в обучении с подкреплением (RL) и сложности оценки количества информации в данных.
Meshtastic 64 – A meshtastic radio for the Commodore 64
Разработан модуль Meshtastic 64, превращающий Commodore 64 в узел децентрализованной mesh-сети для текстовой связи. Устройство подключается через User Port и использует плату Heltec LoRa V3 с OLED-экраном, который виден через прозрачное окно картриджа. Для упрощения связи вместо сложных protobuf-команд применён текстовый режим.
Программа для отправки и приёма сообщений написана на BASIC для сохранения ретро-стиля и удобства разработки. Плата спроектирована с учётом размещения аккумулятора и доступного USB-C порта, хотя в первой версии допущена ошибка зеркальной разводки контактов. Проект демонстрирует, как винтажный компьютер может участвовать в современных peer-to-peer сетях.
Комментарии (31)
- Высказана озабоченность отсутствием серьёзных попыток защитить содержимое сообщений на прикладном уровне в Meshtastic.
- Отмечены проблемы с маршрутизацией и доставкой сообщений, а также отсутствие функционала безопасной буферизации (store & forward).
- Упомянуты альтернативные проекты (Reticulum, MeshCore, CellSol) и проведены сравнения с APRS.
- Сообщество критикуется за большее увлечение обсуждением оборудования, чем практическим использованием сети.
- Разработчики проекта обвиняются в токсичности и имитации бизнеса под видом open-source.
Llama-Factory: Unified, Efficient Fine-Tuning for 100 Open LLMs
LLaMA-Factory — это унифицированный инструмент для эффективной тонкой настройки более 100 языковых и визуально-языковых моделей, представленный на ACL 2024. Он позволяет разработчикам адаптировать модели под конкретные задачи с минимальными затратами ресурсов, поддерживая популярные архитектуры вроде LLaMA и Mistral, а также многомодальные модели.
Инструмент предлагает гибкие методы обучения, включая LoRA и полную настройку параметров, и работает с различными аппаратными конфигурациями, от одного GPU до распределённых кластеров. Это значительно упрощает эксперименты и развёртывание кастомизированных моделей, экономя время и вычислительные мощности.
Комментарии (15)
- Обсуждаются возможности и библиотеки для тонкой настройки (SFT), предобучения и RL-тренировки больших языковых моделей, включая LLaMA Factory и сравнение с Unsloth.
- Подчёркивается важность качественного подбора данных и аппаратного обеспечения (например, 8xH200 или A100 для серьёзных задач, потребительского GPU для меньших моделей).
- Отмечается практическая пользя тонкой настройки для создания узкоспециализированных моделей под конкретные задачи (например, text-to-SQL), способных конкурировать с большими hosted-моделями.
- Упоминаются альтернативные инструменты и подходы, такие как Axolotl для потребительского железа, Oumi (с синтезом данных и LLM-as-a-Judge) и коммерческие решения типа Nvidia NIM.
- Высказываются критические замечания о поддержке конкретных моделей (например, Deepseek) и локализации документации.
Wan – Open-source alternative to VEO 3
Wan2.2 — открытая генеративная модель для создания видео.
Репозиторий: Wan-Video/Wan2.2
- Масштабируемость — работает от локального GPU до кластеров.
- Качество — высокое разрешение, плавность, точность текста.
- Гибкость — обучение, дообучение, инференс через PyTorch.
- Форматы — MP4, GIF, WebM; выбор fps и разрешения.
- API & CLI — простой запуск:
wan2.2 generate --prompt "...". - Docker — готовый образ
wanvideo/wan2.2:latest. - Лицензия Apache 2.0, коммерческое использование разрешено.
Комментарии (31)
- Wan2GP позволяет запускать модели Wan 2.1/2.2 на видеокартах всего 6 ГБ VRAM (Nvidia) и объединяет десятки вариантов моделей с LoRA-ускорением и активным Discord-сообществом.
- Пользователи хвалят качество Wan 2.2: 27B «MoE»-архитектура (два 14B эксперта для разных уровней детализации), 5B-модель выдаёт 720p24 на RTX 4090/24 ГБ или двух 12 ГБ GPU.
- Генерация 4-секундного видео Image-to-Video занимает 3–4 мин, апскейл до 4K — ещё 2–3 мин; изображения рендерятся за 20–40 с.
- Участники спрашивают о бенчмарках видео-моделей, UI-обёртке «Obi» и высокопроизводительных инференс-фреймворках вроде vLLM для видео.
- Некоторые критикуют название «Wan», спорят о корректности термина MoE и отмечают, что Replicate-версия дешевле и проще в использовании.
Walkie-Textie Wireless Communicator
- Walkie-Textie – беспроводной текстовый передатчик
- AVR128DA32 Feather – плата на AVR128DA32
- Tiny Time 2 – часы
- LED Probe – светодиодный зонд
- Minimal RP2040 – компактная плата RP2040
2025
- NeoPixel-драйвер на аппаратуре AVR
- Walkie-Textie
- AVR128DA32 Feather
- LED Probe
- Dot-Matrix часы
- TinyCard Game Maker
- Prime Time
2024
- 2-битный компаратор
- PCB дисплея бегущей строки
- Плавный большой текст
- Дисплей бегущей строки
- Sound Lab – примеры звуков
- Sound Lab – аналоговый синтезатор
- Logic Lab 1G
- Secret Maze 2
- Логические вентили через Event System
- RA4M1 Nano
- Silver Dollar Game
2023
- Silver Dollar Game
- Lisp Badge LE
- CAN Bus Monitor
- Logic Lab – ответы
- Logic Lab
- I2S Speaker для QT Py
- Adjustable Load
- Harder Number Maze
- Power Deliverer с монитором тока
- Tiny UPDI-HV программатор
2022
- Number Maze Game
- Minimal GIF Decoder
- Lisp Star
- Графические аналоговые часы
- ATtiny 2-Series
- Power Deliverer
- Заливка четырёхугольников и треугольников
- Чтение с TFT-дисплея
- I2C SD-Card модуль (PCB и модуль)
- Библиотека монохромного дисплея
- Трёхканальный графопостроитель
- Файловое хранилище для Arduino
- TFT Display Backpack
- Tiny TFT Graphics Library 2
- О байтах и выводах
- Tiny I2C для всех AVR
- Minimal RP2040 Board
- Печать на Serial LED Display
- 16 LEDs Kishi Puzzle
- Twinkling Pendant
- Morse Code Pendant
- Управление RGB-лентой одной функцией
- 16 LEDs – новый пазл
2021
- Таймер на Arduino Uno/Zero
- AM передатчик азбуки Морзе
- 16 LEDs Puzzle
- Low-Power LCD часы
- Измерение собственного напряжения питания
- Частотомер 100 МГц
- Pocket Op Amp Lab (PCB, Cookbook, Lab)
- Frequency Divider через CCL
- I2C Detective
- Five LEDs Puzzle (решение и PCB)
2020
- Compact TFT Graphics Library
- Five LEDs Puzzle
- Frequency Probe
- Combination Lock через CCL
- Diffusion Clock
- Smooth Big Text
- Спрайты для Wio Terminal
- Скриншоты с TFT-дисплея
- Спрайты для PyGamer/PyBadge
- Чтение дисплея PyBadge
- Minimal ATmega4809 на макетке
- Big Time
- Four Sample Player
- Mega Tiny Time Watch
2019
- Восьмисимвольный дисплей
- Праздничный конкурс
- UPDI Programmer Stick
- Новый ATtiny Low Power
- Nano Current Meter
- ATtiny под Lisp
- Minimal I2C для новых AVR
- Старт с новыми ATtiny
- Visible Lisp Computer
- Simple DataFlash Board
- Magic 3D Clock
- Tiny TFT Graphics Library
- Illuminated Button Matrix
- Двухзначный термометр
- Minimal ATSAMD21 (2 варианта)
- Tiny Thermocouple Thermometer
- 12 ШИМ-выходов на ATtiny85
- Tiny Function Generator PCB
- ATtiny10 Thermometer (PCB и модуль)
- Lisp Badge
2018
- ATtiny85 Weather Station
- Widget Dashboard
- Tiny MIDI Player
- Colour Graphics Library
- I2C GPS Module (PCB и модуль)
- Tiny Terminal 2
- Tiny Function Plotter
- Simple LCD Character Display
- Alcohol Unit Counter
- Tiny Machine-Code Monitor
- 20-клавишный интерфейс на одном входе
- Programmable Signal Generator
- Minimal Tiny I2C Routines
- ATtiny85 20 МГц внутренний клок
- ATtiny10 POV Pendant
- IR Remote Wand
- IR Remote Control Detective
- Harmonic Function Generator
- Tiny Graphics Library
Комментарии (109)
- Устройство на ATtiny814 с LoRa-клавиатурой жалуются на короткую работу от AAA-батареек, отсутствие повторной отправки и усталость при наборе текста.
- Пользователи сравнивают его с Cybiko, Meshtastic-устройствами (T-Deck, RAK) и GMRS-рациями, обсуждают реальные дальности LoRa: до 100 км в горах и на стратостате.
- Поднимаются идеи «домашней» сотовой сети через OpenBTS/Yate, но она нелегальна; альтернатива — локальный Wi-Fi + Briar/Mumble.
- Для пещерных спасений хотят радио, проходящее 200 м скалы (через низкие частоты).
- Кто-то мечтает встроить LoRa прямо в смартфоны, но считает, что коммерция и регуляторы не позволят.
Комментарии (48)
- Участники сходятся во мнении, что децентрализованные mesh-мессенджеры (Bitchat, FireChat и др.) звучат многообещающе, но на практике страдают из-за ненадёжности Bluetooth, различий платформ и нехватки критической массы пользователей.
- Опыт с BLE- и WiFi-мешами показывает быструю деградацию при ретрансляции и высокой нагрузке; без специального оборудования (Meshtastic, GoTenna, LoRa) эффективность низка.
- Некоторые предлагают переходить к «store-and-forward» с эффективной синхронизацией данных, а не к живому соединению, и строить открытые протоколы, а не одиночные приложения.
- Apple’s FindMy упоминается как пример крупной сети, но это не mesh, а лишь ретрансляция маячков в облако Apple.
- В дискуссии мелькают сомнения в надёжности Bitchat («ранний хобби-проект»), шутки про «bit = bitcoin» и предложения интегрировать off-grid режим прямо в Signal.