Hacker News Digest

Тег: #lora

Постов: 8

Комментарии (74)

  • Fine-tuning is making a comeback as a niche tool for specific tasks, but the debate is whether it's worth the effort vs. using larger models with better prompting.
  • The community is split: some see it as essential for control, IP ownership and cost savings, while others argue that frontier models have made it redundant for most use cases.
  • Key friction points: cost-benefit of training vs. inference, data-labeling overhead, and whether the juice is worth the squeeze when prompt-engineering can achieve similar results.
  • OpenAI, Anthropic and others are quietly re-opening fine-tuning APIs, while simultaneously pushing the narrative that "you don't need it anymore"—a tension that may be more about GPU budgets than user needs.
  • The open-source community is rallying around LoRA and QLoRA as a compromise, but the real question is whether the economics of serving a custom model will ever make sense versus just paying per-token for a larger model.

Announcing Tinker (thinkingmachines.ai)

Tinker — это гибкий API для тонкой настройки языковых моделей, который позволяет исследователям и разработчикам экспериментировать с алгоритмами и данными, абстрагируясь от сложностей распределённого обучения. Сервис поддерживает модели разных масштабов, включая крупные смешанные экспертные архитектуры вроде Qwen-235B-A22B, и переключение между ними сводится к изменению одной строки в коде.

Tinker работает как управляемый сервис на внутренней инфраструктуре, автоматизируя планирование, распределение ресурсов и восстановление после сбоев, а для снижения затрат использует LoRA. API предоставляет низкоуровневые примитивы вроде forward_backward и sample, а открытая библиотека Tinker Cookbook содержит готовые реализации современных методов пост-обучения. Уже использовался группами из Принстона, Стэнфорда, Беркли и Redwood Research для задач от доказательства теорем до RL-настройки моделей.

by pr337h4m • 01 октября 2025 г. в 18:20 • 120 points

ОригиналHN

#api#machine-learning#deep-learning#distributed-computing#lora#qwen-235b-a22b#post-training#princeton#stanford#berkeley

Комментарии (64)

  • Критика условий обслуживания (TOS) за предоставление компании неограниченного доступа к данным пользователей
  • Обсуждение технических преимуществ Tinker как единого фреймворка для пост-обучения моделей с управлением сложностью
  • Вопросы о уникальном торговом предложении (USP) и практической пользе тонкой настройки моделей по сравнению с использованием флагманских продуктов
  • Скептицизм относительно бизнес-модели и целесообразности запуска инфраструктурного продукта стартапом с высокой оценкой
  • Дебаты о названии компании и его возможных оскорбительных коннотациях в англоязычных странах

LoRA Without Regret (thinkingmachines.ai)

LoRA позволяет эффективно дообучать большие языковые модели, обновляя лишь малую часть параметров через низкоранговые матрицы, что экономит вычислительные ресурсы и память. Эксперименты показывают, что на небольших и средних наборах данных для обучения с учителем и reinforcement learning LoRA достигает той же производительности, что и полное дообучение, при условии корректной настройки.

Ключевые факторы успеха LoRA включают применение ко всем слоям модели (включая MLP и MoE), а не только к attention-слоям, и осторожный подбор размера батча — слишком большие батчи могут ухудшить результаты. Однако при превышении ёмкости адаптера данными или в сценариях, напоминающих предобучение, LoRA проигрывает полному дообучению.

by grantpitt • 29 сентября 2025 г. в 17:52 • 172 points

ОригиналHN

#lora#machine-learning#deep-learning#reinforcement-learning#attention

Комментарии (48)

  • Многие пользователи изначально путают аббревиатуру LoRA (Low-Rank Adaptation) с технологией беспроводной связи LoRa (Long Range).
  • Обсуждается научная статья, ставящая под сомнение эквивалентность эффективности LoRA и полного тонкого обучения (Full Fine-Tuning), и ведется спор о доказательности этого утверждения.
  • Поднимается вопрос о практических руководствах по применению LoRA и рекомендациях по оценке необходимого количества параметров для модели.
  • Упоминается метод прогрессивного слияния матриц LoRA (progressive merging) как потенциально более эффективный, но не рассмотренный в обсуждаемом материале.
  • Затрагивается тема применения LoRA в обучении с подкреплением (RL) и сложности оценки количества информации в данных.

Meshtastic 64 – A meshtastic radio for the Commodore 64 (64jim64.blogspot.com)

Разработан модуль Meshtastic 64, превращающий Commodore 64 в узел децентрализованной mesh-сети для текстовой связи. Устройство подключается через User Port и использует плату Heltec LoRa V3 с OLED-экраном, который виден через прозрачное окно картриджа. Для упрощения связи вместо сложных protobuf-команд применён текстовый режим.

Программа для отправки и приёма сообщений написана на BASIC для сохранения ретро-стиля и удобства разработки. Плата спроектирована с учётом размещения аккумулятора и доступного USB-C порта, хотя в первой версии допущена ошибка зеркальной разводки контактов. Проект демонстрирует, как винтажный компьютер может участвовать в современных peer-to-peer сетях.

by geerlingguy • 23 сентября 2025 г. в 23:54 • 98 points

ОригиналHN

#commodore-64#meshtastic#lora#basic#peer-to-peer#decentralized-networks#retro-computing

Комментарии (31)

  • Высказана озабоченность отсутствием серьёзных попыток защитить содержимое сообщений на прикладном уровне в Meshtastic.
  • Отмечены проблемы с маршрутизацией и доставкой сообщений, а также отсутствие функционала безопасной буферизации (store & forward).
  • Упомянуты альтернативные проекты (Reticulum, MeshCore, CellSol) и проведены сравнения с APRS.
  • Сообщество критикуется за большее увлечение обсуждением оборудования, чем практическим использованием сети.
  • Разработчики проекта обвиняются в токсичности и имитации бизнеса под видом open-source.

Llama-Factory: Unified, Efficient Fine-Tuning for 100 Open LLMs (github.com)

LLaMA-Factory — это унифицированный инструмент для эффективной тонкой настройки более 100 языковых и визуально-языковых моделей, представленный на ACL 2024. Он позволяет разработчикам адаптировать модели под конкретные задачи с минимальными затратами ресурсов, поддерживая популярные архитектуры вроде LLaMA и Mistral, а также многомодальные модели.

Инструмент предлагает гибкие методы обучения, включая LoRA и полную настройку параметров, и работает с различными аппаратными конфигурациями, от одного GPU до распределённых кластеров. Это значительно упрощает эксперименты и развёртывание кастомизированных моделей, экономя время и вычислительные мощности.

by jinqueeny • 18 сентября 2025 г. в 23:48 • 105 points

ОригиналHN

#llama#mistral#lora#rl#gpu#nvidia#text-to-sql#fine-tuning#github#llm

Комментарии (15)

  • Обсуждаются возможности и библиотеки для тонкой настройки (SFT), предобучения и RL-тренировки больших языковых моделей, включая LLaMA Factory и сравнение с Unsloth.
  • Подчёркивается важность качественного подбора данных и аппаратного обеспечения (например, 8xH200 или A100 для серьёзных задач, потребительского GPU для меньших моделей).
  • Отмечается практическая пользя тонкой настройки для создания узкоспециализированных моделей под конкретные задачи (например, text-to-SQL), способных конкурировать с большими hosted-моделями.
  • Упоминаются альтернативные инструменты и подходы, такие как Axolotl для потребительского железа, Oumi (с синтезом данных и LLM-as-a-Judge) и коммерческие решения типа Nvidia NIM.
  • Высказываются критические замечания о поддержке конкретных моделей (например, Deepseek) и локализации документации.

Wan – Open-source alternative to VEO 3 (github.com)

Wan2.2 — открытая генеративная модель для создания видео.
Репозиторий: Wan-Video/Wan2.2

  • Масштабируемость — работает от локального GPU до кластеров.
  • Качество — высокое разрешение, плавность, точность текста.
  • Гибкость — обучение, дообучение, инференс через PyTorch.
  • Форматы — MP4, GIF, WebM; выбор fps и разрешения.
  • API & CLI — простой запуск: wan2.2 generate --prompt "...".
  • Docker — готовый образ wanvideo/wan2.2:latest.
  • Лицензия Apache 2.0, коммерческое использование разрешено.

by modinfo • 17 августа 2025 г. в 05:00 • 190 points

ОригиналHN

#pytorch#docker#apache-2.0#gpu#nvidia#video-generation#lora#moe-architecture#github

Комментарии (31)

  • Wan2GP позволяет запускать модели Wan 2.1/2.2 на видеокартах всего 6 ГБ VRAM (Nvidia) и объединяет десятки вариантов моделей с LoRA-ускорением и активным Discord-сообществом.
  • Пользователи хвалят качество Wan 2.2: 27B «MoE»-архитектура (два 14B эксперта для разных уровней детализации), 5B-модель выдаёт 720p24 на RTX 4090/24 ГБ или двух 12 ГБ GPU.
  • Генерация 4-секундного видео Image-to-Video занимает 3–4 мин, апскейл до 4K — ещё 2–3 мин; изображения рендерятся за 20–40 с.
  • Участники спрашивают о бенчмарках видео-моделей, UI-обёртке «Obi» и высокопроизводительных инференс-фреймворках вроде vLLM для видео.
  • Некоторые критикуют название «Wan», спорят о корректности термина MoE и отмечают, что Replicate-версия дешевле и проще в использовании.

Walkie-Textie Wireless Communicator (technoblogy.com)

  • Walkie-Textie – беспроводной текстовый передатчик
  • AVR128DA32 Feather – плата на AVR128DA32
  • Tiny Time 2 – часы
  • LED Probe – светодиодный зонд
  • Minimal RP2040 – компактная плата RP2040

2025

  • NeoPixel-драйвер на аппаратуре AVR
  • Walkie-Textie
  • AVR128DA32 Feather
  • LED Probe
  • Dot-Matrix часы
  • TinyCard Game Maker
  • Prime Time

2024

  • 2-битный компаратор
  • PCB дисплея бегущей строки
  • Плавный большой текст
  • Дисплей бегущей строки
  • Sound Lab – примеры звуков
  • Sound Lab – аналоговый синтезатор
  • Logic Lab 1G
  • Secret Maze 2
  • Логические вентили через Event System
  • RA4M1 Nano
  • Silver Dollar Game

2023

  • Silver Dollar Game
  • Lisp Badge LE
  • CAN Bus Monitor
  • Logic Lab – ответы
  • Logic Lab
  • I2S Speaker для QT Py
  • Adjustable Load
  • Harder Number Maze
  • Power Deliverer с монитором тока
  • Tiny UPDI-HV программатор

2022

  • Number Maze Game
  • Minimal GIF Decoder
  • Lisp Star
  • Графические аналоговые часы
  • ATtiny 2-Series
  • Power Deliverer
  • Заливка четырёхугольников и треугольников
  • Чтение с TFT-дисплея
  • I2C SD-Card модуль (PCB и модуль)
  • Библиотека монохромного дисплея
  • Трёхканальный графопостроитель
  • Файловое хранилище для Arduino
  • TFT Display Backpack
  • Tiny TFT Graphics Library 2
  • О байтах и выводах
  • Tiny I2C для всех AVR
  • Minimal RP2040 Board
  • Печать на Serial LED Display
  • 16 LEDs Kishi Puzzle
  • Twinkling Pendant
  • Morse Code Pendant
  • Управление RGB-лентой одной функцией
  • 16 LEDs – новый пазл

2021

  • Таймер на Arduino Uno/Zero
  • AM передатчик азбуки Морзе
  • 16 LEDs Puzzle
  • Low-Power LCD часы
  • Измерение собственного напряжения питания
  • Частотомер 100 МГц
  • Pocket Op Amp Lab (PCB, Cookbook, Lab)
  • Frequency Divider через CCL
  • I2C Detective
  • Five LEDs Puzzle (решение и PCB)

2020

  • Compact TFT Graphics Library
  • Five LEDs Puzzle
  • Frequency Probe
  • Combination Lock через CCL
  • Diffusion Clock
  • Smooth Big Text
  • Спрайты для Wio Terminal
  • Скриншоты с TFT-дисплея
  • Спрайты для PyGamer/PyBadge
  • Чтение дисплея PyBadge
  • Minimal ATmega4809 на макетке
  • Big Time
  • Four Sample Player
  • Mega Tiny Time Watch

2019

  • Восьмисимвольный дисплей
  • Праздничный конкурс
  • UPDI Programmer Stick
  • Новый ATtiny Low Power
  • Nano Current Meter
  • ATtiny под Lisp
  • Minimal I2C для новых AVR
  • Старт с новыми ATtiny
  • Visible Lisp Computer
  • Simple DataFlash Board
  • Magic 3D Clock
  • Tiny TFT Graphics Library
  • Illuminated Button Matrix
  • Двухзначный термометр
  • Minimal ATSAMD21 (2 варианта)
  • Tiny Thermocouple Thermometer
  • 12 ШИМ-выходов на ATtiny85
  • Tiny Function Generator PCB
  • ATtiny10 Thermometer (PCB и модуль)
  • Lisp Badge

2018

  • ATtiny85 Weather Station
  • Widget Dashboard
  • Tiny MIDI Player
  • Colour Graphics Library
  • I2C GPS Module (PCB и модуль)
  • Tiny Terminal 2
  • Tiny Function Plotter
  • Simple LCD Character Display
  • Alcohol Unit Counter
  • Tiny Machine-Code Monitor
  • 20-клавишный интерфейс на одном входе
  • Programmable Signal Generator
  • Minimal Tiny I2C Routines
  • ATtiny85 20 МГц внутренний клок
  • ATtiny10 POV Pendant
  • IR Remote Wand
  • IR Remote Control Detective
  • Harmonic Function Generator
  • Tiny Graphics Library

by chrisjj • 16 августа 2025 г. в 12:08 • 167 points

ОригиналHN

#avr#rp2040#arduino#lora#attiny#iot#wireless#embedded#microcontrollers

Комментарии (109)

  • Устройство на ATtiny814 с LoRa-клавиатурой жалуются на короткую работу от AAA-батареек, отсутствие повторной отправки и усталость при наборе текста.
  • Пользователи сравнивают его с Cybiko, Meshtastic-устройствами (T-Deck, RAK) и GMRS-рациями, обсуждают реальные дальности LoRa: до 100 км в горах и на стратостате.
  • Поднимаются идеи «домашней» сотовой сети через OpenBTS/Yate, но она нелегальна; альтернатива — локальный Wi-Fi + Briar/Mumble.
  • Для пещерных спасений хотят радио, проходящее 200 м скалы (через низкие частоты).
  • Кто-то мечтает встроить LoRa прямо в смартфоны, но считает, что коммерция и регуляторы не позволят.

Комментарии (48)

  • Участники сходятся во мнении, что децентрализованные mesh-мессенджеры (Bitchat, FireChat и др.) звучат многообещающе, но на практике страдают из-за ненадёжности Bluetooth, различий платформ и нехватки критической массы пользователей.
  • Опыт с BLE- и WiFi-мешами показывает быструю деградацию при ретрансляции и высокой нагрузке; без специального оборудования (Meshtastic, GoTenna, LoRa) эффективность низка.
  • Некоторые предлагают переходить к «store-and-forward» с эффективной синхронизацией данных, а не к живому соединению, и строить открытые протоколы, а не одиночные приложения.
  • Apple’s FindMy упоминается как пример крупной сети, но это не mesh, а лишь ретрансляция маячков в облако Apple.
  • В дискуссии мелькают сомнения в надёжности Bitchat («ранний хобби-проект»), шутки про «bit = bitcoin» и предложения интегрировать off-grid режим прямо в Signal.