Windows ML is generally available
Windows ML теперь общедоступна, позволяя разработчикам внедрять локальный ИИ на устройствах с Windows. Это решение поддерживает аппаратное ускорение через DirectML, обеспечивая высокую производительность на CPU, GPU и NPU. Разработчики могут использовать предварительно обученные модели или создавать собственные, интегрируя их в приложения без облачной зависимости.
Ключевые преимущества включают снижение задержек, повышение конфиденциальности данных и работу в офлайн-режиме. Windows ML совместима с популярными фреймворками, такими как ONNX, и упрощает развёртывание на миллиардах устройств. Это открывает новые возможности для сценариев вроде обработки изображений, распознавания речи и генеративного ИИ прямо на устройстве пользователя.
Комментарии (28)
- Критика подхода Ollama к веб-поиску и его влияния на open-source, в сравнении с глубокой интеграцией Windows ML в экосистему Microsoft.
- Обсуждение технических проблем с бэкендами AMD (ROCm, MIGraphX, Vitis) и надежд на улучшение поддержки оборудования в Windows ML.
- Вопросы о приватности данных при использовании Windows ML и сравнение с локальным запуском моделей через Ollama.
- Сравнение Windows ML с решением Apple для доступа к локальным моделям и обсуждение его как абстракции для аппаратного обеспечения (аналог DirectX для ML).
- Обсуждение поддержки ONNX как стандарта и проблем с совместимостью пользовательских слоев моделей (например, flash attention) в Windows ML.
Show HN: Fallinorg - Offline Mac app that organizes files by meaning
Fallinorg – нажмите один раз и Mac станет чистым.
Файлы упорядочены, работает офлайн, данные не уходят в сеть.
Основное
- Локальный ИИ анализирует содержание, а не только имена.
- Полностью офлайн, без интернета.
- Поддержка .txt и PDF на английском.
- Свои папки – вы выбираете, куда складывать.
- Оптимизировано для Apple Silicon.
Покупка
Предпродажа: $9.49 единоразово
— неограниченное количество файлов
— выбор папок
— приватность
— поддержка по e-mail
FAQ
- Как анализирует? Sentence Transformers локально.
- Приватность? Всё на вашем Mac.
- Форматы? .txt и PDF, скоро больше.
- Папки? Вы решаете.
- Интернет? Не нужен.
- Intel? Пока нет; пишите на [email] для уведомления.
- Возврат? Пишите на [email] с причиной.
- Обновления? Все мелкие бесплатны; крупные – со скидкой для ранних покупателей.
Подпишитесь на рассылку, чтобы быть в курсе.
Комментарии (43)
- Пользователи жалуются на 357-МБ Python-окружение и просят перейти на CoreML или ONNX Swift-bindings.
- Критика пресейл-цен и отсутствия пробной версии; создатель обещает прояснить условия и добавить roadmap.
- Запросы: поддержка epub/cbr/OCR-многоязычности, пользовательские категории, CLI-версия, Spotlight-импортер.
- Сейчас приложение работает только с PDF/txt, но расширение типов файлов и локализация в планах.
- Найдены опечатки и краши; создатель оперативно исправляет и просит репорты на GitHub.
Show HN: Kitten TTS – 25MB CPU-Only, Open-Source TTS Model 🔥 Горячее 💬 Длинная дискуссия
- State-of-the-art модель TTS до 25 МБ 😻
- Пропустить к содержимому
- Навигация, вход, настройки внешнего вида
- Продукты: Copilot, Spark, Models, Advanced Security, Actions, Codespaces, Issues, Code Review, Discussions, Code Search
- Исследовать: Почему GitHub, все функции, документация, навыки, блог
- Решения по размеру компании: Enterprise, для команд, стартапов, НКО
- По задачам: DevSecOps, DevOps, CI/CD и др.
- По индустриям: здравоохранение, финансы, производство, гос сектор
- Ресурсы: темы (ИИ, DevOps, безопасность, разработка), курсы, события, книги, истории клиентов, партнёры, аналитика
- Open Source: Sponsors, ReadME Project
- Репозитории: Темы, Тренды, Коллекции
- Enterprise: платформа, допы — Advanced Security, Copilot for business, поддержка
- Цены
- Поиск кода и репозиториев, советы по синтаксису
- Обратная связь (с email), отправка/отмена
- Сохранённые поиски: создание/управление, документация по синтаксису
- Вход/регистрация
- Сообщения о перезагрузке сессии и переключении аккаунтов
- KittenML/KittenTTS (публичный), уведомления, форки
Комментарии (354)
- KittenTTS (25 МБ, Apache-2.0) генерирует речь оффлайн на CPU, но звучит механически и путает цифры.
- На i9-14900HX 225 символов синтезируются за 5,5× реального времени, но латентность ~315 мс.
- Установка требует кучи зависимостей, поэтому «25 МБ» быстро превращаются в гигабайты.
- Для качественной речи пользователи рекомендуют F5-TTS, Fish-Speech или Piper-TTS; для STT — Whisper.
- Сообщество просит ONNX-порт, обучение на других языках и открытые данные.