Комментарии (121)
- Критика GPT-5 сводится к тому, что это лишь инкрементальное улучшение, не оправдавшее ажиотажного хайпа.
- Пользователи жалуются на регресс: модель чаще «фантазирует», быстрее теряет контекст, реже говорит «не знаю» и медленнее думает, чем o3.
- Некоторые считают релиз скорее мерой по экономии GPU-ресурсов, чем технологическим прорывом.
- Статья Маркуса воспринимается как смесь здравой критики и личной обиды на Сэма Альтмана; многие упрекают её в сенсационности.
- Сторонники отмечают, что GPT-5 Pro всё же превосходит конкурентов, а главное преимущество OpenAI — не качество модели, а массовое потребительское признание ChatGPT.
GPTs and Feeling Left Behind
Читая очередной пост о том, как ИИ пишет целые библиотеки, я чувствую себя отстающим и решаю попробовать. Результат разочаровывает: несколько часов с моделью не дают даже половины задачи, которую я руками делаю за 25 минут.
Сравнение с Vim не работает: первый день в Vim я хоть медленно, но писал. С GPT могу день потратить и не получить ничего полезного.
Модели хороши для подбора слова, аннотации типа или поиска бага в одной функции. Но стоит задаче стать сложнее, как ИИ выдаёт мусор: импортирует несуществующие библиотеки, советует «написать самому» и при каждом исправлении вносит новые ошибки.
На Hacker News снова хвалят GPT, и я не могу совместить их опыт со своим. Кажется, что мне врут: «это молот неразрушимый», а в руках — бумажная фигурка, которой даже помидор не раздавить.
Комментарии (132)
- Кто-то восторгается Cursor/Claude и быстро набирает MVP, кто-то считает LLM-генерацию «тысячами строк мусора» и возвращается к ручному коду.
- Разница во впечатлениях объясняется выбором модели, способом взаимодействия и характером задач: новые мелкие проекты vs. огромные legacy-кодовые базы.
- Часть разработчиков использует LLM как «ускоренный Stack Overflow» и для рутинного бойлерплейта, другие отключают автодополнение из-за скрытых багов.
- Навык «prompt-инженерии» и контекст-менеджмента сравнивают с освоением Vim: сначала замедляет, потом ускоряет, но требует времени.
- Скептики упрекают маркетинг в FOMO и «газлайтинге», а сторонники считают, что просто нужно правильно выбрать инструмент и научиться с ним работать.
Debian GNU/Hurd 2025 released
Debian GNU/Hurd 2025 — неофициальный релиз Debian, но официальный порт.
Основан на «sid» в момент выхода «Trixie».
- ISO: hurd-i386 | hurd-amd64
- Образы и инструкции: hurd-install
Архитектуры: i386, amd64; покрытие ~72 % архива Debian.
Новое
- 64-бит полностью готов, драйверы дисков через Rump (NetBSD).
- xattr по умолчанию для трансляторов; mmdebstrap из других ОС.
- Порт Rust, USB-диски и CD через Rump.
- SMP, xkb-раскладки, framebuffer, acpi, rtc, apic, hpet.
- Исправления irqs, nfsv3, libports, pipes и др.
Документация
Присоединяйтесь: contributing
Комментарии (107)
- Hurd — давний проект с микроядром Mach, фактически движимый одним человеком (Samuel Thibault), и сегодня выглядит скорее хобби-экспериментом, чем реальной альтернативой Linux.
- Участники обсуждают низкую поддержку железа, архаичную архитектуру и отсутствие прогресса: «ждать совершенства — значит никогда не стать готовым».
- Предлагаются новые микроядра (seL4, L4, Viengoos) и языки (Rust, Zig), но критика считает это погоней за хайпом.
- GUIX/Nix и GNU Shepherd упоминаются как более живые GNU-ориентированные проекты; GUIX уже умеет запускать Hurd в виртуалке.
- Итог: Hurd остаётся интересным музейным экспонатом и источником идей, но не готов к «повседневному» использованию.
PCIe 8.0 announced by the PCI-Sig will double throughput again
PCI-SIG анонсировала PCIe 8.0
- Пропускная способность вдвое выше PCIe 7.0: до 256 ГТ/с на линию.
- Технология: PAM4, 32 ГТ/с, 0,5 В амплитуда, < 1 Вт/лейн энергопотребление.
- Обратная совместимость с предыдущими поколениями.
- Спецификация выйдет в 2027 г., первые продукты — 2028–2029 гг.
- Цели: ИИ-акселераторы, HPC, NVMe-накопители, 800 Гбит/с сети.
Комментарии (108)
- Пользователи обсуждают, что PCIe-стандарт опережает реальные релизы на 1–3 поколения: Gen5 активен, Gen7 утверждён, Gen8 уже анонсирован.
- Поднимается идея «перевернуть» архитектуру: сделать GPU-PCB материнской платой, а CPU и RAM — картами расширения, как в Raspberry Pi или DGX-системах.
- Сомнения: GPU-апгрейд потребует полной замены платы, ограничит число GPU и не даст преимуществ по питанию.
- Участники вспоминают старые шины (ISA, VLB, S100, VME) и шутят о возвращении CPU-карт и backplane.
- Подчёркивают, что PCIe нужен не только геймерам, но и дата-центрам, где важна пропускная способность и низкая задержка при передаче данных в/из VRAM.
How I code with AI on a budget/free 🔥 Горячее 💬 Длинная дискуссия
Бесплатный AI-стек
Браузер → 15+ вкладок:
- 2-3 × z.ai GLM 4.5 (≈ Claude 4)
- 2 × Kimi K2 (багфиксер)
- Qwen3 Coder, DeepSeek v3/r1
- Google AI Studio + Gemini 2.5 Pro (Flash бесплатно)
- OpenAI Playground (разрешить обучение → бесплатные токены)
- Poe, OpenRouter, ChatGPT, Perplexity, Grok, Phind, lmarena.ai
Claude.ai — редко, т.к. лимиты.
⚠️ Grok: бесплатен, но связан с пропагандой; использовать только для кода.
Умный дешёвый цикл
-
Планирование в веб-чатах
Агенты (Cline, Copilot) «тупят» от лишнего контекста.
→ Задаю вопрос в одном из бесплатных чатов, получаю решение. -
Генерация контекста
AI Code Prep рекурсивно собирает файлы проекта и форматирует:fileName.js: <code>...</code> nextFile.py: <code>...</code>
-
Исполнение
Ответ вставляю в Cline/Roo Code; GPT-4.1 спокойно применяет патчи без трат на Claude.
Комментарии (219)
- Автор статьи извинился за устаревший список моделей: теперь фавориты — GLM-4.5, Kimi K2, Qwen3-Coder 480b.
- Участники подтверждают: агенты работают только на самых больших моделях, для простых задач быстрее мелкие.
- Популярны бесплатные веб-чаты: Google AI Studio (Gemini 2.5 Pro), Mistral, DeepSeek, Qwen Chat; лимиты высокие или неограниченные.
- Локальные решения: Continue.dev + Ollama/LMStudio, Cursor CLI, repomix/codemerger для упаковки кода в один файл.
- Некоторые считают всё это слишком сложным и предпочитают писать код вручную или использовать единый инструмент вроде Amazon Q Dev.
Abusing Entra OAuth for fun and access to internal Microsoft applications 🔥 Горячее
- aka.ms — коротилка Microsoft. Попытка зайти на
https://aka.ms
привела к логину только для сотрудников. - akasearch.net — индекс ссылок aka.ms; нашёлся
eng.ms
. - eng.ms — домен с приложением EngineeringHub. При входе через личный M365-аккаунт появился consent-запрос на доступ к профилю. После подтверждения — 500-я ошибка, но OAuth-токен уже выдан.
- rescue.eng.ms — поддомен, где после аналогичного согласия открылся Engineering Hub Rescue: список 22 внутренних сервисов Microsoft (Cloud + AI, Gaming, Finance и др.) с полным доступом через обычный аккаунт.
Итог: публичные OAuth-приложения Microsoft внутри корпоративных тенантов могут выдавать токены сторонним пользователям, если не ограничены политикой согласия. Проверьте свои тенанты на наличие подобных приложений и настройте Admin consent workflow
, чтобы избежать утечек.
Комментарии (99)
- Документация Microsoft по Entra ID/SSO вызывает у разработчиков «тыкание в темноте» и ошибки конфигурации.
- Уязвимости в мультитенантных приложениях возникают из-за непроверенных полей токена (iss, tid, audience) и отсутствия фильтрации по тенантам.
- Даже внутренние сервисы Microsoft открыты в интернет из-за политики Zero Trust, что увеличивает поверхность атаки.
- Исследователь получил RCE на сборочных серверах Windows, но Microsoft не выплатила ни цента, вызвав критику программы bug bounty.
- Сообщество советует: не полагаться на Entra для авторизации, всегда валидировать каждое поле токена и строить defense-in-depth.
Комментарии (51)
- Пост критикуют за отсутствие научной строгости: «10 млн случайных примеров» не описаны, а «классификация» языков программирования выглядит ошибочной.
- Автор, по мнению комментаторов, просто прогнал детектор языков и выдал график, из-за чего Perl кажется «переобученным»; на деле это лишь гибкость языка.
- Многие цепочки начинаются на английском, но быстро скатываются в «neuralese» — внутренний, человеку нечитаемый «язык» модели, возникающий при отсутствии ограничений на читаемость.
- «Neuralese» — это не технический термин, а образное обозначение плотного латентного представления, которое модель использует для собственных рассуждений.
- Пустой промпт выводит модель из распределения и демонстрирует, на каких данных она реально «подсела».
Комментарии (58)
- Проект ch.at — это минималистичный «чат» через DNS/HTTP, позволяющий общаться с LLM без JS и даже на самолёте без оплаченного Wi-Fi.
- Автор удивлён популярностью: сервис почти не стоит денег, пока не нужен rate-limit, а домен ch.at куплен за ≈ $50k как удачный «домен-хак».
- Пользователи уже сделали обвязки под i3-dmenu, Raycast, shell-алиасы и даже используют dig TXT +short.
- В комментариях обсуждают отсутствие IRC/XMPP/SIP, перспективу более дешёвых локальных моделей, политику логов и защиту от DDoS.
Debian 13 “Trixie” 🔥 Горячее 💬 Длинная дискуссия
Debian 13 «trixie» вышел 9 августа 2025 года после 2 лет разработки.
Поддержка — 5 лет (Security + LTS).
Десктопы: GNOME 48, KDE Plasma 6.3, LXDE 13, LXQt 2.1, Xfce 4.20.
Пакетов: 69 830 (+14 100 новых, –8 840 устаревших, 44 326 обновлённых).
Размер: 403 ГБ, 1,46 млрд строк кода.
Ядро: 6.12 LTS; первый релиз с официальной поддержкой riscv64.
Архитектуры: amd64, arm64, armel, armhf, ppc64el, riscv64, s390x.
i386 больше не поддерживается; armel последний релиз.
Ключевые обновления: Apache 2.4.64, Bash 5.2.37, BIND 9.20, GCC 14.2, LibreOffice 25.2, MariaDB 11.8, Nginx 1.26, OpenJDK 21, PHP 8.4, PostgreSQL 17, Python 3.13, Rust 1.85, systemd 257 и др.
Облако: образы для EC2, Azure, OpenStack, PlainVM, NoCloud с cloud-init и оптимизированным загрузчиком.
Live-образы: amd64/arm64, GNOME/KDE и др.; установка через Calamares или стандартный установщик.
Комментарии (343)
- Debian 13 «Trixie» вышла: 63 % пакетов обновлены, поддержка 7 архитектур, включая RISC-V.
- i386 теперь только как «amd32»-совместимый, официального ядра/инсталлятора нет.
- Появился новый формат APT-репозиториев debian.sources, старый sources.list пока работает.
- 95 % пакетов достигают bit-for-bit воспроизводимости на amd64/arm64/riscv64.
- /tmp теперь tmpfs по умолчанию (до 50 % ОЗУ), но можно вернуть старое поведение.
- Пользователи хвалят стабильность, скорость обновления «stable→stable» и отсутствие snap.
A CT scanner reveals surprises inside the 386 processor's ceramic package 🔥 Горячее
386 внутри: CT-показывает 6 слоёв проводников и две сети питания
Intel 386 (1985) упакован в керамику на 132 вывода. CT-скан (Lumafield) показал:
- 6 слоёв металлизации внутри керамики: 2 сигнальных + 4 питания/земли.
- Двухъярусные площадки вокруг кристалла: тонкие золотые провода (35 мкм) идут к двум рядам контактов.
- Две изолированные сети питания: одна для логики, другая для ввод-вывода.
- Невидимые боковые шины — «шипы» на скане — соединяют внутренние слои.
Процесс: гибкие «зелёные» керамические листы → сквозные отверстия → печать вольфрамовой пастой → прессовка и обжиг 1500–1600 °C → припайка выводов, золочение, монтаж кристалла, закрытие крышкой.
Масштаб: 1 мкм на кристалле → 2,54 мм на выводах, рост ≈ 2500×.
Комментарии (95)
- @mlhpdx рассказал, что проводил глубокий анализ термо-механической циклической усталости корпусов 386: CAD, FEA, эмпирика — и выяснил, что проблема в целом незначительна, но музеям не стоит ежедневно включать-выключать старые ПК.
- Участники вспоминали первые 386-ые машины, их цены и радость апгрейдов, а также хвалили эстетику керамических корпусов и «случайную красоту» слоёв CT-снимков.
- Обсуждали технические детали: зачем 386 нужны NC-контакты, как работают байтовые маски BE0#-BE3#, как автоматически укладываются бонд-провода и можно ли разбить чип, уронив его.
- @kens отвечал на вопросы о CT-сканировании (сканер Zeiss Xradia 520 Versa, 80 кВ, 7 Вт, образец не разрушен) и быстро улучшал веб-страницу по советам о доступности кнопок.