Customize Nano Text Editor
У меня нет статьи или контента для пересказа. Вы предоставили только имя и должность человека: Rayhan Aziz Chowdhury Shafi — DevOps & Full-Stack Engineer. Чтобы я мог создать точный и ёмкий пересказ в формате Markdown на русском языке, пожалуйста, предоставьте ссылку на статью или текст материала, который нужно обработать.
Комментарии (49)
- Обсуждение показало, что nano оказался куда более настраиваемым, чем большинство пользователей думает, включая поддержку мыши и макросов.
- Участники поделились ссылкой на официальный cheatsheet и примеры конфигураций, а также обсудили, как синхронизировать их между машинами.
- Несколько человек отметили, что nano остаётся их инструментом выбора для быстрого редактирования конфигов, даже если они привыкли к vim/emacs.
- Были упомянуты ограничения: нет LSP и плагинов, но и нет встроенного синтаксического подсвета, что делает его менее привлекательным для программирования.
- Несколько человек поделились ссылкой на инструмент chezmoi для синхронизации конфигов между машинами.
Why did containers happen? 💬 Длинная дискуссия
Разработчики долго спорили, можно ли запускать базы данных в контейнерах. Со временем стало ясно, что лучше использовать облачные решения, где провайдер управляет БД, а не хранить всё в эфемерных контейнерах, которые слишком легко удалить.
В то же время, ключевая инновация Docker — это не изоляция, а стандартизированная упаковка приложений. Вместо ручного редактирования серверов разработчики стали собирать приложения в переносимые образы. Это упростило развёртывание, особенно в облаке, где виртуальные машины требовали настройки вручную. Docker же позволил централизованно управлять образами через реестр, что ускорило разработку.
Важный момент: Docker изначально создавался для PaaS-платформы, чтобы упрощать развёртывание приложений, а не изолировать их. Потому и акцент на сборку, а не на безопасность. Многие функции, такие как read-only rootfs, делали контейнеры безопаснее, но главное — они решали проблему управления.
Кроме того, Docker популяризировал Go, показав его эффективность для системного программирования. Сегодня Go — один из главных языков, а многие стандартные библиотеки включают TLS, что упрощает разработку.
В итоге, контейнеры изменили подход к развёртыванию, сделав его более стандартизированным и автоматизированным. Это помогло DevOps-практикам, хотя некоторые аспекты, как безопасность, развиваются до сих пор.
Комментарии (211)
- Контейнеры появились как реакция на неспособность Linux/Unix обеспечить изоляцию и управление зависимостями, а не как решение для разработки и доставки ПО.
- Docker и подобные инструменты стали популярны, потому что они позволяют разработчикам легко запускать и тестировать приложения в изолированной среде, но это не основная причина их создания.
- Контейнеризация стала возможной благодаря тому, что Google и другие компании внедрили cgroups и namespaces в ядро Linux, что позволило создать легковесную альтернативу виртуальным машинам.
- Использование контейнеров для разработки и тестирования приложений стало возможным благодаря тому, что контейнеры предоставляют изоляцию и контроль над зависимостями, что делает их удобными для этих целей.
CDC File Transfer 🔥 Горячее
Google выпустила инструменты для синхронизации и потоковой передачи файлов между Windows и Linux. Основная цель — упростить работу разработчиков, которым нужно быстро и эффективно перемещать данные между этими операционными системами, особенно в гибридных средах. Решение оптимизировано для производительности и поддерживает как инкрементальные обновления, так и потоковую передачу в реальном времени.
Инструменты включают утилиты командной строки и API, что делает их гибкими для интеграции в автоматизированные процессы или скрипты. Это особенно полезно для DevOps-инженеров и системных администраторов, работающих с кросс-платформенными развертываниями. Проект открыт под лицензией Apache 2.0, что способствует его адаптации и улучшению сообществом.
Комментарии (94)
- Обсуждение алгоритма CDC (Content Defined Chunking) и его преимуществ перед rsync, включая скорость до 30 раз выше и эффективную обработку вставок и удалений в файлах.
- Вопросы о совместимости и внедрении: поддержка только Windows-to-Linux, отсутствие Linux-to-Linux, сложности сборки с Bazel и предложения интегрировать улучшения в стандартный rsync.
- Сравнение с другими инструментами и технологиями: IBM Aspera, Steam, borg backup, git, а также упоминания о монодиальном хешировании и методе lookahead для улучшения FastCDC.
- Сожаления о закрытии Stadia и обсуждение невозможности её самохоста из-за DRM и кастомного железа, а также альтернатив для стриминга игр (Moonlight/Sunshine).
- Критика выбора названия "CDC" из-за его неоднозначности (путаница с USB CDC и Control Data Corporation).
SSH3: Faster and rich secure shell using HTTP/3 🔥 Горячее 💬 Длинная дискуссия
SSH3 — это новая реализация SSH, построенная поверх HTTP/3 и QUIC вместо традиционного TCP. Она обещает значительно более низкую задержку установки соединения, многопоточность и встроенную поддержку мультиплексирования. Это позволяет ускорить интерактивные сессии, особенно в условиях нестабильных сетей.
Проект также включает улучшенные возможности, такие как передача файлов через HTTP и использование современных криптографических алгоритмов. Уже есть черновик IETF и техническая статья на arXiv, демонстрирующая производительность и совместимость. SSH3 может стать практичной альтернативой для DevOps и удалённого управления.
Комментарии (248)
- Скептицизм по поводу заявлений о скорости: некоторые участники сомневаются в значительном преимуществе SSH3, отмечая, что основная задержка часто связана не с установкой соединения, а с настройкой сессии (PAM и т.д.).
- Критика имени "SSH3" и интеграции в HTTP: многие считают название неудачным и выражают сожаление по поводу поглощения прикладных протоколов HTTP, что увеличивает сложность и потенциальные риски безопасности.
- Обеспокоенность безопасностью и аудируемостью: новая, не испытанная в боях реализация вызывает опасения; участники подчеркивают необходимость тщательного аудита перед использованием в production.
- Вопросы к практической полезности и статусу проекта: обсуждается отсутствие commits за последний год, целесообразность поддержки OAuth для входа на сервер и необходимость таких функций, как миграция соединений.
- Технические аспекты и потенциальные преимущества: отмечается возможность решения проблемы head-of-line blocking за счёт мультиплексирования в QUIC/HTTP3, а также преимущества скрытия сервера за HTTP-прокси.
Dear GitHub: no YAML anchors, please
GitHub Actions добавили поддержку YAML-якорей, что автор считает серьёзной ошибкой. Якоря избыточны: ту же функциональность можно реализовать через встроенные механизмы вроде workflow-level env, которые прозрачнее и логичнее в архитектуре. Они вводят ненужную сложность, нарушая локальность — теперь элементы могут зависеть от частей конфигурации в совершенно другом месте файла, что усложняет чтение и анализ.
Кроме того, якоря усугубляют проблемы безопасности: инструментам сложнее анализировать workflows, так как нарушается соответствие между исходным YAML и объектной моделью. Это мешает точно отслеживать уязвимости, например утечки секретов. GitHub не реализовал ключи слияния (merge keys), единственный сценарий, где якоря могли бы быть оправданы, что делает их поддержку бессмысленной и вредной.
Комментарии (121)
- Внедрение YAML-якорей в GitHub Actions оценивается положительно для устранения дублирования в конфигурациях, но критикуется за использование нестандартного синтаксиса, усложняющего анализ.
- Высказываются предложения заменить YAML на полноценный язык программирования для определения пайплайнов, чтобы улучшить тестируемость, локальную разработку и избежать сложностей шаблонизации.
- Поднимаются проблемы безопасности из-за неявного распространения переменных окружения (включая секреты) при использовании якорей и слияния объектов, что противоречит принципу минимальных привилегий.
- Отмечается, что текущие ограничения GitHub Actions (например, отсутствие фильтрации путей для
workflow_call) вынуждают пользователей создавать костыльные решения или полагаться на сторонние инструменты. - Обсуждаются компромиссы между декларативным и императивным подходами: одни предпочитают чистый YAML для читаемости, другие генерируют его из кода для удобства поддержки сложных логик.
A Software Development Methodology for Disciplined LLM Collaboration
Disciplined-AI-Software-Development
Методика структурирует совместную работу с ИИ над кодом:
- убирает раздутость,
- фиксирует архитектуру,
- сохраняет контекст.
Контрольные точки и жёсткие ограничения не дают проекту съехать в хаос.
Комментарии (29)
- Пользователи спорят, стоит ли погружать Claude-Code в тонны контекста: одни делают «глубокий research-цикл» (Gemini/GPT-5 → план → агент), другие считают это медленнее ручного кода.
- Работает только жёсткий pipeline: план → ревью плана → промежуточный код-ревью → тесты/линтеры → финальное ревью; полный автомат без человека проваливается.
- LLM заставили разработчиков наконец писать документацию, но сами агенты плохо планируют и «заплывут» по мере роста кодовой базы.
- Эффективность высока лишь при маленьких, чётко заскоупленных задачах: 10-минутный спецификация → 3 часа генерации → 85 % покрытие тестами; большие коммиты всё ещё быстрее делать вручную.
- Главный риск: технология убирает бюрократию, но не переносит человеческую ответственность; ошибки агента = ошибка конкретного разработчика.
Комментарии (120)
- «Скорость разработки» путают со скоростью печати: узкое место — не кол-во строк, а время на принятие решений, изменение курса и валидацию идей.
- LLM и vibe-coding ускоряют прототип, но не уменьшают внешний цикл: согласование, QA, деплой, безопасность, политика, ожидание фидбека — всё это всё ещё занимает месяцы.
- Постоянные «корректировки курса» и неопределённость требований превращают 2-недельный код в годичный проект; AI не решает проблему неясного ТЗ и меняющихся приоритетов.
- Быстрая генерация кода = больше объём для ревью и рефакторинга; усталость программиста от пересмотра чужих (или своих же AI-)решений становится новым тормозом.
- Реальный боттлнек — скорость обучения рынком и организационная OODA-петля; ускорить её можно только культурой, а не новым автокомплитом.
When you're asking AI chatbots for answers, they're data-mining you
- Security: киберпреступность, патчи, исследования, CSO
- Off-Prem: edge + IoT, канал, PaaS/IaaS, SaaS
- On-Prem: системы, хранение, сети, HPC, персональные технологии, CxO, госсектор
- Software: ИИ + ML, приложения, БД, DevOps, ОС, виртуализация
- Offbeat: дебаты, колонки, наука, юмор, юр. новости, блоги
- Спецпроекты: месяц облачной инфраструктуры, сети ЦОД, хранение, европейские суперкомпьютеры, ИИ-инфраструктура, RSAC, разработка ИИ, аварийное восстановление, GTC Nvidia, ransomware, будущее ЦОД, кибербезопасность, VMware Explore
- Vendor Voice: Siemens + AWS, Mendix + AWS, финансовые потоки, BigQuery, AWS Global Partner Security, GE Vernova
- Ресурсы: whitepapers, вебинары, рассылки
Комментарии (53)
- Все, что вы отправляете в онлайн-сервисы (AI, почта, соцсети), сохраняется навсегда и может быть использовано против вас.
- Большинству пользователей всё равно: удобство «бесплатных» сервисов перевешивает риски.
- Есть альтернатива — локальные модели (Ollama, LM Studio, Oobabooga), но они требуют мощного железа и навыков.
- Даже если вы не пользуетесь сервисом, друзья могут передать ваши данные через чат-ботов.
- Пока не появится жёсткое регулирование, единственный надёжный способ — не делиться чувствительной информацией и минимизировать использование облачных AI.
Комментарии (65)
- Поддержали идею RRT: не использовать LLM в критичных местах, ограничивать права и отслеживать вход/выход.
- Спорят, виноваты ли LLM в росте уязвимостей или это та же человеческая невнимательность, только ускоренная большим объёмом кода.
- Локальные модели и строгие code-review рассматриваются как частичное решение, но не панацея.
- Ключевой риск — давление «делай быстрее» приводит к меньшему тестированию и усталости ревьюеров.
- Сравнение с автопилотами: LLM-генерация кода может стать безопаснее среднего разработчика, но пока не лучше экспертов.
Auf Wiedersehen, GitHub
- AI & ML: генеративный ИИ, Copilot, LLM, машинное обучение
- Навыки разработчика: разработка приложений, карьера, GitHub, образование, языки и фреймворки
- Инженерия: архитектура, принципы, инфраструктура, безопасность, UX
- Корпоративное ПО: автоматизация, CI/CD, коллаборация, DevOps, DevSecOps
Комментарии (64)
- Томас Домке уходит с поста CEO GitHub; должность замещать не будут — сервис полностью переходит под крыло Microsoft CoreAI.
- Прощальная фраза «So long, and thanks for all the fish» вызвала споры: кто-то увидел намёк на «разрушение» старого GitHub, кто-то считает это просто внутренним мемом.
- Пользователи критикуют превращение GitHub в «AI-платформу» и обвиняют его в использовании opensource-кода для Copilot без согласия авторов.
- Некоторые разработчики уже мигрируют на GitLab, Codeberg, Gitea или собственные серверы, чтобы избежать участия в обучении ИИ.
- Сообщество также жалуется на отсутствие IPv6, тормоза интерфейса и «геймификацию» платформы.