Imagen 4 is now generally available
- Imagen 4 и Imagen 4 Fast теперь доступны всем через Gemini API.
- Imagen 4 Fast генерирует изображения в 2 раза быстрее и дешевле, чем Imagen 3, без потери качества.
- Imagen 4 — флагманская модель: лучше текст, детали, стилизация; поддерживает 2K разрешение и редактирование (inpainting/outpainting).
- Цены:
- Imagen 4 Fast: $0,03 за изображение 1024×1024.
- Imagen 4: $0,05 за изображение 1024×1024.
- Как начать:
from google import genai client = genai.Client(api_key="YOUR_API_KEY") response = client.models.generate_images( model="imagen-4-fast", prompt="A cat wearing a space helmet on Mars" )
- Доступно в 180+ странах через Google AI Studio и Gemini API.
Комментарии (52)
- Комикс о Imagen 4 вызывает споры: кто-то находит его «наивно-честным» из-за ошибок, другие считают персонажей бездушными и маркетинговыми.
- Пользователи насчитали множество багов: неправильные подписи, лишняя панель, фразы, которых нет в промпте, и т. д.
- Ссылка «Read the documentation» ведёт на страницу, где нет сведений о новых моделях Imagen, только примеры с Gemini 2.0 Flash.
- Кто-то хвалит визуальный стиль за отсутствие «жёлтого фильтра» ChatGPT.
- Разработчик, использующий Imagen 3, жалуется, что Imagen 4 даёт «мультяшные» вместо фотореалистичных результатов.
- Уточняется, что Imagen 4 вышла раньше, но теперь стала «общедоступной» без прежних ограничений.
Steve Wozniak: Life to me was never about accomplishment, but about happiness 🔥 Горячее 💬 Длинная дискуссия
-
Иск против YouTube: в 2020 г. Возняк и 17 других подали иск к Google/YouTube из-за фейковых розыгрышей биткойнов, где мошенники использовали его имя и лицо. Суд отклонил дело, сославшись на защиту Section 230. Апелляция в 2022 г. тоже провалилась. В 2023 г. Верховный суд США отказался рассматривать кассацию — дело закрыто окончательно.
-
Комментарии Возняка: под ником SteveWoz он написал, что отдал всё состояние Apple, живёт на ~10 млн $ и двух домах, платит 55 % налогов и считает счастье важнее денег.
Комментарии (528)
- Участники восхищаются Возом как искренним, добрым и скромным инженером, противопоставляя его Джобсу.
- Бывшие сотрудники Apple считают Воза «ненормальным» за открытую критику компании, но обсуждающие это опровергают.
- Воз выглядит человеком, с которым «хочется выпить пива», тогда как о других «звёздах» такого не скажешь.
- $10 млн названы «пределом, после которого начинается жадность».
- Счастье Воза приписывают балансу телесных и душевных потребностей и отсутствию погони за властью/деньгами.
Gemma 3 270M: Compact model for hyper-efficient AI 🔥 Горячее 💬 Длинная дискуссия
Gemma 3 270M — самая маленькая модель семейства Gemma 3, всего 270 млн параметров.
Подходит для запуска на смартфонах, микроконтроллерах и в браузере без облака.
- Производительность: на MMLU и HumanEval обгоняет Gemma 2 2B и Llama 3.2 3B, уступает Gemma 3 1B.
- Скорость: на Pixel 8 Pro — 1,2 токена/с, на RTX 4090 — 200 токенов/с.
- Форматы: Keras, JAX, PyTorch, Gemma.cpp, Ollama, Transformers.
- Лицензия: Gemma Terms of Use, коммерческое применение разрешено.
Доступна в Kaggle, Hugging Face, Ollama и через gemma-3-270m-it
в Vertex AI.
Комментарии (291)
- Команда представила Gemma 3 270M — сверхкомпактную модель (241 МБ) для локального запуска и тонкой настройки под узкие задачи.
- Пользователи уже тестируют её на телефонах, но жалуются на холлюцинации и слабое следование инструкциям.
- Обсуждаются примеры применения: тегирование статей WordPress, NER/перевод, генерация SVG, «умные» клавиатуры, обработка 50 млн строк в день.
- Многие спрашивают туториалы по дообучению и сравнение с Qwen 0.6B, который показывает лучшее качество при схожем размере.
- Авторы подчеркивают: модель «из коробки» слаба, но после fine-tuning может стать мощным специализированным инструментом.
Комментарии (67)
- DOJ требует у судьи Мехты принудительно отделить Chrome от Google после признания монополии в поиске; предложение Perplexity рассматривается как юридический ход.
- Предложение Perplexity в $34,5 млрд (в 2× превышающее её капитализацию) участники называют пиар-акцией: денег нет, цена занижена, а сделка обречена на провал.
- Многие считают, что проще форкнуть Chromium бесплатно, чем платить за бренд и установленную базу в 3,45 млрд пользователей.
- Пользователи критикуют саму Perplexity: «фанфары вместо продукта», «плохие результаты», «обман маркетинга» и опасения, что ИИ-компания будет ещё агрессивнее использовать данные, чем Google.
Australian court finds Apple, Google guilty of being anticompetitive 🔥 Горячее
Суд Австралии признал Apple и Google виновными в антиконкурентных действиях
Федеральный суд Австралии постановил, что App Store и Google Play Store нарушают закон о конкуренции. Иск подала Epic Games в 2020-м из-за комиссии 30 % и удаления Fortnite. Пять лет разбирательств завершились 2000-страничным вердиктом судьи Джонатана Бича: обе компании злоупотребляли доминирующим положением, ограничивая доступ сторонних магазинов. В остальных пунктах (закон о защите потребителей и «неприемлемое поведение») Epic проиграла.
Apple и Google «не согласны с частью выводов», но приветствуют отклонение других обвинений. Epic уже анонсировала возвращение Fortnite и запуск Epic Games Store для iOS в Австралии.
Комментарии (125)
- Суд Австралии признал Apple и Google нарушившими антимонопольное законодательство, но не все требования Epic удовлетворены.
- Участники отмечают парадокс: «открытая» Android оказалась под прицелом, тогда как «закрытая» iOS — нет.
- Многие считают, что дела против Big Tech теперь выигрывают в основном за пределами США, где антимонопольная политика «беззуба».
- Обсуждается, что реальные изменения придут не от судов, а от новых законов вроде DMA в ЕС.
- Сомнения, что Apple и Google снизят комиссию 30 % без жёсткого законодательного давления.
The Chrome VRP Panel has decided to award $250k for this report 🔥 Горячее 💬 Длинная дискуссия
Chromium
Войти
Комментарии (249)
- Найдена критическая уязвимость escape из Chrome-песочницы, за которую Google заплатили $250 000.
- Некоторые считают, что на «чёрном» рынке она могла стоить дороже, но продажа чревата рисками и отмыванием денег.
- Mozilla платит за аналогичные баги лишь $20 000, что вызывает сравнение серьёзности подходов к безопасности.
- Ошибка логики/тайминга; Rust бы её не предотвратил.
- Участники обсуждают, как начать искать такие баги: читать write-ups, практиковать reverse engineering, пользоваться ресурсами вроде pwn.college.
Show HN: Engineering.fyi – Search across tech engineering blogs in one place 🔥 Горячее
- Airbnb: бесшовное обновление Istio на десятках кластеров K8s, тысячи подов.
- Cloudflare + OpenAI: новые открытые модели GPT теперь в Workers AI.
- OpenAI: оценка худших рисков «открытых» LLM.
- Shopify: MCP UI — интерактивные компоненты для AI-агентов в e-commerce.
- Cloudflare: Perplexity обходит robots.txt скрытыми краулерами.
- Meta: интерфейс «человек-компьютер» на основе электромиографии запястья.
- Google: обновлённая программа разработчиков с гибкой подпиской.
Комментарии (107)
- Пользователи одобрили идею «поисковика» по инженерным блогам, но попросили расширить список за пределы 15-16 крупных компаний и включить мелкие, но ценные ресурсы.
- Просят добавить RSS-фид, фильтры по темам/источникам и возможность исключать AI/LLM-контент.
- Отмечены проблемы со скоростью, Cloudflare-captcha и отсутствием тегов C#/ASP.NET.
- Некоторые делятся альтернативами: daily.dev, minifeed.net, GitHub-список kilimchoi, Kagi Lenses.
- Обсуждается, стоит ли ограничиться 10–20 тщательно отобранными блогами или открыть индекс для сотен источников.
What the Windsurf sale means for the AI coding ecosystem
-
Windsurf за 8 мес. выросла до $82 млн ARR, но продана Cognition всего за $250 млн (из них $100 млн — деньги на счету). Это оценка бизнеса в <2× выручки, что намекает на катастрофу.
-
Хронология развода:
11 июля OpenAI отказалась от сделки в $3 млрд.
В тот же день Google выкупила CEO и 41 сотрудника за $2,4 млрд, но без самой компании.
Пятница: оставшиеся основатели позвонили Cognition.
Понедельник: сделка закрыта — Cognition получает $82 млн ARR, 200+ людей и IP почти даром. -
Проблема маржи:
Планы по $10–15/мес. покрывают лишь часть затрат.
Twitter-аналитика: -300…-500 % маржа.
Каждый новый клиент усугубляет дыру: API-расходы $80–200/мес при цене $20/мес. -
Смертельный спираль:
Нельзя поднять цены (конкурируют с Claude Code за $150/мес).
Нельзя сократить расходы (API-тарифы фиксированы).
Нельзя остановить рост (это единственная история для инвесторов).
Нельзя пивотить (слишком много денег привлечено). -
План был VC-деньгами дотировать Anthropic-модели, собрать данные, быстро обучить собственные и перейти от -500 % к плюсу.
Время закончилось быстрее, чем пришла технология.
Комментарии (44)
- Участники считают статью спекулятивной: факты о найме и сделках искажены, цифры не подтверждены.
- Сделка Google за $2,4 млрд — это не покупка Windsurf, а «poach» 41 сотрудника + лицензия IP; причина — антимонопольные риски и желание мягко спасти инвесторов.
- Бизнес-модель «обёрток» вокруг LLM ставится под сомнение: без собственных моделей масштабироваться нельзя, а деньги VCs рано или поздно кончатся.
- Крупные игроки (Google, Microsoft, Meta) боятся хаотичного краха таких стартапов и предпочитают аквихайры или «soft landing», чтобы не тревожить рынок и NVDA.
- Некоторые считают, что нынешние форки VSCode — это «кони без экипажа»; настоящий прорыв будет в полностью агентных IDE нового типа.
AI is impressive because we've failed at personal computing 💬 Длинная дискуссия
Современные ИИ-чаты умеют отвечать на сложные вопросы, потому что мы так и не научились структурировать информацию. Пример: «Какое животное изображено на флаге страны, где первая британская колония появилась в год, когда Швеция объявила войну Франции?» — ChatGPT за секунды выдал «попугай сиссеро на флаге Доминики, колония 1805 г.», а Google AI-виджет провалился.
Такой «поисковый» паттерн повсюду: Google Drive — облачная папка, которую легче искать, чем упорядочивать; сайты вместо структуры набиты ключевыми словами; документацию заменяют чат-боты.
Семантический веб, где данные должны были быть машиночитаемыми и связанными, так и не случился: вместо структурированного HTML — динамические div
-ы без метаданных. Личные компьютеры не стали персональными базами знаний с семантическими связями, как мечтал ХайперКард.
Если бы знания хранились структурированно, ответ нашёл бы простой алгоритм без миллиардов параметров. ИИ — не триумф элегантного дизайна, а грубое решение: он выстраивает мимолётную семантику из хаоса, но само знание остаётся недоступным и непрозрачным.
Комментарии (155)
- Участники сравнивают идею «всё структурировать» с утопией «если бы все просто были хорошими людьми» – красивая теория, но нереалистична.
- Напоминают, что Semantic Web, Knowledge Graph и Cyc пытались кодировать знания вручную, но масштабировались плохо: люди не умеют быстро и точно описывать мир.
- Отмечают, что современные ИИ-модели стали «пластырем», который сам строит семантические связи из хаотичных данных, хотя и с ошибками.
- Подчёркивают: поисковики и LLM дополняют друг друга; ни один не решает всё, но вместе дают результат.
- Главный вывод: неудача не в «плохих людях», а в сложности мира и в том, что рутинная работа по разметке никому не принадлежит и никем не финансируется.
Google's Genie is more impressive than GPT5
AGI стремится к универсальности, но нельзя просто import everything
. Решение — компрессия и обобщение: небольшая модель покрывает огромное пространство задач. Глубокое обучение сжимает терабайты данных в десятки гигабайтов весов, и LLM не только имитируют текст, но и умеют, например, играть в шахматы без явного обучения.
Следующий шаг — world-models, способные представлять не только текст и картинки, но и всю окружающую реальность. Такая модель могла бы «смоделировать Тибет» и сообщить погоду, а робот — планировать движения, опираясь на внутреннюю симуляцию мира. Проблема в колоссальном объёме видеоданных и вычислений, поэтому мало кто рискует.
Google DeepMind рискнул: три дня назад представил Genie 3 (Generative Interactive Environments). Если GPT создаёт текст, Veo и Sora — видео, то Genie превращает описание в интерактивную видеоигру, где можно бродить минутами. Пока коротко, но это качественный скачок и намёк на будущее, где модели будут поддерживать длинную когерентность не только в тексте, но и в «живых» мирах.
Комментарии (58)
- Пользователи высмеяли идею «стимулировать Тибет» вместо обычного запроса погоды.
- Рынки ставок и графики вызвали споры: одни видят рост ожиданий Gemini-3, другие указывают, что Gemini 2.5 уже выше GPT-5 в бенчмарке.
- Многие считают статью пустой и отказываются верить демо, пока Genie 3 не станет публично доступен.
- Обсуждение свелось к тому, что ни GPT-5, ни Gemini пока не близки к AGI, а термин «AGI» постоянно меняется под маркетинг.
Achieving 10,000x training data reduction with high-fidelity labels
Сжатая суть статьи
Идентификация нарушающей политику рекламы требует глубокого контекста и культурной чувствительности — сильные стороны LLM. Однако дообучение требует дорогих, качественных разметок, а политика и типы нарушений постоянно меняются. Мы предложили масштабируемый процесс активного обучения, который сводит объём данных с 100 000 до менее 500 примеров и повышает согласованность с экспертами до 65 %. В продакшене крупные модели используют в 10 000 раз меньше данных без потери качества.
Процесс курирования
- Нулевой LLM размечает весь трафик (1).
- Кластеризуем «нарушения» и «безопасные» примеры; пересечения кластеров указывают на неуверенность модели (2).
- Внутри пересечений выбираем пары близких, но по-разному размеченных примеров (3).
- Эксперты размечают приоритетные пары (4).
- Полученные метки делятся: часть — для дообучения, часть — для оценки по двум метрикам: внутренняя согласованность экспертов и согласованность «модель ↔ человек». Итерации повторяются до плато.
Метрика
Используем Cohen’s Kappa: 0 — случайное совпадение, >0,8 — отлично. Не требует «золотого стандарта».
Эксперименты
Сравнили Gemini Nano-1 (1,8 B) и Nano-2 (3,25 B) на двух задачах разной сложности. Базовые модели дообучались на ~100 k разметок краудсорсом. Курированные модели — на ~400 примерах за 6 итераций. Все модели вышли на плато, не догнав внутреннее согласие экспертов.
Комментарии (25)
- Участники сомневаются в заявлении, что «<1 % рекламы — кликбейт», приводя анекдоты о массе скамов и повторяющихся мошеннических объявлениях.
- Поднимается тема Active Learning: один доклад показывает, что после нормализации условий случайный выбор примеров для разметки может быть эффективнее «умных» стратегий.
- Критика метода кластеризации: неясно, как получаются пересекающиеся кластеры, если множества «кликбейт/не кликбейт» не пересекаются.
- Спрашивают, какая именно модель даёт эмбеддинги: LLM или специализированная модель с контрастным обучением; тип кластеризации и роль PCA тоже не описаны.
- Некоторые считают, что гиперсферы и SVM в диаграмме могут быть намеренным «затуманиванием» ключевых деталей выбора примеров для разметки.
Jules, our asynchronous coding agent 🔥 Горячее 💬 Длинная дискуссия
Google представила Jules — асинхронного ИИ-агента для программирования — для всех пользователей, завершив публичную бету. Агент выполняет задачи в фоновом режиме: пишет и рефакторит код, правит баги, настраивает пайплайны и документирует изменения, не требуя постоянного участия разработчика. Это помогает параллелить работу, ускорять итерации и снижать контекстные переключения.
Jules интегрируется с инструментами разработчиков, может брать на себя длинные задачи, делить их на шаги, сообщать о прогрессе и запрашивать уточнения только при необходимости. Доступен через Google Labs и ориентирован на повышение продуктивности как отдельных инженеров, так и команд, позволяя запускать больше экспериментальных веток и быстрее проводить ревью.
Комментарии (221)
- Пользователи жалуются на запутанные подписки Google: разные продукты (Jules, Gemini App/CLI, Code Assist) разбросаны между Workspace и GCP, цены и доступ скрыты или требуют согласий и биллинга.
- Опыт с Jules противоречивый: часть считает его слабее Claude Code, Copilot/Claude Sonnet и Gemini CLI (низкое качество кода, проблемы в монорепо, зацикливание, отсутствие кнопки STOP, баги UI), другие довольны асинхронным форматом и считают удобным для пачек задач, тестов и сайд‑проектов.
- Замечены регрессии: лимит задач на бесплатном плане снизили с 60 до 15; качество, по словам некоторых, упало после увеличения дневных лимитов на раннем превью.
- Пользователи хотят интеграции с GitHub (issues, комментирование PR для фидбэка), явного просмотра публичных улучшений кода и лучшей связности с Gemini CLI/Actions.
- Есть путаница в позиционировании: что такое «асинхронный кодовый агент», чем Jules отличается от Gemini CLI и с кем он конкурирует (Claude Code, Codex, Crush).
- Критика брендинга/UX: «детский» лендинг, слабый контраст, плохой пиксель‑арт; общее ощущение, что UI отстает от возможностей модели.
- Итоговое восприятие: интерес к формату асинхронных агентов есть, но текущая реализация Jules часто уступает Claude Code по скорости/качеству и стабильности; пользователи просят прозрачные тарифы и единый продуктовый опыт.
Комментарии (88)
- Обсуждение о том, что один из корпоративных Salesforce-инстансов Google был скомпрометирован через вишинг-атаки (UNC6040), с кратковременной утечкой контактных данных и заметок по малому и среднему бизнесу; официальный тон смягчает масштаб, что вызывает скепсис.
- Комментаторы сомневаются в формулировках “лишь базовые и публичные данные”, предполагая, что ценность для злоумышленников была реальной (возможны вторичные схемы, например мошенничество с биллингом).
- Многих удивляет, что Google использует Salesforce; объяснения: историческое наследие, быстрые поглощения, а также предпочтения команд продаж и маркетинга к индустриальным стандартам вместо внутренних инструментов.
- Приводятся истории о неудачных внутренних CRM у Google: баги, нехватка функций, нежелание инженеров поддерживать; продажи и PM часто продавливают Jira/Salesforce ради скорости найма и онбординга.
- Отмечается культурный сдвиг: замена внутренних решений “джанковыми” шаблонными процессами Salesforce; внутренние инструменты больше для инжиниринга.
- Уточнения: у Google десятки тысяч сотрудников в продажах/маркетинге; часть саппорт-систем GCP ранее зависела от Salesforce; выбор строить/покупать/партнериться по CRM оценивался и часто оказывался экономически нецелесообразным для собственной разработки.
- Общий вывод: инцидент — результат классической социальной инженерии, а не технического взлома; реакция компании стремится минимизировать восприятие ущерба, вызывая дискуссии о прозрачности и рисках использования сторонних SaaS.
Комментарии (68)
I asked it to create a story that described the modes of the major scale with a cartoon treble clef as the main character.It created a 10 page story that stuck to the topic and was overall coherent. The main character changed color and style on every page, so no consistency there
I dumped Google for Kagi 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (235)
Kagi sucks, this is a bad call.Just kidding, I love Kagi and I get a ton of value from it! I always like the saying that "the best ideas are obvious in hindsight", and that is absolutely how I feel about Kagi. Being able to uprank, downrank, and/or pinning, blacklisting domains i
Genie 3: A new frontier for world models 🔥 Горячее 💬 Длинная дискуссия
Genie 3 — возможности:
Ниже — записи реальных взаимодействий с Genie 3.
Моделирование физических свойств мира
Передает природные явления (вода, свет) и сложные взаимодействия среды.
- Промпт: Вид от первого лица — робот с шинами едет по вулканическому полю, избегая лавовых луж. Виден дым и потоки лавы, синее небо, вокруг лишь черные скалы.
- Промпт: Вождение гидроцикла во время фестиваля огней.
- Промпт: Прогулка по набережной во Флориде во время шторма: ветер гнет пальмы, волны хлещут через перила, сильный дождь, плащ-дождевик, впереди мост.
- Промпт: Быстрая съемка за медузой в темных глубинах между каньонами с мидиями и крабами; вдали гидротермальные источники с ярко-синим дымом.
- Промпт: Пилот вертолета маневрирует над прибрежным утесом с водопадом.
Симуляция природного мира
Генерирует экосистемы: поведение животных и детальную растительность.
- Промпт: Забег вдоль ледникового озера, лесные тропы, брод через горные ручьи среди заснеженных вершин и сосен, богатая фауна.
- Промпт: Реальная трекинг-съемка: заплыв через темные океанские каньоны среди огромной стаи медуз, биолюминесценция.
- Промпт: Фотореалистичный дзен-сад на рассвете: белый песок с узорами, пруд с лилиями, камни с мхом, каменный фонарь и кэрн, забор из бамбука.
- Промпт: Густая листва с каплями воды и пятнистым светом; влажный, спокойный воздух, мягко размытый фон.
Моделирование анимации и вымысла
Создает фантастические сцены и выразительных персонажей.
- Промпт: Яркий 3D-стиль: пушистое существо с ушами, как у овчарки, мчится по радужному мосту среди парящих островов и светящейся флоры; свет теплый и радостный.
- Промпт: Ящерица в стиле оригами.
- Промпт: Широкий план: зачарованный лес в сумерках; игрок управляет крупной светлячком, пролетающим сквозь крону с пестрой листвой.
Комментарии (481)
- Обсуждение посвящено Genie 3 от Google DeepMind: впечатляющая реалтайм-генерация интерактивных миров (720p) с устойчивостью во времени, но крайне мало технических деталей и доступа для публики.
- Технические спекуляции: возможен видео-генеративный подход с 4x временным даунскейлом в VAE и управляющими сигналами (направление/угол обзора), заметны артефакты (скачки текстур, проблемы с текстом, редкие люди в сценах).
- Часть сообщества критикует отсутствие статьи/отчета и закрытость веса модели; другие отмечают, что прогресс согласуется с намёками Demis и является эмерджентным эффектом масштабирования.
- Споры о подходе: «мир-модель как видео» vs классический графический конвейер (меши/анимации/рендер), вопрос о пригодности для игр, VR/XR и робототехники; звучит запрос на VR-вывод и интеграцию со звуком.
- Реакции варьируются от восторга и ощущения «холодека»/диссоциации до обеспокоенности влиянием на творчество и смыслы; некоторые видят в этом шаг к embodied AI и бесконечному синтетическому датасету.
- Практические ожидания: ускорение прототипирования в геймдеве, обучение навыкам через ИИ-NPC и терапию; скептики считают демо «бережным» и сомневаются в масштабируемой пользе без перехода к 3D-структурам.
- Вопросы остаются: архитектура, вычислительные затраты, форматы объектов/интеграция, сроки публичного доступа и реальная применимость за пределами демонстраций.
Google shifts goo.gl policy: Inactive links deactivated, active links preserved 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (189)
What amazes me is that this wasn't the original plan. What product manager thinks "the best thing for our customers is to delete their data!".> We understand these links are embedded in countless documents, videos, posts and more, and we appreciate the input received.How did they
Gemini 2.5 Deep Think 🔥 Горячее 💬 Длинная дискуссия
—
Комментарии (249)
I started doing some experimentation with this new Deep Think agent, and after five prompts I reached my daily usage limit. For $250 USD/mo that’s what you’ll be getting folks.It’s just bizarrely uncompetitive with o3-pro and Grok 4 Heavy. Anecdotally (from my experience) this wa
Our Farewell from Google Play 🔥 Горячее
—
Комментарии (126)
From a cursory glance, their apps seem to be of the kind that don't need continuous updates and can be considered complete. Self-contained, offline software that serves a specific purpose: https://search.f-droid.org/?q=SECUSO&lang=enUnfortunately, Google no longer recognizes this
Комментарии (60)
TinyKVM [1] has similarities to the gVisor approach but runs at the KVM level instead, proxying a limited set of system calls through to the host.EDIT: It seems that gVisor has a KVM mode too. https://gvisor.dev/docs/architecture_guide/platforms/#kvmI've been working on KVMServer