Advent of Code 2025: Number of puzzles reduce from 25 to 12 for the first time 🔥 Горячее 💬 Длинная дискуссия
Advent of Code 2025 — это календарь программистических головоломок на каждый день декабря, доступных для решения на любом языке программирования. Созданный Эриком Вастлом, этот проект подходит для любого уровня подготовки — от новичков до опытных разработчиков. Участники используют его для подготовки к собеседованиям, обучения в компаниях, университетских курсов или просто для практики. Не требуется глубоких знаний компьютерных наук — достаточно базовых навыков программирования и решения задач. Все задачи можно решить на десятилетнем оборудовании за не более 15 секунд.
Проект поддерживается через AoC++ и социальные сети. Если вы застряли, автор советует проверять решения на примерах, создавать тестовые случаи и обращаться за помощью в subreddit. В разделе FAQ освещены вопросы аутентификации через OAuth, сложности задач (которые обычно возрастают со временем), разблокировки задач в полночь по EST, а также возможность участия в соревнованиях через приватные рейтинги.
Комментарии (191)
- Сокращение до 12 дней вместо 25 вызвало бурную дискуссию: часть сообщества считает, что это разрушает саму суть "Advent of Code", в то время как другие отмечают, что это снизит нагрузку на автора и позволит ему продолжать проект.
- Пользователи отмечают, что сокращение до 12 дней делает невозможным привычное соревнование за лидербордом, и что это может оттолкнуть некоторых участников.
- Некоторые участники выразили обеспокоенность тем, что сокращение может повлиять на качество головоломок, так как автор будет иметь меньше времени на их разработку.
- Некоторые участники предложили альтернативы, такие как выпуск головоломки каждые два дня вместо ежедневного выпуска, что позволило бы сохранить привычный формат мероприятия.
- Участники также обсудили, что сокращение до 12 дней может повлиять на их собственные планы на декабрь, и что они могут не успеть решить головоломки до Рождества, что для них является важным элементом мотивации.
DeepMind and OpenAI win gold at ICPC 💬 Длинная дискуссия
OpenAI и DeepMind рады объявить/поделиться — Codeforces
Codeforces — платформа для соревнований по программированию.
Навигация:
- Главная
- Топ
- Каталог
- Контесты
- Тренировки
- Задачи
- Группы
- Рейтинг
- Обучение
- API
- Календарь
- Помощь
Ближайший контест:
Codeforces Global Round 29 (Div. 1 + Div. 2) через 3 дня. Регистрация открыта.
Топ рейтинга:
- jiangly (3914)
- Kevin114514 (3755)
- orzdevinwang (3670)
- tourist (3619)
- ecnerwala (3590)
Топ авторов:
- errorgorn (170)
- Qingyu (162)
- adamant (158)
Последние действия:
- Обсуждение редакции раундов
- Вопросы о повышении рейтинга
- Обновления условий задач
- Обсуждение возможных нарушений
Комментарии (211)
- OpenAI и DeepMind достигли высоких результатов в ICPC (12/12 и 10/12 задач соответственно), превзойдя лучшие человеческие команды.
- Мнения разделились: одни считают результат прорывом, другие — следствием нечестных преимуществ ИИ (огромные вычислительные мощности и многократные попытки).
- Критики указывают на отсутствие прозрачности: неизвестны затраты на вычисления, энергопотребление и степень стороннего контроля.
- Подчеркивается фундаментальное отличие соревнований для людей (ограничения по времени, один компьютер на команду) и условий для ИИ.
- Отмечается, что успех ИИ в узких, четко определенных задачах не обязательно переносится на реальную инженерию или научные прорывы.
- Обсуждается растущий разрыв между возможностями корпоративных моделей и тем, что доступно обычным пользователям.
- Результат заставляет пересмотреть assumptions о текущих возможностях LLM и их будущей роли в решении сложных задач.
ICPC 2025 World Finals Results
49-й финал ICPC, Баку
Таблица результатов (разморожена), 4 сен 2025, 15:49 AZT
| # | Университет | Задач | Время | A | B | C | D | E | F | G | H | I | J | K | L | Попытки |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 1 | СПбГУ | 11 | 1478 | 2/255 | 2/53 | – | 1/37 | 3/150 | 1/20 | 3/298 | 2/195 | 1/42 | 2/81 | 3/128 | 1/19 | 21/11 |
| 2 | Токийский унив | 10 | 1116 | 1/206 | 1/271 | – | 1/25 | 1/184 | 1/34 | – | 1/95 | 1/66 | 2/72 | 1/126 | 1/17 | 11/10 |
| 3 | Пекинский транспорт | 10 | 1425 | 2/225 | 2/204 | 1/– | 1/57 | 2/270 | 2/52 | – | 2/132 | 2/84 | 2/107 | 1/148 | 1/6 | 18/10 |
| 4 | Цинхуа | 9 | 865 | 3/139 | – | – | 1/33 | 1/174 | 2/27 | – | 1/71 | 1/87 | 2/84 | 1/157 | 1/13 | 15/9 |
| 5 | Пекинский унив | 9 | 887 | 1/180 | – | – | 1/14 | 2/168 | 1/50 | – | 1/113 | 1/57 | 1/76 | 1/183 | 1/26 | 10/9 |
| 6 | Гарвард | 9 | 995 | 1/124 | – | – | 1/35 | 1/238 | 4/78 | – | 2/190 | 1/62 | 1/101 | 1/69 | 1/18 | 13/9 |
| 7 | Загреб | 9 | 1075 | 2/176 | – | – | 1/15 | 1/242 | 2/77 | – | 3/175 | 2/64 | 1/64 | 1/118 | 2/24 | 15/9 |
| 8 | MIT | 9 | 1123 | 1/233 | 2/– | – | 1/14 | 1/113 | 1/36 | – | 6/204 | 1/50 | 4/121 | 1/145 | 2/27 | 20/9 |
| 9 | USTC | 9 | 1128 | 2/224 | – | – | 1/41 | 1/286 | 1/31 | – | 2/229 | 1/55 | 1/85 | 1/123 | 1/14 | 11/9 |
| 10 | Сеульский унив | 9 | 1133 | 1/201 | 3/282 | – | 1/32 | – | 3/58 | – | 1/160 | 1/46 | 1/79 | 2/161 | 1/14 | 14/9 |
Медали: золото (1–4), серебро (5–8), бронза (9–12).
Комментарии (34)
- Huawei и OpenAI выступили «бриллиантовыми» спонсорами; приветствие OpenAI вызвало споры: кто-то увидел в нём саморекламу, кто-то — лишнее самолюбование.
- На площадке царила отличная атмосфера, но разрывы в таблице оказались малы: команды на 4-м и 17-м местах решили одинаковое число задач.
- Участники обсуждали «секрет» московских и питерских команд, вспоминали тренера Андрея Станкевича и шутили о «русских хакерах».
- Развивалась дискуссия о будущем соревнований: не станут ли они бесполезными на фоне прогресса LLM.
- Ссылки на записи, условия задач и открытый контест в Kattis уже доступны, так что желающие могут попробовать задачи самостоятельно.