Собрали в одном месте самые важные ссылки
и сделали Тренажер IT-инцидентов для DevOps/SRE
Python в 2025-м — уже не «скрипт», а инструмент, который жмёт на железо: AVX-512/SVE, Tensor Cores, NVLink/NVSwitch, HBM. Но где хватит CPU-SIMD и горизонтального масштабирования, а где GPU окупает TCO? На живых бенчмарках сравним NumPy2 (SIMD), Numba, и GPU-стек. Разберём устройство C/GPU на уровне принятия решений (SM/warps, Tensor Cores, MIG).
Кто-то его отрицает, кто-то смотрит на него косо и надменно, но нам не убежать от вайбкодинга. В докладе я расскажу о подходах и настройках, которые позволят вашему Copilot (или любой другой LLM интеграции) писать более качественный Python код из коробки.
Расскажу, как мы в продакшене публичного облака полностью заменили ключевой компонент виртуальной сети, SDN, так, чтобы (почти) ни один клиент этого не заметил. Этот доклад — о том, как спроектировать архитектуру, способную к таким изменениям, как минимизировать риски при большой миграции, и какие инженерные и организационные решения помогли нам пройти этот путь.
В рамках доклада рассмотрим Continuous Profiling для сервисов, который помогает выявлять скрытые проблемы производительности и утечек памяти, которые Observability не всегда может отследить
Python в 2025-м — уже не «скрипт», а инструмент, который жмёт на железо: AVX-512/SVE, Tensor Cores, NVLink/NVSwitch, HBM. Но где хватит CPU-SIMD и горизонтального масштабирования, а где GPU окупает TCO? На живых бенчмарках сравним NumPy2 (SIMD), Numba, и GPU-стек. Разберём устройство C/GPU на уровне принятия решений (SM/warps, Tensor Cores, MIG).
У вас не возникали порой мысли, что мы, разработчики, очень двуличные создания? Мы так много говорим про логику, про то, как правильно надо писать код, как посчитать нагрузку и подобрать правильные архитектурные решения под бюджет нашего продукта... Но в то же время некоторые вещи мы «не можем свести к каким-то цифрам», можем только «почувствовать». Или определить исходя из нашего, так сказать, опыта. Не знаю как вас, а меня это частенько раздражает. Так что давайте разберем интересные моменты, когда разработчики на самом деле могут все свести к сухим цифрам, но почему-то не хотят это сделать. Или не знают как.
Мы разберем вопросы:
Поговорим (в очередной раз) про устройство сборщика мусора, про инкрементальную сборку, про различные эффекты. Расскажу как реализована сборка мусора в CPython и почему именно так, расскажу о взаимосвязи с другими частями рантайма.
Всё знали? А вот и нет! Про Юникод будет и база, и разные приколы. А потом заглянем внутрь строки и ужаснёмся, и вдохновимся, и засучим рукава.
Поговорим о том, что такое Python-байткод, зачем он нужен, как создается из исходного кода. Расскажу про внутреннее устройство генераторов и генераторных выражений, а также про взаимосвязь генераторов и фреймов исполнения.
Как с нуля создать навык голосового помощника Алиса с написанием кода обработчика запросов пользователя на Питоне,
Какая была проблема в интеграции Pytest для проверки качества кода и медицинских данных в университете. Почему мы решили автоматизировать такой процесс, решая проблему конфиденциальности. Практический пример работы этой системы
Оптимизация сервиса АБ тестирования или как уйти от Django ORM к Fastapi query builder. Как мы ускорили время ответа с помощью ухода от монолита с ORM к микросервисам с query builder. Оптимизация работы с базой данных и перенос тяжелой логики фильтрации из python на базу данных.
Мы продолжим доклад "Повышаем производительность программ: мой путь к succ[ess \| inct]" и затронем суперсжатие для полнотекстового поиска, в том числе реализуем его на Python и замерим производительность.
Применение вайбкодинга для разработки MVP проекта. Основные преимущества такого подхода и какие опасности могут возникнуть с развитием проекта. Сложность рефакторинга потеря актуальности нейросетевого кода
FastStream – библиотека для создания сервисов с асихронной или event-driven коммуникацией.