IT-новости про Python, которые стоит знать

Собрали в одном месте самые важные ссылки
и сделали Тренажер IT-инцидентов для DevOps/SRE

     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

12 фишек в административной панели Django, которые экономят мне 12 часов в неделю

12 способов кастомизации Django admin — поиск, фильтры, инлайны, действия, автодополнение, list_editable и оптимизация запросов — которые значительно повышают продуктивность. Я обожаю функции-бумеранги: сделал работу один раз — и они продолжают приносить тебе пользу. Административная панель Django просто набита ими.

     10.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Релизы

psycopg2 - 2.9.11

Python интерфейс для PostgreSQL. Скачать можно по ссылке: https://pypi.python.org/pypi/psycopg2/

     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

От нестационарности к прогнозу: пайплайн анализа и моделирования временных рядов

Мы много предсказываем, классифицируем и прогнозируем. Впервые столкнувшись с последним и проведя исследование по этой теме, я столкнулся с большим количеством неструктурированной информации. Эта статья — одновременно описание моего пути и небольшое упорядоченное наставление по анализу и прогнозированию временных рядов, которое я сам хотел бы получить.

     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

Django 6.0: Ключевые функции, критические изменения

В Django 6.0 есть кое-что для вас. Давайте рассмотрим самые важные новые функции и изменения, о которых вам нужно знать.

     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи
     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

PEP 810: Explicit Lazy Imports (Added)

Черновик предложения по ленивому импорту.

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

Как мы захотели контролировать SPILL’ы в Greenplum и сделали «Демократизатор»

Представьте: Один неоптимизированный запрос от неопытного коллеги - и вот уже 40 ТБ SPILL-файлов парализуют систему.Срабатывает лимит на уровне Greenplum, запрос завершён. Никто ничего не знает.Создаются заявки, пишутся письма, пользователь недоволен.Это не какая-то выдуманная история, а обычный будний день в большом Greenplum. Вернее, так было раньше.

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

Как я пытался ускорить анализ 12 000 комментариев с помощью GPU за 50 тысяч, но победил процессор

История о том, как я хотел провести анализ комментариев, а в итоге получил неожиданный, но полезный опыт с локальным AI. Недавно передо мной встала задача собрать все положительные комментарии к моим статьям. Веду их учёт в таблице, и там уже вполне серьёзные цифры — больше 300 строк и свыше 10 тысяч комментариев.

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Видео

Дотянуться до кремния. HighLoad Python: SIMD, GPU

Python в 2025-м — уже не «скрипт», а инструмент, который жмёт на железо: AVX-512/SVE, Tensor Cores, NVLink/NVSwitch, HBM. Но где хватит CPU-SIMD и горизонтального масштабирования, а где GPU окупает TCO? На живых бенчмарках сравним NumPy2 (SIMD), Numba, и GPU-стек. Разберём устройство C/GPU на уровне принятия решений (SM/warps, Tensor Cores, MIG).

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Видео

Как вайбкодить по-сениорски

Кто-то его отрицает, кто-то смотрит на него косо и надменно, но нам не убежать от вайбкодинга. В докладе я расскажу о подходах и настройках, которые позволят вашему Copilot (или любой другой LLM интеграции) писать более качественный Python код из коробки.

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Видео

Подход к глубоким изменениям. Миграция SDN в боевом облаке на Python

Расскажу, как мы в продакшене публичного облака полностью заменили ключевой компонент виртуальной сети, SDN, так, чтобы (почти) ни один клиент этого не заметил. Этот доклад — о том, как спроектировать архитектуру, способную к таким изменениям, как минимизировать риски при большой миграции, и какие инженерные и организационные решения помогли нам пройти этот путь.

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

Опыт гуманитария в дообучении LLM с помощью WebUI Text Generation

Продолжаю делиться опытом освоения нейросетей человеком с гуманитарным образованием и без IT-бэкграунда. На этот раз моей целью было разобраться, как происходит дообучение готовых LLM-моделей, как выстраивать процесс, какие использовать данные, модели, настройки и прочее. Зачем мне это понадобилось?

     08.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Релизы

pymongo - 4.15.3

Python интерфейс для MongoDB. Скачать можно по ссылке: https://pypi.python.org/pypi/pymongo/

     07.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи
     06.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

AI Review кода за 30 минут: локальная LLM прямо в CI/CD

Как за полчаса подключить автоматическое ревью кода с помощью AI Review и локальной LLM Ollama прямо в CI/CD — без токенов и VPN.

     05.10.2025       Выпуск 616 (29.09.2025 - 05.10.2025)       Статьи

Паттерны программирования при работе с LLM

LLM - мощный инструмент, но его эффективность в продакшене зависит не от одного «хитрого промпта», а от всей архитектуры: что мы даём модели, как управляем её рассуждением и как проверяем/обрабатываем результат. В этой статье - компактная карта паттернов, разбитая по этапам конвейера: Input -> Reasoning -> Output.

     06.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

EDA в Python для новичков: что почитать и где попрактиковаться

Разведочный или исследовательский анализ данных (Exploratory Data Analysis, EDA) — это этап работы с данными, на котором аналитик изучает доступную информацию перед построением сложных аналитических моделей. Это основа работы с данными, которая помогает понять, какая информация доступна и возникнут ли трудности с будущим анализом.

     06.10.2025       Выпуск 617 (06.10.2025 - 12.10.2025)       Статьи

GGUF: квантизация с калибровкой (imatrix)

Признаюсь, я не большой любитель vLLM, Triton Inference Server и всяких там NeMo, вместо них я предпочитаю ollama вообще и llama.cpp в частности, поскольку придерживаюсь мнения, что 1-2% потери в точности и отсутствие некоторых плюшек - не так важно, по сравнению с удобством деплоя, спекулятивным декодингом, многократным приростом скорости, динамическим оффлодом в память системы и возможностью запускать модели на любом "ведре", навроде древних зионов, андройдофонов, малинок или, скажем, макбуков.