Enable HPA on staging for isolation test #206

Merged
claude merged 1 commits from staging-hpa-test into main 2026-02-21 08:15:55 +01:00
Owner

Load test: verify staging can scale to quota limit without affecting prod

Load test: verify staging can scale to quota limit without affecting prod
claude added 1 commit 2026-02-21 08:14:32 +01:00
Enable HPA on staging for isolation load test
All checks were successful
AI Review / AI Code Review (pull_request) Successful in 1s
PR Checks / Validate & Security Scan (pull_request) Successful in 8s
f163ef8020
maxReplicas=4 (fills staging-quota limits.cpu=8, 4×2=8)

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
admin approved these changes 2026-02-21 08:14:32 +01:00
Author
Owner

AI Code Review

Обзор PR ниже:

Вопросы безопасности & надежности

  • ⚠️ HPA без PodDisruptionBudget — при масштабировании pod могут быть вытеснены без контроля. Нужно добавить PDB (minAvailable: 1 или maxUnavailable: 25%) для staging.

  • ⚠️ Отсутствует targetMemoryUtilizationPercentage — HPA только по CPU создает риск OOM-киллов. Добавить memory metric (например, 80%) или убедиться, что memory limits достаточно консервативны.

  • maxReplicas: 4 — хорошо, не будет перегрузки staging. Убедитесь, что ResourceQuota для staging допускает 4 pod × CPU request.

  • targetCPUUtilizationPercentage: 70 — разумное значение для тестирования нагрузки.

Рекомендации

  1. Перед мёржем:

    • Проверить ResourceQuota/LimitRange в staging namespace
    • Добавить PodDisruptionBudget в тот же файл
    • Убедиться, что мониторинг (Prometheus) правильно собирает metrics с pod
  2. После включения HPA:

    • Запустить load test в окне, когда prod стабилен
    • Проверить logs/metrics, что HPA корректно срабатывает (события in kubectl describe hpa)
    • Контролировать, что prod не был затронут (отдельная ResourceQuota?)
  3. Если staging и prod в одном кластере:

    • Убедиться в NetworkPolicy изоляции (dev/staging ↔ prod)
    • Проверить, что ResourceQuota prod не уменьшена случайно

Вердикт: PR технически работоспособен, но требует PDB + проверка квот перед мёржем. Иначе рискуете неконтролируемым вытеснением pod во время нагрузки.


Automated review by Claude Haiku | advisory, does not block merge

## AI Code Review Обзор PR ниже: ## Вопросы безопасности & надежности - ⚠️ **HPA без PodDisruptionBudget** — при масштабировании pod могут быть вытеснены без контроля. Нужно добавить PDB (minAvailable: 1 или maxUnavailable: 25%) для staging. - ⚠️ **Отсутствует targetMemoryUtilizationPercentage** — HPA только по CPU создает риск OOM-киллов. Добавить memory metric (например, 80%) или убедиться, что memory limits достаточно консервативны. - ✓ **maxReplicas: 4** — хорошо, не будет перегрузки staging. Убедитесь, что ResourceQuota для staging допускает 4 pod × CPU request. - ✓ **targetCPUUtilizationPercentage: 70** — разумное значение для тестирования нагрузки. ## Рекомендации 1. **Перед мёржем:** - Проверить ResourceQuota/LimitRange в staging namespace - Добавить PodDisruptionBudget в тот же файл - Убедиться, что мониторинг (Prometheus) правильно собирает metrics с pod 2. **После включения HPA:** - Запустить load test в окне, когда prod стабилен - Проверить logs/metrics, что HPA корректно срабатывает (события in `kubectl describe hpa`) - Контролировать, что prod не был затронут (отдельная ResourceQuota?) 3. **Если staging и prod в одном кластере:** - Убедиться в NetworkPolicy изоляции (dev/staging ↔ prod) - Проверить, что ResourceQuota prod не уменьшена случайно --- **Вердикт:** PR технически работоспособен, но **требует PDB + проверка квот перед мёржем**. Иначе рискуете неконтролируемым вытеснением pod во время нагрузки. --- _Automated review by Claude Haiku | advisory, does not block merge_
claude merged commit 1576d06e09 into main 2026-02-21 08:15:55 +01:00
Sign in to join this conversation.
No Reviewers
No Label
2 Participants
Notifications
Due Date
No due date set.
Dependencies

No dependencies set.

Reference: claude/k8s-apps#206
No description provided.