Ответ
Было применено горизонтальное масштабирование (scaling out) на основе Kubernetes.
Ключевые компоненты:
- Kubernetes HPA (Horizontal Pod Autoscaler): Автоматическое масштабирование количества подов на основе метрик CPU и памяти.
- Шардирование и репликация БД: Для stateful-сервисов использовалась PostgreSQL с разделением данных (шардированием) и репликацией для чтения.
- Кэширование: Redis для снижения нагрузки на базу данных.
- Балансировка нагрузки: Nginx Ingress Controller для распределения входящего трафика.
Пример конфигурации HPA:
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: my-app-hpa
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: my-app
minReplicas: 2
maxReplicas: 10
metrics:
- type: Resource
resource:
name: cpu
target:
type: Utilization
averageUtilization: 70
Эта конфигурация поддерживает от 2 до 10 реплик приложения, увеличивая их число при загрузке CPU выше 70%.
Ответ 18+ 🔞
Ну слушай, вот история про то, как мы эту систему раздули, как шарик, чтобы она не лопнула от нагрузки. Горизонтальное масштабирование, блядь, или scaling out — короче, не один могучий сервер делаем, а кучу маленьких, и пусть они пашут стаей.
Что за колдунство применяли:
- Kubernetes HPA (Horizontal Pod Autoscaler): Это такой автомат, который, как собака на сене, следит за нашими подками. Как только процессоры начинают пыхтеть выше 70% или память жрать — он сразу новых подов наклепает, из воздуха, блядь. А как спадет нагрузка — лишних поубивает. Экономия, ёпта!
- Шардирование и репликация БД: С бедной PostgreSQL пришлось поиздеваться. Данные порезали на шарды (куски), чтобы не один слон тащил всё. А для чтения настроили реплик — пусть рабыни работают, основную-то базу не трогают. Stateful-сервисы, сука, головная боль.
- Кэширование: Поставили Redis. Ну, классика, блядь. Чтобы каждый раз в глубокую базу не лазить за одной и той же хуйней. Положили в быструю память — и все довольны, нагрузка на базу упала, как яйца в холодной воде.
- Балансировка нагрузки: Nginx Ingress Controller. Он стоит на входе, как швейцар в борделе, и решает, какую из десятка одинаковых девочек-подов отправить к клиенту. Чтобы одной не было жарко, а другим — холодно.
Вот, смотри, как эту магию в YAML запечатали. Код не трогаю, он святой:
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: my-app-hpa
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: my-app
minReplicas: 2
maxReplicas: 10
metrics:
- type: Resource
resource:
name: cpu
target:
type: Utilization
averageUtilization: 70
Перевожу с бюрократического: «Держи, дружок, от двух до десяти клонов своего приложения. Если средняя загрузка процессоров полезет за 70% — начинай плодиться, не стесняйся. А то сядем на 100%, и пиши пропало». Вот так-то, ёпта.