Какие задачи вы решали с помощью NGINX? Приведите пример конфигурации для Go-бэкенда.

Ответ

Да, я неоднократно настраивал NGINX для решения типовых задач в веб-разработке. Основные сценарии использования:

  1. Реверс-прокси (Reverse Proxy): Перенаправление запросов с порта 80/443 на внутренний порт Go-приложения (например, 8080). Это позволяет скрыть внутреннюю архитектуру и централизованно управлять запросами.
  2. Балансировка нагрузки (Load Balancing): Распределение трафика между несколькими экземплярами Go-приложения для повышения отказоустойчивости и производительности.
  3. Терминация SSL/TLS: Настройка HTTPS, обработка SSL-сертификатов на стороне NGINX, в то время как бэкенд-сервисы работают по незащищенному HTTP.
  4. Раздача статики и кеширование: NGINX очень эффективен для раздачи статических файлов (CSS, JS, изображения) и может кешировать ответы от бэкенда, снижая на него нагрузку.

Пример конфигурации: Реверс-прокси и балансировщик для Go-приложения

# Блок для балансировки нагрузки
upstream go_backend {
    # least_conn; # Стратегия: передавать запрос серверу с наименьшим числом активных соединений
    server 127.0.0.1:8080;
    server 127.0.0.1:8081;
}

server {
    listen 80;
    server_name example.com;

    # Перенаправляем весь HTTP трафик на HTTPS
    location / {
        return 301 https://$host$request_uri;
    }
}

server {
    listen 443 ssl;
    server_name example.com;

    # Настройки SSL (пути к сертификатам)
    # ssl_certificate /path/to/your/cert.pem;
    # ssl_certificate_key /path/to/your/key.pem;

    location / {
        proxy_pass http://go_backend;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto $scheme;
    }

    # Пример раздачи статики напрямую через NGINX
    location /static/ {
        alias /var/www/app/static/;
    }
}