Login Logout

Howto Nginx

Nginx est un serveur HTTP léger, le deuxième plus utilisé sur le web derrière Apache.

Installation

# apt install nginx-full

$ /usr/sbin/nginx -V
nginx version: nginx/1.22.1
built with OpenSSL 3.0.8 7 Feb 2023 (running with OpenSSL 3.0.9 30 May 2023)
TLS SNI support enabled
configure arguments: --with-cc-opt='-g -O2 […]

# systemctl status nginx
● nginx.service - A high performance web server and a reverse proxy server
     Loaded: loaded (/lib/systemd/system/nginx.service; enabled; preset: enabled)
     Active: active (running) since Fri 2023-07-28 21:43:35 CEST; 1s ago
       Docs: man:nginx(8)
    Process: 38051 ExecStartPre=/usr/sbin/nginx -t -q -g daemon on; master_process on; (code=exited, status=0/SUCCESS)
    Process: 38052 ExecStart=/usr/sbin/nginx -g daemon on; master_process on; (code=exited, status=0/SUCCESS)
   Main PID: 38053 (nginx)
      Tasks: 2 (limit: 2356)
     Memory: 2.2M
        CPU: 34ms
     CGroup: /system.slice/nginx.service
             ├─38053 "nginx: master process /usr/sbin/nginx -g daemon on; master_process on;"
             └─38054 "nginx: worker process"

Configuration de base

Fichiers de configuration :

/etc/nginx/
├── conf.d
├── fastcgi.conf
├── fastcgi_params
├── koi-utf
├── koi-win
├── mime.types
├── modules-available
├── modules-enabled
│   ├── 50-mod-http-auth-pam.conf -> /usr/share/nginx/modules-available/mod-http-auth-pam.conf
│   ├── 50-mod-http-dav-ext.conf -> /usr/share/nginx/modules-available/mod-http-dav-ext.conf
│   ├── 50-mod-http-echo.conf -> /usr/share/nginx/modules-available/mod-http-echo.conf
│   ├── 50-mod-http-geoip.conf -> /usr/share/nginx/modules-available/mod-http-geoip.conf
│   ├── 50-mod-http-image-filter.conf -> /usr/share/nginx/modules-available/mod-http-image-filter.conf
│   ├── 50-mod-http-subs-filter.conf -> /usr/share/nginx/modules-available/mod-http-subs-filter.conf
│   ├── 50-mod-http-upstream-fair.conf -> /usr/share/nginx/modules-available/mod-http-upstream-fair.conf
│   ├── 50-mod-http-xslt-filter.conf -> /usr/share/nginx/modules-available/mod-http-xslt-filter.conf
│   ├── 50-mod-mail.conf -> /usr/share/nginx/modules-available/mod-mail.conf
│   └── 50-mod-stream.conf -> /usr/share/nginx/modules-available/mod-stream.conf
├── nginx.conf
├── proxy_params
├── scgi_params
├── sites-available
│   └── default
├── sites-enabled
│   └── default -> /etc/nginx/sites-available/default
├── snippets
│   ├── fastcgi-php.conf
│   └── snakeoil.conf
├── uwsgi_params
└── win-utf

La configuration principale se fait dans le fichier /etc/nginx/nginx.conf qui inclut plusieurs fichiers séparés :

user www-data;
worker_processes auto;
pid /run/nginx.pid;
include /etc/nginx/modules-enabled/*.conf;

events {
    use epoll;
    worker_connections 10240;
}

http {
    sendfile on;
    tcp_nopush on;
    tcp_nodelay on;
    keepalive_timeout 65;
    types_hash_max_size 2048;
    include /etc/nginx/mime.types;
    default_type application/octet-stream;
    ssl_prefer_server_ciphers on;
    ssl_dhparam /etc/ssl/dhparam.pem;
    access_log /var/log/nginx/access.log;
    error_log /var/log/nginx/error.log;
    gzip on;
    gzip_disable "msie6";
    include /etc/nginx/conf.d/*.conf;
    include /etc/nginx/sites-enabled/*;
}

Le fichier /etc/nginx/conf.d/z-evolinux-defaults.conf contient nos optimisations basiques :

server_tokens off;
server_names_hash_max_size 512;
server_names_hash_bucket_size 128;
server_name_in_redirect off;

index index.html;

Le fichier nginx/snippets/evolinux_server_custom contient notre configuration à inclure dans chaque bloc “server” :

location ~ /\.(inc|git|bak|env) {
  # We don't want to let the client know a file exist on the server,
  # so we return 404 "Not found" instead of 403 "Forbidden".
  return 404;
}

Le fichier /etc/nginx/snippets/ipaddr_whitelist centralise les adresses IP privilégiées, on peut ainsi utiliser include /etc/nginx/snippets/ipaddr_whitelist; à différents endroits dans la configuration de Nginx sans dupliquer ces adresses :

allow 192.0.2.42;

Valider la configuration

Avant de redémarrer le serveur, vérifier que vous n’ayez pas introduit des erreurs de syntaxes dans la configuration :

# nginx -t -c /etc/nginx/nginx.conf
configuration file /etc/nginx/nginx.conf test is successful

Gestion des droits

Par défaut, Nginx est configuré pour se lancer avec l’utilisateur www-data et le groupe du même nom.

Les ressources web doivent donc être accessibles en lecture pour le groupe www-data.

De même, les fichiers ou répertoire (logs…) dans lesquels Nginx a besoin d’écrire doivent être accessibles en écriture pour le groupe www-data.

Idéalement, on crée un compte Unix par vhost.

  • Si l’utilisateur existe déjà, ajouter l’utilisateur www-data dans le groupe de l’utilisateur dédié :
# adduser www-data <USER_GROUP>
  • Si l’utilisateur n’existe pas encore et qu’il sera dédié uniquement au vhost, utiliser www-data comme groupe primaire :
# adduser --ingroup www-data <USER>

Note : adduser doit avoir la configuration suivante :

# grep -E '^DIR_MODE' /etc/adduser.conf
DIR_MODE=0750

À moins de lancer plusieurs instances de Nginx avec systemd, on ne peut pas compartimenter des comptes web au niveau de Nginx, comme c’est par exemple le cas avec le module Apache ITK (directive AssignUserID).

VirtualHost

De façon similaire à Apache, on peut avoir plusieurs VirtualHost, c’est-à-dire plusieurs sites sur un même serveur HTTP.

Voici un exemple de VirtualHost via /etc/nginx/sites-available/example :

server {
    listen 80;
    listen [::]:80;
    listen 443 ssl;
    listen [::]:443 ssl;
    ssl_certificate /etc/ssl/certs/www.example.com.chain.pem;
    ssl_certificate_key /etc/ssl/private/www.example.com.key;

    server_name www.example.com example.com;

    root /home/example/www;

    location / {
        try_files $uri $uri/ =404;
    }

    location /images/ {
        root /home/example/images;
    }

    location ~ \.css$ {
        root /home/example/css;
    }

    access_log /var/log/access.log;
    access_log /var/log/example.access.log;
    error_log  /var/log/example.error.log;
}

Note : Dans cet exemple, il faut que /home/example/www soit accessible à www-data. Voir Gestion des droits

Directives location

Nginx examine d’abord les directives location avec des expressions régulières, puis les plus longues, qui sont évaluées avant les plus courtes.

Dans l’exemple ci-dessus, Nginx vérifie d’abord si la ressource demandée se termine par .css puis si elle commence par /images/, puis au final la directive location /.

alias

Les alias permettent de faire servir du contenu qui ne serait pas stocké dans un répertoire servi par nginx (/var/www/nginx par exemple).

location /crossdomain.xml {
    alias /foo/bar/fichier.xml;
}

Quelle différence entre la directive alias et root ?

alias redirige la requête initiale sans le chemin complet tandis que la directive root passe en paramètre le chemin complet.

Exemple :

location /hello/ {
    alias /spool/images/;
}

Avec alias, pour une requête sur /hello/world.png Nginx renverra le contenu de /spool/images/world.png tandis qu’avec la directive root, elle renverra le contenu de /spool/images/hello/world.png.

proxy_pass

Nginx peut aussi agir comme Reverse Proxy. On utilisera alors la directive proxy_pass pour définir le serveur vers lequel la requête est envoyée. On peut aussi définir des headers qui seront ajoutés à la requête quand elle est transmise (Notamment, l’IP du visiteur, car le serveur derrière le proxy ne peut voir l’IP de celui-ci)

location / {
    proxy_pass http://127.0.0.1:8080;
    proxy_set_header Host $host;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header X-Forwarded-Proto $scheme;
}

Il est aussi possible de déplacer les infos sur l’upstream vers un bloc de configuration du même nom en dehors du bloc server. Cela peut permettre notamment de spécifier plusieurs backends (cas load-balancer) ou un backend de secours.

Si upstream ne prends pas en compte ces header, il est possible de modifier les redirections qu’il renvoit pour éviter qu’il ne redirige d’une URL avec du HTTPS vers une sans, en utilisant proxy_redirect

location / {
    proxy_pass http://backend;
    proxy_redirect http:// $scheme://;
}

La documentation de Nginx liste tous les paramètres utilisables dans ce contexte. Par exemple :

upstream backend {
    server 127.0.0.1:8080;
}

[...]

location / {
    proxy_pass http://backend;
    proxy_set_header Host $host;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header X-Forwarded-Proto $scheme;
}

Il est important de noter que pour que la directive keepalive dans la définition de l’upstream soit utile il faut configurer les connexions proxy correctement. Notamment, pour un proxy http, il faut proxy_http_version 1.1 et proxy_set_header Connection "".

Timeout du proxy_pass

Ce module propose plusieurs variables permettant de configurer des timeouts. Les plus utiles sont :

  • proxy_read_timeout : timeout de la réception de la réponse du backend applicatif vers Nginx.
  • proxy_send_timeout : timeout d’envoi de la requête de Nginx vers le backend applicatif.

Les valeurs par défaut sont :

proxy_read_timeout 60s;
proxy_send_timeout 60s;

rewrite

http://nginx.org/en/docs/http/ngx_http_rewrite_module.html#rewrite

On peut faire des ré-écritures basiques (moins puissant que les Rewrite Rules d’Apache), par exemple :

rewrite ^regex$ /vers-cette/uri.exemple.php {last,break,permanent,redirect};

real_ip_header

Si les requêtes viennent d’un proxy HTTP (Varnish par exemple), il faut substituer l’adresse IP d’origine par celle contenue dans le header X-Forwarded-for. Cela se fait ainsi en s’assurant d’avoir le paquet nginx-extras installé :

set_real_ip_from 192.0.2.10;  # IP to trust
set_real_ip_from 10.0.0.0/24; # CIDR to trust
real_ip_recursive on;
real_ip_header X-Forwarded-For;

Cela permet ensuite d’appliquer ensuite des restrictions d’adresses IP par exemple.

Authentification HTTP

http://wiki.nginx.org/HttpAuthBasicModule

Pour configurer une authentification HTTP, on ajoutera les lignes suivantes au sein d’une directive location :

auth_basic            "Restricted";
auth_basic_user_file  /home/foo/.htpasswd;

Attention, si l’on ne souhaite protéger tout le site (location /), il faudra se méfier et bien ajuster la configuration pour s’assurer que tous les fichiers sont protégés (notamment les fichiers PHP par exemple).

Le fichier .htpasswd étant généré avec l’utilitaire htpasswd (comme pour Apache). Bien vérifier les droits en lecture pour l’utilisateur qui fait tourner Nginx (www-data en général).

Redirection https

server {
    listen 80;
    server_name www.example.com example.com;
    #include /etc/nginx/snippets/letsencrypt.conf;
    location / {
        return 301 https://www.example.com$request_uri;
    }
}

server {
    listen 443 ssl;
    server_name example.com;

    return 301 https://www.example.com$request_uri;

    […]
}

server {
    listen 443 ssl;
    server_name www.example.com;

    […]
}

Ou globalement, de manière générale, on peut faire :

if ($scheme = http) {
        return 301 https://$server_name$request_uri;
}

Si on vhost répondant à plusieurs domaines (plusieurs server_name) et qu’on ne veux pas forcer la redirection vers l’un des domaines il faut utiliser la variable $host plutot que $server_name. Ce qui donne :

if ($scheme = http) {
        return 301 https://$host$request_uri;
}

Si on utilise Let’s Encrypt, on ne souhaite pas faire de redirection pour les requêtes de challenge http :

server {
    listen 80;
    server_name www.example.com example.com;

    location ~ /.well-known/acme-challenge {
        alias /var/lib/letsencrypt/;
        try_files $uri =404;
        auth_basic off;
        allow all;
    }
    location / {
        return 301 https://www.example.com$request_uri;
    }
}

Bloquer selon adresse IP

Le but est de bloquer par adresse IP et de rediriger vers une page « Vous êtes bloqués ».

# Blacklisting
geo $blacklist {
    default 0;
    192.0.2.42/32 1;
}

server {
[…]

    # Blacklisting
    if ($blacklist) {
            rewrite ^ http://donthackmeplz.fr;
    }

Fermer la connexion sans envoyer de réponse

Dans certains cas, pour protéger le serveur par exemple, on peut être amené à vouloir fermer directement certaines connexions, sans même donner de réponse. Cela peut servir notamment lors d’un DDoS pour bloquer certaines parties d’un site qui peuvent être lourdes (comme une page de recherche) ou certains clients que l’on juge malicieux.

Il suffit alors d’utiliser return 444. Exemple :

location /search {
    return 444;
}

Cross-domain pour les fonts

location ~* \.(eot|ttf|woff)$ {
    add_header Access-Control-Allow-Origin *;
}

http_user_agent

On peut définir des actions en fonction du User-Agent :

if ($http_user_agent ~* (DotBot|Cliqzbot|AhrefsBot|SemrushBot)) {
    return 404;
}

Note : Si l’on doit bloquer un User-Agent avec des espaces dans son nom, une solution est d’échapper les espaces :

if ($http_user_agent ~* (DotBot|Cliqzbot|AhrefsBot|SemrushBot|Go\ 1\.1\ package\ http)) {
   return 404;
}

more_set_headers

Si l’on veut manipuler les headers HTTP, on s’assure d’avoir le paquet nginx-extras installé, puis on peut utiliser la directive more_set_headers. Exemples :

more_set_headers 'Server: ';
more_set_headers 'Server: My Server v42';

PHP-FPM

Vous devez installer PHP-FPM et configurer un pool FPM pour être accessible sur une socket du type :

[foo]
listen = /run/php/php-fpm.foo.sock
listen.owner = www-data
listen.group = www-data

user = foo
group = foo

et enfin configurer un VirtualHost incluant une directive du type :

    location ~ \.php$ {
        fastcgi_pass   unix:/run/php/php-fpm.foo.sock;
        include snippets/fastcgi-php.conf;
    }

Nginx apporte un snippet de configuration dans /etc/nginx/snippets/fastcgi-php.conf qui permet de préconfigurer les variables nécessaires pour la communication fastcgi entre Nginx et FPM

Plus de détails sur Configuration FPM avec Nginx.

FPM et Alias Nginx

Le réglage par défaut de fast-cgi dans Nginx ne colle pas très bien entre l’utilisation de la directive alias dans un bloc location. On obitient une erreur File not found. venant de FPM, car la variable SCRIPT_FILENAME est donnée relativement au root du vhost.

Une alternative possible est de définir le bloc location de la manière suivante, en redéfinissant l’appel à FPM avec la bonne valeur de SCRIPT_FILENAME

    location /phpmyadmin-3615/ {
        alias /usr/share/phpmyadmin/;
        index index.php;

        location ~ \.php$ {
            fastcgi_pass   unix:/run/php/php8.2-fpm.sock;
            include snippets/fastcgi-php.conf;
            fastcgi_param SCRIPT_FILENAME $request_filename;
        }
    }

Mode maintenance

Il est possible de déclencher très facilement un mode maintenance avec une page spécifique.

En plaçant cette ligne dans votre bloc location, il suffira que le fichier maintenance.html existe pour que Nginx renvoie systématiquement une erreur 503.

location / {
  if (-f /home/example/www/maintenance.html) { return 503; }
  […]
}

On personnalise alors la page présentée en cas d’erreur 503, en servant cette même page maintenance.html

error_page 503 @maintenance;
location @maintenance {
  root /home/example/www;
  rewrite ^(.*)$ /maintenance.html break;
}

En situation normale, on peut avoir le fichier /home/example/www/_maintenance.html.

Pour activer le mode maintenance (pas besoin de recharger Nginx) :

$ mv /home/example/www/{_,}maintenance.html

Pour désactiver le mode maintenance (pas besoin de recharger Nginx) :

$ mv /home/example/www/{,_}maintenance.html

Favicon en cache

Pour favoriser la mise en cache des “favicon” il est possible d’ajouter cet extrait dans un bloc “server” :

server {
[…]
    location ~* favicon\.(ico|gif|png)$ {
        expires 30d;
        add_header Pragma public;
        add_header Cache-Control public;
        access_log off;
    }
[…]
}

Les fichiers favicon.ico, favicon.png et favicon.gif seront candidats à la mise en cache pendant 30 jours et aucun log d’accès ne sera inscrit.

GZIP

Afin d’activer la compression GZIP, nous conseillons d’ajouter la configuration suivante :

gzip on;
#gzip_disable "msie6";
gzip_vary on;
gzip_proxied any;
gzip_comp_level 6;
gzip_types text/plain text/css text/xml text/javascript application/x-javascript application/javascript application/ecmascript application/xml application/xml+rss application/json image/svg+xml

Note : il faut bien enlever text/html de la liste gzip_types car ça donne une erreur pour doublon de valeur.

Monitoring

log2mail

Pour être alerté en cas d’erreur grave, on ajoute la configuration suivante au logiciel log2mail :

file = /var/log/nginx/error.log
  pattern = "[emerg]"
  mailto = alert@example.com
# adduser log2mail adm
# servicectl restart log2mail

apachetop

apachetop peut servir aussi pour Nginx, voir HowtoApache#apachetop

Munin

Ajouter dans la configuration Nginx :

location /nginx_status_NNNN {
    stub_status on;
    allow 127.0.0.1;
    allow 192.0.2.42;
    deny all;
}

Puis dans la configuration Munin :

[nginx*]
env.url http://127.0.0.1/nginx_status_NNNN

On peut ainsi activer les plugins nginx_request et nginx_status :

# cd /etc/munin/plugins
# ln -s /usr/share/munin/plugins/nginx_request nginx_request
# ln -s /usr/share/munin/plugins/nginx_status nginx_status

Les Websocket

Ce protocole permet aux applications qui prennent en charge la communication bidirectionnelle en temps réel entre les clients et les serveurs.

Dans un vhost gérant l’application, il y a besoin de rajouter une map en dehors du block server pour que les en-têtes de connections soient correctement défini :

map $http_upgrade $connection_upgrade {
    default upgrade;
    '' close;
}

l’ajout de ces directives sont nécessaires :

server {
   [...]

   location/ {
      [...]
      proxy_set_header Upgrade $http_upgrade;
      proxy_set_header Connection $connection_upgrade;
}

Optimisation

Worker Connections et Keep Alive

Il s’agit du nombre de connexions qu’un worker process peut gérer. Le nombre de connexions multiplié par le nombre de worker processes détermine le nombre total de connexions qu’il est possible de gérer simultanément. Cependant un autre paramètre intervient, il s’agit du keep-alive time-out qui détermine la durée d’une connexion d’un client : lorsqu’un client se connecte au site, la connexion établie n’est pas fermée tout de suite, cela permet de faire passer plusieurs requêtes dans une seule connexion. La connexion sera fermée après le timeout. Il faut donc ajuster ces 2 paramètres en fonction de votre site (astuce : surveiller ses courbes Munin puis ajuster ces paramètres). Une configuration classique est de mettre 10240 en worker_connections et entre 10 et 20 secondes pour keepalive_timeout.

events {
    worker_connections  10240;
}
http {
    keepalive_timeout  15;
[…]

Si l’on souhaite désactiver complètement le Keep Alive, on mettra keepalive_timeout 0;

Diminuer les I/O

Afin d’éviter un goulot d’étranglement sur les I/O, on peut via certains paramètres réduire les accès disques, et donc optimiser l’I/O pour servir le contenu web.

Access Logs

À chaque requête nginx écrit dans le fichier d’access logs. Plus il y a de requêtes plus cela est coûteux en accès disque. Il est donc recommandé d’écrire les access logs dans la mémoire RAM (via une ramdisk par exemple), et de faire un logrotate sur le disque une fois une certaine taille atteinte.

Error Logs

Ne pas oublier de désactiver le mode verbose/debug lorsque le serveur est en production…

Open File Cache

Détermine le nombre de fichiers ouverts à mettre en cache.

Buffers

Si les tampons mémoire ne sont pas assez grands, nginx va devoir écrire dans des tampons temporaires sur le disque dur ce qui augmente les accès disques.

La directive client_body_buffer_size détermine la taille du buffer du champ body d’une requête d’un client. Selon cas il peut être intéressant de l’accorder avec une taille en concordance avec vos formulaires, typiquement si vous avez des gros formulaires avec des données à uploader il faudra augmenter le buffer.

La directive fastcgi_buffers et proxy_buffers sont les buffers associés à php/cgi/… Le concept est le même que le buffer pour les clients. Si les tampons sont trop petits, les données vont être temporairement écrite sur le disque.

Activer la compression gzip

Cette directive permet au visiteur de télécharger des données compressées par le serveur, permettant d’alléger la bande passante. Il est recommandé de mettre gzip_comp_level à 4 ou 5.

On peut aussi servir directement des fichiers déjà compressés : voir http://wiki.nginx.org/HttpGzipStaticModule

Augmenter le nombre maximum de descripteur de fichiers

L’astuce consiste à créer un override systemd de l’unité nginx.

# mkdir -p /lib/systemd/system/nginx.service.d
# cat << EOT > /lib/systemd/system/nginx.service.d/limitnofile
[Service]
LimitNOFILE=16384
EOT
# systemctl daemon-reload
### Mettre la directive worker_rlimit_nofile 16384; dans les premières lignes de nginx.conf
# systemctl restart nginx

Limiter le taux de requêtes par IP

On peut définir un « taux » maximum de connexions par IP, ainsi qu’une queue pour les requêtes qui dépassent cette limite.

Doc : https://www.nginx.com/blog/rate-limiting-nginx/

Ajouter dans /etc/nginx/conf.d/zzz-evolinux-custom.conf :

# Define the parameters for rate limitation (10Mo cache memory, max 1 request/100ms for an IP)
limit_req_zone $binary_remote_addr zone=mylimit:10m rate=10r/s;

Ajouter dans le bloc server des vhosts concernés :

# Define the rate limit, queue up the resquests to 20 if the rate limit is exceeded, nodelay answers immediatement the requests in the rate limit
limit_req zone=mylimit burst=20 nodelay;

Attention : En fonction du site, une requête dans le navigateur peut impliquer des dizaines de requêtes au serveur (pour le chargement des ressources). Le souci est que, par exemple, limiter à 10 requêtes par seconde et par IP, permet quand même à un bot agressif de faire 36 000 requêtes par heure… Il est souvent préférable d’utiliser Fail2Ban.

Vous obtiendrez dans le error.log des messages du type :

[error] 23699#23699: *148813 limiting requests, excess: 2.744 by zone "mylimit", client: 192.0.2.42...

SSL

listen 0.0.0.0:443 ssl;
listen [::]:443 ssl;
ssl_certificate /etc/ssl/certs/ssl.example.com.crt;
ssl_certificate_key /etc/ssl/private/ssl.example.com.key;

Attention, ssl_certificate doit contenir toute la chaîne de certification, donc il sera nécessaire de concaténer les certificats. Par exemple, on ajoutera le certificat intermédiaire via :

# cd /tmp
# wget https://www.startssl.com/certs/class1/sha2/pem/sub.class1.server.sha2.ca.pem
# cat sub.class1.server.sha2.ca.pem >> /etc/ssl/certs/ssl.example.com.crt

Pour une configuration plus avancée, voir HowtoSSL ou HowtoLetsEncrypt

HTTP/2

En version 1.10, la plupart des fonctionnalités du protocole est supportée par Nginx.

Note : une version limitée du protocole était déjà supportée depuis Nginx 1.9.5.

Il faut alors activer le protocole dans la directive listen. Sachant que les navigateurs courants ne supportent HTTP/2 que pour des connexions sécurisées, on activera toujours le SSL/TLS. Il est également nécessaire de désactiver le protocole SPDY s’il était utilisé :

listen 0.0.0.0:443 ssl http2;

Cas pratiques

Fail-over d’un backend principal pour proxy_pass

Dans certains cas, on peut utiliser Nginx pour faire la décharge SSL/TLS avant d’envoyer les requêtes vers un Varnish avec proxy_pass.

Pour ne pas perturber le site lors d’un redémarrage ou rechargement de Varnish, on peut par exemple configurer Nginx pour renvoyer directement les requêtes vers le service caché par Varnish si le service de cache n’est pas disponible.

Il suffit d’utiliser le mot clé backup dans la définition du serveur dans l’objet upstream :

upstream varnish_or_direct_backend {
    server 127.0.0.1:8080;         # Varnish
    server 192.0.2.2:8081 backup;  # Service caché par Varnish
}

[...]

location / {
    proxy_pass http://varnish_or_direct_backend;
    proxy_set_header Host $host;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header X-Forwarded-Proto $scheme;
}

RTMP

https://trac.ffmpeg.org/wiki/StreamingGuide https://github.com/arut/nginx-rtmp-module/wiki/Directives

# apt install libnginx-mod-rtmp

Configuration à ajouter à nginx.conf :

rtmp {
    server {
         listen 1935;
         application live {
             live on;
         }
    }
}

Publication d’un flux RTMP :

$ ffmpeg -thread_queue_size 0 -f v4l2 -i /dev/video0 -f flv "rtmp://127.0.0.1/live/foo"

Lecture d’un flux :

$ ffplay -probesize 32 -sync ext "rtmp://127.0.0.1/live/foo"

Protocol PROXY

L’utilisation du protocol PROXY permet de faciliter la communication et la traçabilité lorsque des proxy sont impliqués.

À consulter :

Nginx en aval

Il faut écouter en acceptant le protocol PROXY, et indiquer la/les IP des proxy de confiance :

http {
    #...
    server {
        listen 80   proxy_protocol;
        listen 443  ssl proxy_protocol;
        #...
        set_real_ip_from 192.168.1.0/32;
        real_ip_header proxy_protocol;
    }
}

Nginx en amont

TODO: aire une synthèse de la doc officielle

FAQ

Configuration en ligne

Un site permet de générer sa configuration Nginx en ligne : https://nginxconfig.io/

Page personnalisée lors code erreur HTTP

On peut avoir une page personnalisée selon le code d’erreur HTTP renvoyé.

location /YYYYYY/ {
    alias /var/wwwerror/;
    index page.html;
}

error_page 403 /YYYYYY/;

Appliquer des conditions sur des en-têtes

Il est possible de configurer des comportements conditionnés par le contexte d’une requête. Voici quelques exemples :

# rejetter toutes les méthodes autres que POST
if ($request_method != "POST" ) {
    return 405;
}
# rejetter les requêtes qui n'ont pas une valeur spécifique pour un en-tête personnalisé
# NB : les variables "$http_x_" sont automatiquement remplies avec les en-têtes personnalisés.
if ($http_x_requested_with != "XMLHttpRequest" ) {
    return 403;
}
# rejeter les requêtes qui ne sont pas du JSON
if ($content_type != "application/json") {
    return 403;
}

Attention toutefois à l’utilisation de if dans un bloc location : IfIsEvil. Cela peut avir des comportements inattendus.

Comment prononcer Nginx ?

C’est la première question de la FAQ officielle du projet. Pour les francophones, voilà notre astuce :

  • D’abord le N se prononce tout seul, comme dans « haine ».
  • Puis gin, comme dans « imagine », ou « j’ai enfilé mon jean ».
  • Et enfin x, comme dans « j’habite à Aix ».

.htaccess ?

Nginx ne gère pas les fichiers .htaccess. Si vous devez utiliser des fichiers .htaccess, utilisez Apache.

Erreurs diverses

https://www.nginx.com/resources/wiki/start/topics/tutorials/config_pitfalls/

Hash maps non prises en compte

Il est posisble de créer des “hash map” (cf. ngx_http_map_module) pour facilement cérer des variables utilisables dans des blocks, des logs…

Sauf que ces maps ne sont pas restreintes à un bloc serveur (VHost), mais appliquées à tout le bloc http. Il ne faut donc pas donner le même nom à 2 maps, au risque d’avoir des conflits difficiles à débugger.

Bloquer l’acces au dépot Git

Pour bloquer l’acces à aux données d’un dépot Git, dans un dossier servit par Nginx, il faut rajouter le code suivant dans un contexte server, location ou if :

location ~ /\.git {
  return 404;
}

Too many open files

Si des erreurs “Too many open files” sont retournées par nginx il faut augmenter le nombre maximum de descripteur.

Signification des motifs de correspondance pour le bloc « location »

La documentation officielle présente les modificateurs associés aux motifs de correspondance des chemins pour les URLs.

  • aucun : sans modificateur dans un bloc location, l’URI indiquée sera mise en correspondance avec le début de l’URI demandée.
  • = : le signe égal est utilisé pour faire correspondre exactement l’URI indiquée et l’URI demandée.
  • ~ : le tilde est utilisé pour faire correspondre à l’aide d’une expression rationnelle non sensible à la casse l’URI indiquée et l’URI demandée.
  • ~* : le tilde suivi d’une astérisque est utilisé pour faire correspondre à l’aide d’une expression rationnelle sensible à la casse l’URI indiquée et l’URI demandée.
  • ^~ : le caret suivi d’un tilde est utilisé pour faire la plus grande correspondance sans expression rationnelle entre l’URI indiquée et l’URI demandée. Si l’URI demandée correspond, aucune autre tentative de correspondance n’aura lieu.

Code 413 Request Entity Too Large

Les logs de Nginx devraient indiquer : client intended to send too large body: 2718281 bytes. Il faut ajuster la directive client_max_body_size. Par exemple :

server {
    [...]

    client_max_body_size 4m;
}

if is evil

Nginx conseille de minimiser l’utilisation de if autant que possible :

https://www.nginx.com/resources/wiki/start/topics/depth/ifisevil/