Tak, oczywiście jest to możliwe w NGINX!
Co możesz zrobić, to wdrożyć następujący DFA :
Zaimplementuj ograniczenie szybkości, oparte na $http_referer
ewentualnym użyciu wyrażeń regularnych poprzez a w map
celu normalizacji wartości. Po przekroczeniu limitu pojawia się strona błędu wewnętrznego, którą można przechwycić przez error_page
moduł obsługi zgodnie z powiązanym pytaniem , przechodząc do nowej lokalizacji wewnętrznej jako przekierowanie wewnętrzne (niewidoczne dla klienta).
W powyższej lokalizacji dla przekroczonych limitów wykonujesz żądanie alertu, pozwalając zewnętrznej logice wykonać powiadomienie; to żądanie jest następnie buforowane, zapewniając, że otrzymasz tylko 1 unikalne żądanie w danym oknie czasowym.
Złap kod stanu HTTP z poprzedniego żądania (zwracając kod stanu ≥ 300 i używając proxy_intercept_errors on
lub, alternatywnie, skorzystaj z domyślnie niezbudowanego auth_request
lub add_after_body
zrób „bezpłatne” żądanie) i wypełnij pierwotne żądanie, jakby poprzedni krok nie był zaangażowany. Pamiętaj, że aby error_page
to zadziałało , musimy włączyć obsługę rekurencyjną .
Oto mój PoC i MVP, również na https://github.com/cnst/StackOverflow.cnst.nginx.conf/blob/master/sf.432636.detecting-slashdot-effect-in-nginx.conf :
limit_req_zone $http_referer zone=slash:10m rate=1r/m; # XXX: how many req/minute?
server {
listen 2636;
location / {
limit_req zone=slash nodelay;
#limit_req_status 429; #nginx 1.3.15
#error_page 429 = @dot;
error_page 503 = @dot;
proxy_pass http://localhost:2635;
# an outright `return 200` has a higher precedence over the limit
}
recursive_error_pages on;
location @dot {
proxy_pass http://127.0.0.1:2637/?ref=$http_referer;
# if you don't have `resolver`, no URI modification is allowed:
#proxy_pass http://localhost:2637;
proxy_intercept_errors on;
error_page 429 = @slash;
}
location @slash {
# XXX: placeholder for your content:
return 200 "$uri: we're too fast!\n";
}
}
server {
listen 2635;
# XXX: placeholder for your content:
return 200 "$uri: going steady\n";
}
proxy_cache_path /tmp/nginx/slashdotted inactive=1h
max_size=64m keys_zone=slashdotted:10m;
server {
# we need to flip the 200 status into the one >=300, so that
# we can then catch it through proxy_intercept_errors above
listen 2637;
error_page 429 @/.;
return 429;
location @/. {
proxy_cache slashdotted;
proxy_cache_valid 200 60s; # XXX: how often to get notifications?
proxy_pass http://localhost:2638;
}
}
server {
# IRL this would be an actual script, or
# a proxy_pass redirect to an HTTP to SMS or SMTP gateway
listen 2638;
return 200 authorities_alerted\n;
}
Pamiętaj, że działa to zgodnie z oczekiwaniami:
% sh -c 'rm /tmp/slashdotted.nginx/*; mkdir /tmp/slashdotted.nginx; nginx -s reload; for i in 1 2 3; do curl -H "Referer: test" localhost:2636; sleep 2; done; tail /var/log/nginx/access.log'
/: going steady
/: we're too fast!
/: we're too fast!
127.0.0.1 - - [26/Aug/2017:02:05:49 +0200] "GET / HTTP/1.1" 200 16 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:49 +0200] "GET / HTTP/1.0" 200 16 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:51 +0200] "GET / HTTP/1.1" 200 19 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:51 +0200] "GET /?ref=test HTTP/1.0" 200 20 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:51 +0200] "GET /?ref=test HTTP/1.0" 429 20 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:53 +0200] "GET / HTTP/1.1" 200 19 "test" "curl/7.26.0"
127.0.0.1 - - [26/Aug/2017:02:05:53 +0200] "GET /?ref=test HTTP/1.0" 429 20 "test" "curl/7.26.0"
%
Widać, że pierwsze żądanie skutkuje jednym trafieniem frontonu i jednego backendu, zgodnie z oczekiwaniami (musiałem dodać fikcyjny backend do lokalizacji, która ma limit_req
, ponieważ ponieważ return 200
miałby pierwszeństwo przed limitami, prawdziwy backend nie jest konieczny do końca obsługi).
Drugie żądanie jest powyżej limitu, więc wysyłamy alert (otrzymujemy 200
) i buforujemy go, zwracając 429
(jest to konieczne ze względu na wspomniane ograniczenie, że żądania poniżej 300 nie mogą zostać przechwycone), które są następnie przechwytywane przez interfejs , który jest teraz wolny i może robić, co chce.
Trzecie żądanie wciąż przekracza limit, ale już wysłaliśmy alert, więc żaden nowy alert nie zostanie wysłany.
Gotowy! Nie zapomnij rozwidlić go na GitHub!