Nginx概述

Nginx 是开源、高性能、高可靠的 Web 和反向代理服务器,而且支持热部署,几乎可以做到 7 * 24 小时不间断运行,即使运行几个月也不需要重新启动,还能在不间断服务的情况下对软件版本进行热更新。性能是 Nginx 最重要的考量,其占用内存少、并发能力强、能支持高达 5w 个并发连接数,最重要的是, Nginx 是免费的并可以商业化,配置使用也比较简单。

官网对各个模块参数配置的解释说明网址:https://www.nginx.cn/doc/index.htmlNginx中文文档

Nginx特点

高并发、高性能;模块化架构使得它的扩展性非常好;异步非阻塞的事件驱动模型这点和 Node.js 相似;相对于其它服务器来说它可以连续几个月甚至更长而不需要重启服务器使得它具有高可靠性;热部署、平滑升级;完全开源,生态繁荣;

Nginx作用

Nginx 的最重要的几个使用场景:

静态资源服务,通过本地文件系统提供服务;反向代理服务,延伸出包括缓存、负载均衡等;API 服务, OpenResty ;

对于前端来说 Node.js 并不陌生, Nginx 和 Node.js 的很多理念类似, HTTP 服务器、事件驱动、异步非阻塞等,且 Nginx 的大部分功能使用 Node.js 也可以实现,但 Nginx 和 Node.js 并不冲突,都有自己擅长的领域。 Nginx 擅长于底层服务器端资源的处理(静态资源处理转发、反向代理,负载均衡等), Node.js 更擅长上层具体业务逻辑的处理,两者可以完美组合。

用一张图表示:

Nginx常用命令

nginx -s reload # 向主进程发送信号,重新加载配置文件,热重启

nginx -s reopen # 重启 Nginx

nginx -s stop # 快速关闭

nginx -s quit # 等待工作进程处理完成后关闭

nginx -T # 查看当前 Nginx 最终的配置

nginx -t # 检查配置是否有问题

Nginx核心配置

nginx.conf配置文件结构

Nginx 的典型配置示例:

# main段配置信息

user nginx; # 运行用户,默认即是nginx,可以不进行设置

worker_processes auto; # Nginx 进程数,一般设置为和 CPU 核数一样

error_log /var/log/nginx/error.log warn; # Nginx 的错误日志存放目录

pid /var/run/nginx.pid; # Nginx 服务启动时的 pid 存放位置

# events段配置信息

events {

use epoll; # 使用epoll的I/O模型(如果你不知道Nginx该使用哪种轮询方法,会自动选择一个最适合你操作系统的)

worker_connections 1024; # 每个进程允许最大并发数

}

# http段配置信息

# 配置使用最频繁的部分,代理、缓存、日志定义等绝大多数功能和第三方模块的配置都在这里设置

http {

# 设置日志模式

log_format main '$remote_addr - $remote_user [$time_local] "$request" '

'$status $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for"';

access_log /var/log/nginx/access.log main; # Nginx访问日志存放位置

sendfile on; # 开启高效传输模式

tcp_nopush on; # 减少网络报文段的数量

tcp_nodelay on;

keepalive_timeout 65; # 保持连接的时间,也叫超时时间,单位秒

types_hash_max_size 2048;

include /etc/nginx/mime.types; # 文件扩展名与类型映射表

default_type application/octet-stream; # 默认文件类型

include /etc/nginx/conf.d/*.conf; # 加载子配置项

# server段配置信息

server {

listen 80; # 配置监听的端口

server_name localhost; # 配置的域名

# location段配置信息

location / {

root /usr/share/nginx/html; # 网站根目录

index index.html index.htm; # 默认首页文件

deny 172.168.22.11; # 禁止访问的ip地址,可以为all

allow 172.168.33.44;# 允许访问的ip地址,可以为all

}

error_page 500 502 503 504 /50x.html; # 默认50x对应的访问页面

error_page 400 404 error.html; # 同上

}

}

main 全局配置,对全局生效;events 配置影响 Nginx 服务器与用户的网络连接;http 配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置;server 配置虚拟主机的相关参数,一个 http 块中可以有多个 server 块;location 用于配置匹配的 uri ;upstream 配置后端服务器具体地址,负载均衡配置不可或缺的部分;

用一张图清晰的展示它的层级结构:

nginx.conf 配置文件的语法规则:

配置文件由指令与指令块构成每条指令以 “;” 分号结尾,指令与参数间以空格符号分隔指令块以 {} 大括号将多条指令组织在一起include 语句允许组合多个配置文件以提升可维护性通过 # 符号添加注释,提高可读性通过 $ 符号使用变量部分指令的参数支持正则表达式,例如常用的 location 指令

配置文件 main 段核心参数

user

指定运行 Nginx 的 woker 子进程的属主和属组,其中组可以不指定。

#语法:user USERNAME [GROUP]

user nginx lion; # 用户是nginx;组是lion

pid

指定运行 Nginx master 主进程的 pid 文件存放路径。

pid /opt/nginx/logs/nginx.pid # master主进程的的pid存放在nginx.pid的文件

worker_rlimit_nofile_number

指定worker子进程可以打开的最大文件句柄数。

worker_rlimit_nofile 20480; # 可以理解成每个worker子进程的最大连接数量。

worker_rlimit_core

指定 worker 子进程异常终止后的 core 文件,用于记录分析问题。

worker_rlimit_core 50M; # 存放大小限制

working_directory /opt/nginx/tmp; # 存放目录

worker_processes_number

指定 Nginx 启动的 worker 子进程数量。

worker_processes 4; # 指定具体子进程数量

worker_processes auto; # 与当前cpu物理核心数一致

worker_cpu_affinity

将每个 worker 子进程与我们的 cpu 物理核心绑定。

worker_cpu_affinity 0001 0010 0100 1000; # 4个物理核心,4个worker子进程

将每个 worker 子进程与特定 CPU 物理核心绑定,优势在于,避免同一个 worker 子进程在不同的 CPU 核心上切换,缓存失效,降低性能。但其并不能真正的避免进程切换。

worker_priority

指定 worker 子进程的 nice 值,以调整运行 Nginx 的优先级,通常设定为负值,以优先调用 Nginx 。

worker_priority -10; # 120-10=110,110就是最终的优先级

Linux 默认进程的优先级值是120,值越小越优先; nice 值范围为 -20 到 +19 。

备注:应用的默认优先级值是120加上 nice 值等于它最终的值,这个值越小,优先级越高。

worker_shutdown_timeout

指定 worker 子进程优雅退出时的超时时间。

worker_shutdown_timeout 5s;

timer_resolution

worker 子进程内部使用的计时器精度,调整时间间隔越大,系统调用越少,有利于性能提升;反之,系统调用越多,性能下降。

timer_resolution 100ms;

在 Linux 系统中,用户需要获取计时器时需要向操作系统内核发送请求,有请求就必然会有开销,因此这个间隔越大开销就越小。

daemon

指定 Nginx 的运行方式,前台还是后台,前台用于调试,后台用于生产。

daemon off; # 默认是on,后台运行模式

配置文件 events 段核心参数

use

Nginx 使用何种事件驱动模型。

use method; # 不推荐配置它,让nginx自己选择

method 可选值为:select、poll、kqueue、epoll、/dev/poll、eventport

worker_connections

worker 子进程能够处理的最大并发连接数。

worker_connections 1024 # 每个子进程的最大连接数为1024

accept_mutex

是否打开负载均衡互斥锁。

accept_mutex on # 默认是off关闭的,这里推荐打开

server_name 指令

指定虚拟主机域名。

#语法:server_name name1 name2 name3

# 示例:

server_name www.nginx.com;

域名匹配的四种写法:

精确匹配: server_name http://www.nginx.com ;左侧通配: server_name *.http://nginx.com ;右侧统配: server_name www.nginx.* ;正则匹配: server_name ~^www\.nginx\.*$ ;

匹配优先级:精确匹配 > 左侧通配符匹配 > 右侧通配符匹配 > 正则表达式匹配

server_name 配置实例:

1、配置本地 DNS 解析 hosts

# 添加如下内容,其中 121.42.11.34 是阿里云服务器IP地址

121.42.11.34 www.nginx-test.com

121.42.11.34 mail.nginx-test.com

121.42.11.34 www.nginx-test.org

121.42.11.34 doc.nginx-test.com

121.42.11.34 www.nginx-test.cn

121.42.11.34 fe.nginx-test.club

注意:这里使用的是虚拟域名进行测试,因此需要配置本地 DNS 解析,如果使用阿里云上购买的域名,则需要在阿里云上设置好域名解析。

2、配置阿里云Nginx,vim /etc/nginx/nginx.conf

# 这里只列举了http端中的sever端配置

# 左匹配

server {

listen 80;

server_name *.nginx-test.com;

root /usr/share/nginx/html/nginx-test/left-match/;

location / {

index index.html;

}

}

# 正则匹配

server {

listen 80;

server_name ~^.*\.nginx-test\..*$;

root /usr/share/nginx/html/nginx-test/reg-match/;

location / {

index index.html;

}

}

# 右匹配

server {

listen 80;

server_name www.nginx-test.*;

root /usr/share/nginx/html/nginx-test/right-match/;

location / {

index index.html;

}

}

# 完全匹配

server {

listen 80;

server_name www.nginx-test.com;

root /usr/share/nginx/html/nginx-test/all-match/;

location / {

index index.html;

}

}

3、访问分析

当访问 http://www.nginx-test.com 时,都可以被匹配上,因此选择优先级最高的“完全匹配”;当访问 http://mail.nginx-test.com 时,会进行“左匹配”;当访问 http://www.nginx-test.org 时,会进行“右匹配”;当访问 http://doc.nginx-test.com 时,会进行“左匹配”;当访问 http://www.nginx-test.cn 时,会进行“右匹配”;当访问 fe.nginx-test.club 时,会进行“正则匹配”;

root

指定静态资源目录位置,它可以写在 http 、 server 、 location 等配置中。

#root path

#例如:

location /image {

root /opt/nginx/static;

}

#当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png

注意:root 会将定义路径与 URI 叠加, alias 则只取定义路径。

alias

它也是指定静态资源目录位置,它只能写在 location 中。

location /image {

alias /opt/nginx/static/image/;

}

#当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png

注意: 使用 alias 末尾一定要添加 / ,并且它只能位于 location 中。

location

配置路径。

location [ = | ~ | ~* | ^~ ] uri {

...

}

匹配规则:

= 精确匹配;~ 正则匹配,区分大小写;~* 正则匹配,不区分大小写;^~ 匹配到即停止搜索;

匹配优先级: = > ^~ > ~ > ~* > 不带任何字符。

实例:

server {

listen 80;

server_name www.nginx-test.com;

# 只有当访问 www.nginx-test.com/match_all/ 时才会匹配到/usr/share/nginx/html/match_all/index.html

location = /match_all/ {

root /usr/share/nginx/html

index index.html

}

# 当访问 www.nginx-test.com/1.jpg 等路径时会去 /usr/share/nginx/images/1.jpg 找对应的资源

location ~ \.(jpeg|jpg|png|svg)$ {

root /usr/share/nginx/images;

}

# 当访问 www.nginx-test.com/bbs/ 时会匹配上 /usr/share/nginx/html/bbs/index.html

location ^~ /bbs/ {

root /usr/share/nginx/html;

index index.html index.htm;

}

}

location 中的反斜线

location /test {

...

}

location /test/ {

...

}

不带 / 当访问 http://www.nginx-test.com/test 时, Nginx 先找是否有 test 目录,如果有则找 test 目录下的 index.html ;如果没有 test 目录, nginx 则会找是否有 test 文件。带 / 当访问 http://www.nginx-test.com/test 时, Nginx 先找是否有 test 目录,如果有则找 test 目录下的 index.html ,如果没有它也不会去找是否存在 test 文件。

return

停止处理请求,直接返回响应码或重定向到其他 URL ;执行 return 指令后, location 中后续指令将不会被执行。

#return code [text];

#return code URL;

#return URL;

#例如:

location / {

return 404; # 直接返回状态码

}

location / {

return 404 "pages not found"; # 返回状态码 + 一段文本

}

location / {

return 302 /bbs ; # 返回状态码 + 重定向地址

}

location / {

return https://www.baidu.com ; # 返回重定向地址

}

rewrite

根据指定正则表达式匹配规则,重写 URL 。

#语法:rewrite 正则表达式 要替换的内容 [flag];

#上下文(标签):server、location、if

#示例:rewirte /images/(.*\.jpg)$ /pic/$1; # $1是前面括号(.*\.jpg)的反向引用

flag 可选值的含义:

last 重写后的 URL 发起新请求,再次进入 server 段,重试 location 的中的匹配;break 直接使用重写后的 URL ,不再匹配其它 location 中语句;redirect 返回302临时重定向;permanent 返回301永久重定向;

server{

listen 80;

server_name fe.lion.club; # 要在本地hosts文件进行配置

root html;

location /search {

rewrite ^/(.*) https://www.baidu.com redirect;

}

location /images {

rewrite /images/(.*) /pics/$1;

}

location /pics {

rewrite /pics/(.*) /photos/$1;

}

location /photos {

}

}

按照这个配置我们来分析:

当访问 fe.lion.club/search 时,会自动帮我们重定向到 https://www.baidu.com。当访问 fe.lion.club/images/1.jpg 时,第一步重写 URL 为 fe.lion.club/pics/1.jpg ,找到 pics 的 location ,继续重写 URL 为 fe.lion.club/photos/1.jpg ,找到 /photos 的 location 后,去 html/photos 目录下寻找 1.jpg 静态资源。

if 指令

#语法:if (condition) {...}

#上下文:server、location

#示例:

if($http_user_agent ~ Chrome){

rewrite /(.*)/browser/$1 break;

}

condition 判断条件:

$variable 仅为变量时,值为空或以0开头字符串都会被当做 false 处理;= 或 != 相等或不等;~ 正则匹配;! ~ 非正则匹配;~* 正则匹配,不区分大小写;-f 或 ! -f 检测文件存在或不存在;-d 或 ! -d 检测目录存在或不存在;-e 或 ! -e 检测文件、目录、符号链接等存在或不存在;-x 或 ! -x 检测文件可以执行或不可执行;

实例:

server {

listen 8080;

server_name localhost;

root html;

location / {

if ( $uri = "/images/" ){

rewrite (.*) /pics/ break;

}

}

}

当访问 localhost:8080/images/ 时,会进入 if 判断里面执行 rewrite 命令。

autoindex

用户请求以 / 结尾时,列出目录结构,可以用于快速搭建静态资源下载网站。

autoindex.conf 配置信息:

server {

listen 80;

server_name fe.lion-test.club;

location /download/ {

root /opt/source;

autoindex on; # 打开 autoindex,,可选参数有 on | off

autoindex_exact_size on; # 修改为off,以KB、MB、GB显示文件大小,默认为on,以bytes显示出⽂件的确切⼤⼩

autoindex_format html; # 以html的方式进行格式化,可选参数有 html | json | xml

autoindex_localtime off; # 显示的⽂件时间为⽂件的服务器时间。默认为off,显示的⽂件时间为GMT时间

}

}

当访问 http://fe.lion.com/download/ 时,会把服务器 /opt/source/download/ 路径下的文件展示出来,如下图所示:

Nginx内置变量

nginx 常用的内置全局变量,你可以在配置中随意使用:

实例演示:

server{

listen 8081;

server_name var.lion-test.club;

root /usr/share/nginx/html;

location / {

return 200 "

remote_addr: $remote_addr

remote_port: $remote_port

server_addr: $server_addr

server_port: $server_port

server_protocol: $server_protocol

binary_remote_addr: $binary_remote_addr

connection: $connection

uri: $uri

request_uri: $request_uri

scheme: $scheme

request_method: $request_method

request_length: $request_length

args: $args

arg_pid: $arg_pid

is_args: $is_args

query_string: $query_string

host: $host

http_user_agent: $http_user_agent

http_referer: $http_referer

http_via: $http_via

request_time: $request_time

https: $https

request_filename: $request_filename

document_root: $document_root

";

}

}

当我们访问 http://var.lion-test.club:8081/test?pid=121414&cid=sadasd 时,由于 Nginx 中写了 return 方法,因此 chrome 浏览器会默认为我们下载一个文件,下面展示的就是下载的文件内容:

remote_addr: 27.16.220.84

remote_port: 56838

server_addr: 172.17.0.2

server_port: 8081

server_protocol: HTTP/1.1

binary_remote_addr: 茉

connection: 126

uri: /test/

request_uri: /test/?pid=121414&cid=sadasd

scheme: http

request_method: GET

request_length: 518

args: pid=121414&cid=sadasd

arg_pid: 121414

is_args: ?

query_string: pid=121414&cid=sadasd

host: var.lion-test.club

http_user_agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36

http_referer:

http_via:

request_time: 0.000

https:

request_filename: /usr/share/nginx/html/test/

document_root: /usr/share/nginx/html

Nginx常用配置

Nginx应用核心概念

代理是在服务器和客户端之间假设的一层服务器,代理将接收客户端的请求并将它转发给服务器,然后将服务端的响应转发给客户端。

不管是正向代理还是反向代理,实现的都是上面的功能。

正向代理

正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。

正向代理是为我们服务的,即为客户端服务的,客户端可以根据正向代理访问到它本身无法访问到的服务器资源。

正向代理对我们是透明的,对服务端是非透明的,即服务端并不知道自己收到的是来自代理的访问还是来自真实客户端的访问。

反向代理

反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。

反向代理是为服务端服务的,反向代理可以帮助服务器接收来自客户端的请求,帮助服务器做请求转发,负载均衡等。

反向代理对服务端是透明的,对我们是非透明的,即我们并不知道自己访问的是代理服务器,而服务器知道反向代理在为它服务。

反向代理的优势:

隐藏真实服务器;负载均衡便于横向扩充后端动态服务;动静分离,提升系统健壮性;

那么“动静分离”是什么?负载均衡又是什么?

动静分离

动静分离是指在 web 服务器架构中,将静态页面与动态页面或者静态内容接口和动态内容接口分开不同系统访问的架构设计方法,进而提示整个服务的访问性和可维护性。

一般来说,都需要将动态资源和静态资源分开,由于 Nginx 的高并发和静态资源缓存等特性,经常将静态资源部署在 Nginx 上。如果请求的是静态资源,直接到静态资源目录获取资源,如果是动态资源的请求,则利用反向代理的原理,把请求转发给对应后台应用去处理,从而实现动静分离。

使用前后端分离后,可以很大程度提升静态资源的访问速度,即使动态服务不可用,静态资源的访问也不会受到影响。

负载均衡

一般情况下,客户端发送多个请求到服务器,服务器处理请求,其中一部分可能要操作一些资源比如数据库、静态资源等,服务器处理完毕后,再将结果返回给客户端。

这种模式对于早期的系统来说,功能要求不复杂,且并发请求相对较少的情况下还能胜任,成本也低。随着信息数量不断增长,访问量和数据量飞速增长,以及系统业务复杂度持续增加,这种做法已无法满足要求,并发量特别大时,服务器容易崩。

很明显这是由于服务器性能的瓶颈造成的问题,除了堆机器之外,最重要的做法就是负载均衡。

请求爆发式增长的情况下,单个机器性能再强劲也无法满足要求了,这个时候集群的概念产生了,单个服务器解决不了的问题,可以使用多个服务器,然后将请求分发到各个服务器上,将负载分发到不同的服务器,这就是负载均衡,核心是「分摊压力」。 Nginx 实现负载均衡,一般来说指的是将请求转发给服务器集群。

举个具体的例子,晚高峰乘坐地铁的时候,入站口经常会有地铁工作人员大喇叭“请走 B 口, B 口人少车空....”,这个工作人员的作用就是负载均衡。

Nginx 实现负载均衡的策略:

轮询策略:默认情况下采用的策略,将所有客户端请求轮询分配给服务端。这种策略是可以正常工作的,但是如果其中某一台服务器压力太大,出现延迟,会影响所有分配在这台服务器下的用户。最小连接数策略:将请求优先分配给压力较小的服务器,它可以平衡每个队列的长度,并避免向压力大的服务器添加更多的请求。最快响应时间策略:优先分配给响应时间最短的服务器。客户端 ip 绑定策略:来自同一个 ip 的请求永远只分配一台服务器,有效解决了动态网页存在的 session 共享问题。

Nginx实战配置

upstream

用于定义上游服务器(指的就是后台提供的应用服务器)的相关信息。

语法:upstream name {

...

}

上下文:http

示例:

upstream back_end_server{

server 192.168.100.33:8081

}

在 upstream 内可使用的指令:

server 定义上游服务器地址;zone 定义共享内存,用于跨 worker 子进程;keepalive 对上游服务启用长连接;keepalive_requests 一个长连接最多请求 HTTP 的个数;keepalive_timeout 空闲情形下,一个长连接的超时时长;hash 哈希负载均衡算法;ip_hash 依据 IP 进行哈希计算的负载均衡算法;least_conn 最少连接数负载均衡算法;least_time 最短响应时间负载均衡算法;random 随机负载均衡算法;

server

定义上游服务器地址。

语法:server address [parameters]

上下文:upstream

parameters 可选值:

weight=number 权重值,默认为1;max_conns=number 上游服务器的最大并发连接数;fail_timeout=time 服务器不可用的判定时间;max_fails=numer 服务器不可用的检查次数;backup 备份服务器,仅当其他服务器都不可用时才会启用;down 标记服务器长期不可用,离线维护;

keepalive

限制每个 worker 子进程与上游服务器空闲长连接的最大数量。

keepalive connections;

上下文:upstream

示例:keepalive 16;

keepalive_requests

单个长连接可以处理的最多 HTTP 请求个数。

语法:keepalive_requests number;

默认值:keepalive_requests 100;

上下文:upstream

keepalive_timeout

空闲长连接的最长保持时间。

语法:keepalive_timeout time;

默认值:keepalive_timeout 60s;

上下文:upstream

配置示例

upstream back_end{

server 127.0.0.1:8081 weight=3 max_conns=1000 fail_timeout=10s max_fails=2;

keepalive 32;

keepalive_requests 50;

keepalive_timeout 30s;

}

proxy_pass

用于配置代理服务器。

语法:proxy_pass URL;

上下文:location、if、limit_except

示例:

proxy_pass http://127.0.0.1:8081

proxy_pass http://127.0.0.1:8081/proxy

URL 参数原则:

URL 必须以 http 或 https 开头;URL 中可以携带变量;URL 中是否带 URI ,会直接影响发往上游请求的 URL ;

接下来让我们来看看两种常见的 URL 用法:

proxy_pass http://192.168.100.33:8081proxy_pass http://192.168.100.33:8081/

这两种用法的区别就是带 / 和不带 / ,在配置代理时它们的区别可大了:

不带 / 意味着 Nginx 不会修改用户 URL ,而是直接透传给上游的应用服务器;带 / 意味着 Nginx 会修改用户 URL ,修改方法是将 location 后的 URL 从用户 URL 中删除;

不带 / 的用法:

location /bbs/{

proxy_pass http://127.0.0.1:8080;

}

分析:

用户请求 URL:/bbs/abc/test.html请求到达 Nginx 的 URL:/bbs/abc/test.html请求到达上游应用服务器的 URL:/bbs/abc/test.html

带 / 的用法:

location /bbs/{

proxy_pass http://127.0.0.1:8080/;

}

分析:

用户请求 URL: /bbs/abc/test.html请求到达 Nginx 的 URL: /bbs/abc/test.html请求到达上游应用服务器的URL: /abc/test.html

并没有拼接上 /bbs ,这点和 root 与 alias 之间的区别是保持一致的。

配置反向代理

这里为了演示更加接近实际,作者准备了两台云服务器,它们的公网 IP 分别是:121.42.11.34 与 121.5.180.193 。

我们把 121.42.11.34 服务器作为上游服务器,做如下配置:

# /etc/nginx/conf.d/proxy.conf

server{

listen 8080;

server_name localhost;

location /proxy/ {

root /usr/share/nginx/html/proxy;

index index.html;

}

}

# /usr/share/nginx/html/proxy/index.html

121.42.11.34 proxy html

配置完成后重新加载配置文件 nginx -s reload 。

把 121.5.180.193 服务器作为代理服务器,做如下配置:

# /etc/nginx/conf.d/proxy.conf

upstream back_end {

server 121.42.11.34:8080 weight=2 max_conns=1000 fail_timeout=10s max_fails=3;

keepalive 32;

keepalive_requests 80;

keepalive_timeout 20s;

}

server {

listen 80;

server_name proxy.lion.club;

location /proxy {

proxy_pass http://back_end/proxy;

}

}

本地机器要访问 proxy.lion.club 域名,因此需要配置本地 hosts ,通过命令:vim /etc/hosts 进入配置文件,添加如下内容:

121.5.180.193 proxy.lion.club

分析:

当访问 proxy.lion.club/proxy 时通过 upstream 的配置找到 121.42.11.34:8080 ;因此访问地址变为 http://121.42.11.34:8080/proxy ;连接到 121.42.11.34 服务器,找到 8080 端口提供的 server ;通过 server 找到 /usr/share/nginx/html/proxy/index.html 资源,最终展示出来。

配置负载均衡

配置负载均衡主要是要使用 upstream 指令。

我们把 121.42.11.34 服务器作为上游服务器,做如下配置:

server{

listen 8020;

location / {

return 200 'return 8020 \n';

}

}

server{

listen 8030;

location / {

return 200 'return 8030 \n';

}

}

server{

listen 8040;

location / {

return 200 'return 8040 \n';

}

}

把 121.5.180.193 服务器作为代理服务器,做如下配置:

upstream demo_server {

server 121.42.11.34:8020;

server 121.42.11.34:8030;

server 121.42.11.34:8040;

}

server {

listen 80;

server_name balance.lion.club;

location /balance/ {

proxy_pass http://demo_server;

}

}

配置完成后重启 Nginx 服务器。并且在需要访问的客户端配置好 ip 和域名的映射关系。

# /etc/hosts

121.5.180.193 balance.lion.club

在客户端机器执行 curl http://balance.lion.club/balance/ 命令:

不难看出,负载均衡的配置已经生效了,每次给我们分发的上游服务器都不一样。就是通过简单的轮询策略进行上游服务器分发。

接下来,我们再来了解下 Nginx 的其它分发策略。

hash 算法

通过指定关键字作为 hash key ,基于 hash 算法映射到特定的上游服务器中。关键字可以包含有变量、字符串。

upstream demo_server {

hash $request_uri;

server 121.42.11.34:8020;

server 121.42.11.34:8030;

server 121.42.11.34:8040;

}

server {

listen 80;

server_name balance.lion.club;

location /balance/ {

proxy_pass http://demo_server;

}

}

hash $request_uri 表示使用 request_uri 变量作为 hash 的 key 值,只要访问的 URI 保持不变,就会一直分发给同一台服务器。

ip_hash

根据客户端的请求 ip 进行判断,只要 ip 地址不变就永远分配到同一台主机。它可以有效解决后台服务器 session 保持的问题。

upstream demo_server {

ip_hash;

server 121.42.11.34:8020;

server 121.42.11.34:8030;

server 121.42.11.34:8040;

}

server {

listen 80;

server_name balance.lion.club;

location /balance/ {

proxy_pass http://demo_server;

}

}

最少连接数算法

各个 worker 子进程通过读取共享内存的数据,来获取后端服务器的信息。来挑选一台当前已建立连接数最少的服务器进行分配请求。

语法:least_conn;

上下文:upstream;

示例:

upstream demo_server {

zone test 10M; # zone可以设置共享内存空间的名字和大小

least_conn;

server 121.42.11.34:8020;

server 121.42.11.34:8030;

server 121.42.11.34:8040;

}

server {

listen 80;

server_name balance.lion.club;

location /balance/ {

proxy_pass http://demo_server;

}

}

配置缓存

缓存可以非常有效的提升性能,因此不论是客户端(浏览器),还是代理服务器( Nginx ),乃至上游服务器都多少会涉及到缓存。可见缓存在每个环节都是非常重要的。下面让我们来学习 Nginx 中如何设置缓存策略。

proxy_cache

存储一些之前被访问过、而且可能将要被再次访问的资源,使用户可以直接从代理服务器获得,从而减少上游服务器的压力,加快整个访问速度。

语法:proxy_cache zone | off ; # zone 是共享内存的名称

默认值:proxy_cache off;

上下文:http、server、location

proxy_cache_path

设置缓存文件的存放路径。

语法:proxy_cache_path path [level=levels] ...可选参数省略,下面会详细列举

默认值:proxy_cache_path off

上下文:http

参数含义:

path 缓存文件的存放路径;level path的目录层级;keys_zone 设置共享内存;inactive 在指定时间内没有被访问,缓存会被清理,默认10分钟;

proxy_cache_key

设置缓存文件的 key 。

语法:proxy_cache_key

默认值:proxy_cache_key $scheme$proxy_host$request_uri;

上下文:http、server、location

proxy_cache_valid

配置什么状态码可以被缓存,以及缓存时长。

语法:proxy_cache_valid [code...] time;

上下文:http、server、location

配置示例:proxy_cache_valid 200 304 2m;; # 说明对于状态为200和304的缓存文件的缓存时间是2分钟

proxy_no_cache

定义相应保存到缓存的条件,如果字符串参数的至少一个值不为空且不等于“ 0”,则将不保存该响应到缓存。

语法:proxy_no_cache string;

上下文:http、server、location

示例:proxy_no_cache $http_pragma $http_authorization;

proxy_cache_bypass

定义条件,在该条件下将不会从缓存中获取响应。

语法:proxy_cache_bypass string;

上下文:http、server、location

示例:proxy_cache_bypass $http_pragma $http_authorization;

upstream_cache_status 变量

它存储了缓存是否命中的信息,会设置在响应头信息中,在调试中非常有用。

MISS: 未命中缓存

HIT: 命中缓存

EXPIRED: 缓存过期

STALE: 命中了陈旧缓存

REVALIDDATED: Nginx验证陈旧缓存依然有效

UPDATING: 内容陈旧,但正在更新

BYPASS: X响应从原始服务器获取

配置实例

我们把 121.42.11.34 服务器作为上游服务器,做如下配置:

server {

listen 1010;

root /usr/share/nginx/html/1010;

location / {

index index.html;

}

}

server {

listen 1020;

root /usr/share/nginx/html/1020;

location / {

index index.html;

}

}

把 121.5.180.193 服务器作为代理服务器,做如下配置:

proxy_cache_path /etc/nginx/cache_temp levels=2:2 keys_zone=cache_zone:30m max_size=2g inactive=60m use_temp_path=off;

upstream cache_server{

server 121.42.11.34:1010;

server 121.42.11.34:1020;

}

server {

listen 80;

server_name cache.lion.club;

location / {

proxy_cache cache_zone; # 设置缓存内存,上面配置中已经定义好的

proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟

proxy_cache_key $request_uri; # 缓存文件的key为请求的URI

add_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端

proxy_pass http://cache_server; # 代理转发

}

}

缓存就是这样配置,我们可以在 /etc/nginx/cache_temp 路径下找到相应的缓存文件。

对于一些实时性要求非常高的页面或数据来说,就不应该去设置缓存,下面来看看如何配置不缓存的内容。

...

server {

listen 80;

server_name cache.lion.club;

# URI 中后缀为 .txt 或 .text 的设置变量值为 "no cache"

if ($request_uri ~ \.(txt|text)$) {

set $cache_name "no cache"

}

location / {

proxy_no_cache $cache_name; # 判断该变量是否有值,如果有值则不进行缓存,如果没有值则进行缓存

proxy_cache cache_zone; # 设置缓存内存

proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟

proxy_cache_key $request_uri; # 缓存文件的key为请求的URI

add_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端

proxy_pass http://cache_server; # 代理转发

}

}

HTTPS

在学习如何配置 HTTPS 之前,我们先来简单回顾下 HTTPS 的工作流程是怎么样的?它是如何进行加密保证安全的?

HTTPS 工作流程

客户端(浏览器)访问 https://www.baidu.com 百度网站;百度服务器返回 HTTPS 使用的 CA 证书;浏览器验证 CA 证书是否为合法证书;验证通过,证书合法,生成一串随机数并使用公钥(证书中提供的)进行加密;发送公钥加密后的随机数给百度服务器;百度服务器拿到密文,通过私钥进行解密,获取到随机数(公钥加密,私钥解密,反之也可以);百度服务器把要发送给浏览器的内容,使用随机数进行加密后传输给浏览器;此时浏览器可以使用随机数进行解密,获取到服务器的真实传输内容;

这就是 HTTPS 的基本运作原理,使用对称加密和非对称机密配合使用,保证传输内容的安全性。

关于HTTPS更多知识,可以查看另外一篇文章《学习 HTTP 协议》。

配置证书

下载证书的压缩文件,里面有个 Nginx 文件夹,把 xxx.crt 和 xxx.key 文件拷贝到服务器目录,再进行如下配置:

server {

listen 443 ssl http2 default_server; # SSL 访问端口号为 443

server_name lion.club; # 填写绑定证书的域名(我这里是随便写的)

ssl_certificate /etc/nginx/https/lion.club_bundle.crt; # 证书地址

ssl_certificate_key /etc/nginx/https/lion.club.key; # 私钥地址

ssl_session_timeout 10m;

ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # 支持ssl协议版本,默认为后三个,主流版本是[TLSv1.2]

location / {

root /usr/share/nginx/html;

index index.html index.htm;

}

}

配置跨域 CORS

跨域的定义

同源策略限制了从同一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的重要安全机制。通常不允许不同源间的读操作。

同源的定义

如果两个页面的协议,端口(如果有指定)和域名都相同,则两个页面具有相同的源。

下面给出了与 URL http://store.company.com/dir/page.html 的源进行对比的示例:

http://store.company.com/dir2/other.html 同源

https://store.company.com/secure.html 不同源,协议不同

http://store.company.com:81/dir/etc.html 不同源,端口不同

http://news.company.com/dir/other.html 不同源,主机不同

不同源会有如下限制:

Web 数据层面,同源策略限制了不同源的站点读取当前站点的 Cookie 、 IndexDB 、 LocalStorage 等数据。DOM 层面,同源策略限制了来自不同源的 JavaScript 脚本对当前 DOM 对象读和写的操作。网络层面,同源策略限制了通过 XMLHttpRequest 等方式将站点的数据发送给不同源的站点。

Nginx 解决跨域的原理

例如:

前端 server 的域名为: http://fe.server.com后端服务的域名为: http://dev.server.com

现在我在 http://fe.server.com 对 http://dev.server.com 发起请求一定会出现跨域。

现在我们只需要启动一个 Nginx 服务器,将 server_name 设置为 http://fe.server.com 然后设置相应的 location 以拦截前端需要跨域的请求,最后将请求代理回 http://dev.server.com 。如下面的配置:

server {

listen 80;

server_name fe.server.com;

location / {

proxy_pass dev.server.com;

}

}

这样可以完美绕过浏览器的同源策略: http://fe.server.com 访问 Nginx 的 http://fe.server.com 属于同源访问,而 Nginx 对服务端转发的请求不会触发浏览器的同源策略。

配置开启 gzip 压缩

GZIP 是规定的三种标准 HTTP 压缩格式之一。目前绝大多数的网站都在使用 GZIP 传输 HTML 、CSS 、 JavaScript 等资源文件。

对于文本文件, GZiP 的效果非常明显,开启后传输所需流量大约会降至 1/4~1/3 。

并不是每个浏览器都支持 gzip 的,如何知道客户端是否支持 gzip 呢,请求头中的 Accept-Encoding 来标识对压缩的支持。

启用 gzip 同时需要客户端和服务端的支持,如果客户端支持 gzip 的解析,那么只要服务端能够返回 gzip 的文件就可以启用 gzip 了,我们可以通过 Nginx 的配置来让服务端支持 gzip 。下面的 respone 中 content-encoding:gzip ,指服务端开启了 gzip 的压缩方式。

# # 默认off,是否开启gzip

gzip on;

# 要采用 gzip 压缩的 MIME 文件类型,其中 text/html 被系统强制启用;

gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript;

# ---- 以上两个参数开启就可以支持Gzip压缩了 ---- #

# 默认 off,该模块启用后,Nginx 首先检查是否存在请求静态文件的 gz 结尾的文件,如果有则直接返回该 .gz 文件内容;

gzip_static on;

# 默认 off,nginx做为反向代理时启用,用于设置启用或禁用从代理服务器上收到相应内容 gzip 压缩;

gzip_proxied any;

# 用于在响应消息头中添加 Vary:Accept-Encoding,使代理服务器根据请求头中的 Accept-Encoding 识别是否启用 gzip 压缩;

gzip_vary on;

# gzip 压缩比,压缩级别是 1-9,1 压缩级别最低,9 最高,级别越高压缩率越大,压缩时间越长,建议 4-6;

gzip_comp_level 6;

# 获取多少内存用于缓存压缩结果,16 8k 表示以 8k*16 为单位获得;

gzip_buffers 16 8k;

# 允许压缩的页面最小字节数,页面字节数从header头中的 Content-Length 中进行获取。默认值是 0,不管页面多大都压缩。建议设置成大于 1k 的字节数,小于 1k 可能会越压越大;

# gzip_min_length 1k;

# 默认 1.1,启用 gzip 所需的 HTTP 最低版本;

gzip_http_version 1.1;

配置正向代理

如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

Nginx正向代理涉及到的指令较少,下面直接贴上其配置文件内容:

...

server {

resolver 192.168.1.1; #指定DNS服务器IP地址

listen 8080;

location / {

proxy_pass http://$http_host$request_uri; #设定代理服务器的协议和地址

}

}

...

其中:

resolver 必须的,表示DNS服务器 location 表示匹配用户访问的资源,并作进一步转交和处理,可用正则表达式匹配 proxy_pass 表示需要代理的地址 $http_host 表示用户访问资源的主机部分 $request_uri 表示用户访问资源的URI部分。

如,http://nginx.org/download/nginx-1.6.3.tar.gz,则$http_host=http://nginx.org,$request_uri=/download/nginx-1.6.3.tar.gz。

可以不设置监听端口号,nginx默认监听80端口,除非你要修改监听端口,可以用listen字段指定。

可以看出,对于正向代理,只是对用户的访问进行一个转发,不做其他处理。

配置Nginx黑白名单

Nginx利用deny和allow指令来实现黑白名单的配置,利用黑白名单进行安全配置。

#语法

allow address | CIDR | all;

deny address | CIDR | all;

#模块:http/server/location

#参数说明:

#allow:允许访问。

#deny:禁止访问。

#address:具体的ip地址。

#CIDR:ip加掩码形式地址。

#all:所有ip地址。

1、黑名单

在这个配置下,234、235和236的ip访问不了服务器,会显示403 Forbidden,而其他ip都可以访问。

2、白名单

配置策略:白名单配置逻辑是配置允许的ip访问,禁止其他所有的地址访问。

配置详解:在这个配置下,234、235和236的ip可以访问服务器,而其他所有ip都不允许访问,显示403 Forbidden。

配置禁止访问文件或文件夹

location ^~ /project/deny.txt {

alias /webroot/proj/;

deny all;

}

^~ /project/ 意思是接受从外部访问(如浏览器)的 URL 地址,比如http://www.domain.com/project;^~ /project/deny.txt 意思是这一条 location 明确是对其起作用的;alias /webroot/proj/ 意思是将 对 /project 的访问解析到 /webroot/proj 目录;deny all 意思是屏蔽任何来源

也可以把 deny all 改换成 return 404,这样将返回 404 而不是 403 Forbidden,更有“欺骗性”。

Nginx高可用

一般是Nginx + Keepalived来实现Nginx的高可用。

什么是Keepalived

Keepalived是一个免费开源的,用C编写的类似于layer3, 4 & 7交换机制软件,具备我们平时说的第3层、第4层和第7层交换机的功能。主要提供loadbalancing(负载均衡)和 high-availability(高可用)功能,负载均衡实现需要依赖Linux的虚拟服务内核模块(ipvs),而高可用是通过VRRP协议实现多台机器之间的故障转移服务。

Keepalived的所有功能是配置keepalived.conf文件来实现的。

相关阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: