一、围绕三个方面(万事万物都无法脱离的原则,简称:万法定律)

● 是什么?(Nginx是什么?) ● 为什么?(为什么使用Nginx?) ● 怎样做?(Nginx的原理)

二、Nginx是什么?

Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器 [13]  ,同时也提供了IMAP/POP3/SMTP服务。Nginx是由伊戈尔·赛索耶夫为俄罗斯访问量第二的Rambler.ru站点(俄文:Рамблер)开发的,公开版本1.19.6发布于2020年12月15日。 [11] 

其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、简单的配置文件和低系统资源的消耗而闻名。2022年01月25日,nginx 1.21.6发布。 [12] 

Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好。

优点:

1、Nginx 可以在大多数 Unix Linux OS 上编译运行,并有 Windows 移植版。 Nginx 的1.20.0稳定版已经于2021年4月20日发布,一般情况下,对于新建站点,建议使用最新稳定版作为生产版本,已有站点的升级急迫性不高。Nginx 的源代码使用 2-clause BSD-like license。

2、Nginx 是一个很强大的高性能Web和反向代理服务,它具有很多非常优越的特性:在连接高并发的情况下,Nginx是Apache服务不错的替代品:Nginx在美国是做虚拟主机生意的老板们经常选择的软件平台之一。能够支持高达 50,000 个并发连接数的响应,感谢Nginx为大家选择了 epoll and kqueue作为开发模型。

缺点:

1、Nginx仅能支持http、https和Email协议,这样就在适用范围上面小些,这个是它的缺点

2、对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测

,不支持Session的直接保持,但能通过ip_hash来解决。

补充:无论是什么技术都是一把双刃剑,没有绝对好与坏、所以说我们使用一个技术还是看它是否是利大于弊,如果成本过高,那不用也罢。我要说的是不要过度的去崇拜某种流行的技术,要看到它的双面性。

三、Nginx作用

Web 服务器:

Nginx作为负载均衡服务:Nginx 既可以在内部直接支持 Rails 和 PHP 程序对外进行服务,也可以支持作为 HTTP代理服务对外进行服务。Nginx采用C进行编写,不论是系统资源开销还是CPU使用效率都比 Perlbal 要好很多。

处理静态文件,索引文件以及自动索引;打开文件描述符缓冲。

无缓存的反向代理加速,简单的负载均衡和容错。

FastCGI,简单的负载均衡和容错。

模块化的结构。包括 gzipping, byte ranges, chunked responses,以及 SSI-filter 等 filter。如果由 FastCG或其它代理服务器处理单页中存在的多个 SSI,则这项处理可以并行运行,而不需要相互等待。

支持 SSL 和 TLSSNI。

负载均衡服务器:

Nginx 既可以在内部直接支持 Rails 和 PHP,也可以支持作为 HTTP代理服务器 对外进行服务。Nginx 用 C 编写, 不论是系统资源开销还是 CPU 使用效率都比 Perlbal 要好的多。

代理服务器

作为邮件代理服务:Nginx 同时也是一个非常优秀的邮件代理服务(最早开发这个产品的目的之一也是作为邮件代理服务器),Last.fm 描述了成功并且美妙的使用经验。

Nginx 是一个安装非常的简单、配置文件非常简洁(还能够支持perl语法)、Bug非常少的服务。Nginx 启动特别容易,并且几乎可以做到7*24不间断运行,即使运行数个月也不需要重新启动。如果还能够不间断服务的情况下进行软件版本的升级。

四、正式认识Nginx

Nginx 的知识网结构图如下:

反向代理

正向代理:局域网中的电脑用户想要直接访问网络是不可行的,只能通过代理服务器来访问,这种代理服务就被称为正向代理。

反向代理:客户端无法感知代理,因为客户端访问网络不需要配置,只要把请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据,然后再返回到客户端。

此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器 IP 地址。

负载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕之后,再将结果返回给客户端。

普通请求和响应过程如下图:

但是随着信息数量增长,访问量和数据量飞速增长,普通架构无法满足现在的需求。

我们首先想到的是升级服务器配置,可以由于摩尔定律的日益失效,单纯从硬件提升性能已经逐渐不可取了,怎么解决这种需求呢?

我们可以增加服务器的数量,构建集群,将请求分发到各个服务器上,将原来请求集中到单个服务器的情况改为请求分发到多个服务器,也就是我们说的负载均衡。

图解负载均衡:

假设有 15 个请求发送到代理服务器,那么由代理服务器根据服务器数量,平均分配,每个服务器处理 5 个请求,这个过程就叫做负载均衡。

我把 Ngixn 相关的文章整理成了 PDF,关注微信公众号 Java后端, 回复 666 下载。

动静分离

为了加快网站的解析速度,可以把动态页面和静态页面交给不同的服务器来解析,加快解析的速度,降低由单个服务器的压力。

动静分离之前的状态:

动静分离之后:

Nginx 常用命令

查看版本:

./nginx -v

启动:

./nginx

关闭(有两种方式,推荐使用 ./nginx -s quit):

./nginx -s stop./nginx -s quit

重新加载 Nginx 配置:

./nginx -s reload

Nginx 的配置文件

配置文件分三部分组成:

①全局块

从配置文件开始到 events 块之间,主要是设置一些影响 Nginx 服务器整体运行的配置指令。

并发处理服务的配置,值越大,可以支持的并发处理量越多,但是会受到硬件、软件等设备的制约。

②events 块

影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 workprocess 下的网络连接进行序列化,是否允许同时接收多个网络连接等等。

支持的最大连接数:

③HTTP 块

诸如反向代理和负载均衡都在此配置。

location[ = | ~ | ~* | ^~] url{}

location 指令说明,该语法用来匹配 url,语法如上:

=:用于不含正则表达式的 url 前,要求字符串与 url 严格匹配,匹配成功就停止向下搜索并处理请求。

~:用于表示 url 包含正则表达式,并且区分大小写。

~*:用于表示 url 包含正则表达式,并且不区分大小写。

^~:用于不含正则表达式的 url 前,要求 Nginx 服务器找到表示 url 和字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再匹配。

如果有 url 包含正则表达式,不需要有 ~ 开头标识。

反向代理实战

①配置反向代理

目的:在浏览器地址栏输入地址 http://www.123.com 跳转 Linux 系统 Tomcat 主页面。

②具体实现

先配置 Tomcat,因为比较简单,此处不再赘叙,并在 Windows 访问:

具体流程如下图:

修改之前:

配置如下:

再次访问:

③反向代理 2

目标:

访问 http://192.168.25.132:9001/edu/ 直接跳转到 192.168.25.132:8080

访问 http://192.168.25.132:9001/vod/ 直接跳转到 192.168.25.132:8081

准备:配置两个 Tomcat,端口分别为 8080 和 8081,都可以访问,端口修改配置文件即可。

新建文件内容分别添加 8080!!!和 8081!!!

反向代理小结

第一个例子:浏览器访问 http://www.123.com,由 host 文件解析出服务器 ip 地址

192.168.25.132 http://www.123.com。

然后默认访问 80 端口,而通过 Nginx 监听 80 端口代理到本地的 8080 端口上,从而实现了访问 http://www.123.com,最终转发到 tomcat 8080 上去。

第二个例子:

访问 http://192.168.25.132:9001/edu/ 直接跳转到 192.168.25.132:8080

访问 http://192.168.25.132:9001/vod/ 直接跳转到 192.168.25.132:8081

实际上就是通过 Nginx 监听 9001 端口,然后通过正则表达式选择转发到 8080 还是 8081 的 Tomcat 上去。

负载均衡实战

①修改 nginx.conf,如下图:

②重启 Nginx:

./nginx -s reload

③在 8081 的 Tomcat 的 webapps 文件夹下新建 edu 文件夹和 a.html 文件,填写内容为 8081!!!!

④在地址栏回车,就会分发到不同的 Tomcat 服务器上:

负载均衡方式如下:

轮询(默认)。

weight,代表权,权越高优先级越高。

fair,按后端服务器的响应时间来分配请求,相应时间短的优先分配。

ip_hash,每个请求按照访问 ip 的 hash 结果分配,这样每一个访客固定的访问一个后端服务器,可以解决 Session 的问题。

动静分离实战

什么是动静分离?把动态请求和静态请求分开,不是讲动态页面和静态页面物理分离,可以理解为 Nginx 处理静态页面,Tomcat 处理动态页面。

动静分离大致分为两种:

纯粹将静态文件独立成单独域名放在独立的服务器上,也是目前主流方案。

将动态跟静态文件混合在一起发布,通过 Nginx 分开。

动静分离图析:

实战准备,准备静态文件:

配置 Nginx,如下图:

Nginx 高可用

如果 Nginx 出现问题:

前期准备:

两台 Nginx 服务器

安装 Keepalived

虚拟 ip

安装 Keepalived:

[root@192 usr]# yum install keepalived -y[root@192 usr]# rpm -q -a keepalivedkeepalived-1.3.5-16.el7.x86_64

修改配置文件:

[root@192 keepalived]# cd /etc/keepalived[root@192 keepalived]# vi keepalived.conf

分别将如下配置文件复制粘贴,覆盖掉 keepalived.conf,虚拟 ip 为 192.168.25.50。

对应主机 ip 需要修改的是:

smtp_server 192.168.25.147(主)smtp_server 192.168.25.147(备)

state MASTER(主) state BACKUP(备)

global_defs {notification_email {acassen@firewall.locfailover@firewall.locsysadmin@firewall.loc}notification_email_from Alexandre.Cassen@firewall.locsmtp_server 192.168.25.147smtp_connect_timeout 30router_id LVS_DEVEL # 访问的主机地址}vrrp_script chk_nginx {script "/usr/local/src/nginx_check.sh" # 检测文件的地址interval 2 # 检测脚本执行的间隔weight 2 # 权重}vrrp_instance VI_1 {state BACKUP # 主机MASTER、备机BACKUPinterface ens33 # 网卡virtual_router_id 51 # 同一组需一致priority 90 # 访问优先级,主机值较大,备机较小advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.25.50 # 虚拟ip}}

启动命令如下:

[root@192 sbin]# systemctl start keepalived.service

访问虚拟 ip 成功:

关闭主机 147 的 Nginx 和 Keepalived,发现仍然可以访问。

原理解析

如下图,就是启动了一个 master,一个 worker,master 是管理员,worker是具体工作的进程。

worker 如何工作?如下图:

总结

Nginx服务器也是解决跨域cors问题的首选方案,轻量级,速度快、效率高、高性能、高并发,能承受的并发量相较于Apache Tomcat会好一点儿。

参考阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: