文章目录

基础概念什么是nginx反向代理负载均衡动静分离

nginx安装**docker安装niginx**centos安装

配置文件配制文件的组成(三部分)全局块events块http块

配制实例反向代理负载均衡实例策略轮询(默认)weightip_hash

4、fair(第三方)

动静分离实例

nginx高可用集群实例

nginx原理mater&worker一个master和多个woke r有好处.连接数 worker connection问题

基础概念

什么是nginx

Nginx (engine x) 是一个高性能的HTTP和反向代理服务器, 特点是占有内存少, 并发能 力强, 事实上nginx的并发能力确实在同类型的网页服务器中表现较好 Nginx专为性能优化而开发, 性能是其最重要的考量, 实现上非常注重效鸟, 能经受高负载 的考验,有报告表明能支持高达50,000个并发连接数。

nginx做为HTTP服务器, 有以下几项基本特性:

处理静态文件,索引文件以及自动索引;打开文件描述符缓冲.无缓存的反向代理加速,简单的负载均衡和容错.FastCGI, 简单的负载均衡和容错. 模块化的结构。包括g zipping, byte ranges, chunked responses, 以及SS-fit er等fter。如果由FastCGI或其它代理服务器处理单页中存在的多个SSI, 则这项处理可以并行运行, 而不需要相互等待。支持SSL和TLS SNI.

反向代理

Nginx不仅可以做反向代理, 实现负载均衡。还能用作正向代理来进行上网等功能。

正向代理:如果把局域网外的Internet想象成一个巨大的资源库, 则局域网中的客户端要访 问Internet, 则需要通过代理服务器来访问, 这种代理服务就称为正向代理。

反向代理:其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器IP地址。

负载均衡

客户端请求通过nginx均匀分发请求到集群中的各个服务器当中。

动静分离

为了加快网站的解析速度, 可以把动态页面和静态页面由不同的服务器来解析,加快解析 速度。降低原来单个服务器的压力。

nginx安装

docker安装niginx

对docker不熟悉的可以看下我写的doker文章

Step1: 下载ngnix镜像

docker pull nginx

Step2: 创建nginx容器卷目录

# 创建挂载目录

mkdir -p /docker/nginx/conf

mkdir -p /docker/nginx/log

mkdir -p /docker/nginx/html

Step3: 启动一个临时nginx, 将配置信息拷贝到容器卷中

# 启动容器

docker run -p 9001:80 --name nginx -d nginx

# 将容器nginx.conf文件复制到宿主机

docker cp nginx:/etc/nginx/nginx.conf /docker/nginx/conf/nginx.conf

# 将容器conf.d文件夹下内容复制到宿主机

docker cp nginx:/etc/nginx/conf.d /docker/nginx/conf/conf.d

# 将容器中的html文件夹复制到宿主机

docker cp nginx:/usr/share/nginx/html /docker/nginx/

Step4: 删除临时nginx容器,启动带有容器卷的的nginx

# 删除临时nginx容器

docker rm -f nginx

# 启动nginx

docker run -p 80:80 --name nginx -v /docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf -v /docker/nginx/conf/conf.d:/etc/nginx/conf.d -v /docker/nginx/log:/var/log/nginx -v /docker/nginx/html:/usr/share/nginx/html -v /docker/nginx/static:/data/static -d nginx:latest

Step5: 验证

# 查看容器状态

docker ps

页面验证:

centos安装

安装所需插件

#一次安装4个插件

yum -y install gcc pcre pcre-devel zlib zlib-devel openssl openssl-devel

创建安装目录

#进入usr下的local目录

cd usr/local

#在local目录下创建 mysql 文件夹

mkdir nginx

#进入nginx目录

cd nginx

下载安装包

wget https://nginx.org/download/nginx-1.21.6.tar.gz

解压

#解压

tar xvf nginx-1.21.6.tar.gz

#进入解压后的目录

cd nginx-1.21.6

配制编译安装

#配制

./configure --prefix=/usr/local/nginx --with-http_stub_status_module --with-http_ssl_module

#编译

make

#安装

make install

启动服务

###启动服务

#需要先进入sbin目录下

cd /usr/local/nginx/sbin

#启动nginx服务

./nginx

###关闭服务

#需要先进入sbin目录下

cd /usr/local/nginx/sbin

#关闭nginx服务

./nginx -s stop

防火墙命令

####端口号操作

#查询开启的所有端口

firewall-cmd --list-port

#设置80端口开启

firewall-cmd --zone=public --add-port=80/tcp --permanent

#验证80端口是否开启成功 (单个端口查询)

firewall-cmd --zone=public --query-port=80/tcp

#设置80端口关闭

firewall-cmd --zone=public --remove-port=80/tcp --permanent

####防火墙操作

#检查防火墙是否开启

systemctl status firewalld

#开机自启防火墙

systemctl enable firewalld

#开机禁止自启防火墙

systemctl disable firewalld

#启动

systemctl start firewalld

#关闭

systemctl stop firewalld

#重启

firewall-cmd --reload

nginx常用命令

配置文件

配制文件的组成(三部分)

全局块

从配置文件开始到events块之间的内容, 主要会设置一些影响ng in x服务器整体运行的配置指令。 参数

参数解析值worker_processes这是Nginx服务器并发处理服务的关键配置, worker_processes值越大, 可以支持的并发处理量也越多, 但是 会受到硬件、软件等设备的制约

events块

events块涉及的指令主要影响Nginx服务器与用户的网络连接, 常用的设置包括是否开启对多work process下的网络连接进行序列化, 是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求, 每个word process可以同时支持的最大连接数等。

上述例子就表示每个work process支持的最大连接数为1024。

http块

这部分的配置对Nginx的性能影响较大, 在实际中应该灵活配置。

参数

LOCATION:

= : 用于不含正则表达式的uri前, 要求请求字符串与uri严格匹配, 如果匹配 成功,就停止继续向下搜索并立即处理该请求。~ :用于表示uri 包含正则表达式,并且区分大小写。~* :用于表示uri包含正则表达式, 并且不区分大小写。^~ :用于不含正则表达式的uri前, 要求Ng in x服务器找到标识uri和请求字 符串匹配度最高的location后, 立即使用此location处理请求, 而不再使用location 块中的正则uri和请求字符串做匹配。· 注意:如果 uri包含正则表达式, 则必须要有~或者* 标识。

配制实例

反向代理

Step1:新建两个tomcat容器

docker run -d -p 8081:8080 --name mytomcat2 -v /docker/tomcat/8081:/usr/local/tomcat/webapps 30ef4019761d

docker run -d -p 8082:8080 --name mytomcat3 -v /docker/tomcat/8082:/usr/local/tomcat/webapps 30ef4019761d

Step2:在tomcat2容器中webapps下新建/edu/a.html

vim /edu/a.html

# 内容如下

8081

Step3:在tomcat2容器中webapps下新建/edu/a.html

vim /vod/a.html

# 内容如下

8082

Step4:编辑nginx配制文件,重启nginx

user nginx;

worker_processes auto;

error_log /var/log/nginx/error.log notice;

pid /var/run/nginx.pid;

events {

worker_connections 1024;

}

http {

include /etc/nginx/mime.types;

default_type application/octet-stream;

log_format main '$remote_addr - $remote_user [$time_local] "$request" '

'$status $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for"';

access_log /var/log/nginx/access.log main;

sendfile on;

#tcp_nopush on;

keepalive_timeout 65;

#gzip on;

# include /etc/nginx/conf.d/*.conf;

server{

listen 80;

charset utf-8;

server_name 192.168.159.3;

location / {

proxy_pass http://192.168.159.3:8080;

proxy_redirect default;

}

location ~ /edu/ {

proxy_pass http://192.168.159.3:8081;

proxy_redirect default;

}

location ~ /vod/ {

proxy_pass http://192.168.159.3:8082;

proxy_redirect default;

}

}

#server{

# listen 9001;

# charset utf-8;

# server_name 192.168.159.3;

#

# location ~ /edu/ {

# proxy_pass http://192.168.159.3:8081;

# proxy_redirect default;

# }

# location ~ /vod/ {

# proxy_pass http://192.168.159.3:8082;

# proxy_redirect default;

# }

#}

}

docker restart nginx

Step5:验证

负载均衡

实例

Step1:在两个tomcat容器中webapps下新建目录avg,在目录内新建页面a.html 内容没别为

Step2:修改配置文件

user nginx;

worker_processes auto;

error_log /var/log/nginx/error.log notice;

pid /var/run/nginx.pid;

events {

worker_connections 1024;

}

http {

include /etc/nginx/mime.types;

default_type application/octet-stream;

log_format main '$remote_addr - $remote_user [$time_local] "$request" '

'$status $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for"';

access_log /var/log/nginx/access.log main;

sendfile on;

#tcp_nopush on;

keepalive_timeout 65;

#gzip on;

# include /etc/nginx/conf.d/*.conf;

# 负载均衡

upstream myserver{

server 192.168.159.3:8081;

server 192.168.159.3:8082;

}

server{

listen 80;

charset utf-8;

server_name 192.168.159.3;

# 负载均衡

location ~ /avg/ {

proxy_pass http://myserver;

proxy_redirect default;

}

}

}

Step5:验证

策略

轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器, 如果后端服务器down掉, 能自动剔除。

weight

weight代表权, 重默认为1, 权重越高被分配的客户端越多。

配制方法:

# 负载均衡

upstream myserver{

server 192.168.159.3:8081 weight=1;

server 192.168.159.3:8082 weight=5;

}

ip_hash

每个请求按访问ip的hash结果分配, 这样每个访客固定访问一个后端服务器 可以解决session的问题。例如:

# 负载均衡

upstream myserver{

# ip_hash

ip_hash;

server 192.168.38.3:8081;

server 192.168.38.3:8082;

}

4、fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

# 负载均衡

upstream myserver{

# ip_hash

server 192.168.38.3:8081;

server 192.168.38.3:8082;

fair

}

动静分离

nginx动静分离简单来说就是把动态跟静态请求分开, 不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开, 可以理解成使用nginx处理静态页面, Tomcat处理动态页面。动静分离从目前实现角度来讲大致分为两种:

一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案; 另外一种方法就是动态跟静态文件混合在一起发布,通过nginx来分开。

通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置, 可以使浏 览器缓存过期时间, 减少与服务器之前的请求和流量。具体Expires定义:是给一个资源 设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用Expires来缓存) , 我这里设置3d, 表示在这3天之内访问这个URL, 发送 个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304, 如果有修改,则直接从服务器重新下载,返回状态码200。

实例

Step1: 在nginx容器内挂在宿主机目录下创建静态目录,一个html,一个image,并分布在其中创建一个页面,和一个图片 Step2: 编辑配置文件

server{

listen 80;

charset utf-8;

server_name 192.168.38.3;

location /html/ {

root /data/static/; # 容器内静态文件位置

autoindex on; # 列出文件的意思

}

location /image/ {

root /data/static/; # 容器内静态文件位置

autoindex on;

}

}

Step3: 重启验证

nginx高可用集群

原理为多台机器安装并启动nginx,这些nginx代理的服务完全相同这些nginx由keepalived管理,keepalived对外暴露虚拟ip供外界访问keepalived接收请求,调用nginx服务如果主节点nginx服务挂掉,keepalived的监听脚本会启动从节点nginx,进行访问

实例

这里不使用容器,采用多机实现

Step1:首先创建两台centos

Step2:分别在两台centos中安装nginx

安装方法参考文中centos安装方法

Step3:安装keepalived

# 进入/usr

cd /usr

# 安装

yum install keepalived -y

Step4:修改keepalived配制文件

添加配置脚本 文件位置在 /etc/keepalived 下

! Configuration File for keepalived

# 全局块

global_defs {

router_id LVS_DEVEL

}

# 配制检测脚本

vrrp_script chk_nginx {

script "/usr/local/src/nginx_check.sh" # 脚本位置

interval 2 # 每隔两名执行

weight 3 # 设置权重

}

vrrp_instance VI_1 {

state MASTER # 从服务用BACKUP

interface ens33 # 网卡

virtual_router_id 51 # 路由地址主从一致

priority 100 # 优先权,主要比从多一些

advert_int 1 # 心跳1秒

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.159.101 # 虚拟ip

}

track_script {

chk_nginx

}

}

Step5:添加检测脚本

位置在 /usr/local/src/nginx_check.sh

#!/bin/bash

A=`ps -C nginx -no-header |wc -l`

if [ $A -eq 0 ];then

/usr/local/nginx/sbin/nginx

sleep 2

if [ `ps -C nginx --no-header |wc -1` -eq 0 ];then

killall keepalived

fi

fi

Step6:启动nginx及keepalived

systemctl start keepalived

Step7:验证

关闭主服务keepalived验证

systemctl stop keeplived

从服务

nginx原理

mater&worker

nginx有一个master线程和多个worker组成,master线程接受请求信号,之后分派给worker线程worker数量与服务器cpu数量相当为宜

一个master和多个woke r有好处.

(1) 可以使用ng in x-s reload热部署, 利用ng in x进行热部署操作 (2) 每个woke r是独立的进程, 如果有其中的一个woke r出现问题, 其他woke r独立的, wwwwwww 继续进行争抢,实现请求过程, 不会造成服务中断

连接数 worker connection问题

发送请求,占用了 woke r的几个连接数?

2或者4个2个时为访问静态资源4个为访问服务器,nginx需要与服务器进行交互,多两个连接

nginx有一个master,有4个woker,每个woker支持最大的连接数1024,支持的最大并发数是多少?

普通的静态访问最大并发数是: worker connections*worker processes/2, 即:4x1024/2=2048而如果是HTTP作为反向代理来说, 最大并发数量应该是worker_connections* + wwwww wvwwwwwwwwwwwwwwww worker_processes/4。 即:4x1024/4=1024

推荐阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: