Nginx入门教程:https://xuexb.github.io/learn-nginx/guide/#nginx%E7%9A%84%E7%89%B9%E7%82%B9-2

参考的Nginx学习笔记:https://blog.csdn.net/m0_49558851/article/details/107786372

一、Nginx 简介

Nginx(发音同engine x)是一个异步框架的 Web 服务器,也可以用作反向代理,负载平衡器 和 HTTP 缓存。该软件由 Igor Sysoev 创建,并于2004年首次公开发布。同名公司成立于2011年,以提供支持。Nginx 是一款免费的开源软件,根据类 BSD 许可证的条款发布。一大部分Web服务器使用 Nginx ,通常作为负载均衡器。

Nginx的特点

  • 更快:
    • 单次请求会得到更快的响应。
    • 在高并发环境下,Nginx 比其他 WEB 服务器有更快的响应。
  • 高扩展性:
    • Nginx 是基于模块化设计,由多个耦合度极低的模块组成,因此具有很高的扩展性。许多高流量的网站都倾向于开发符合自己业务特性的定制模块。
  • 高可靠性:
    • Nginx 的可靠性来自于其核心框架代码的优秀设计,模块设计的简单性。另外,官方提供的常用模块都非常稳定,每个 worker 进程相对独立,master 进程在一个 worker 进程出错时可以快速拉起新的 worker 子进程提供服务。
  • 低内存消耗:
    • 一般情况下,10000个非活跃的 HTTP Keep-Alive 连接在 Nginx 中仅消耗 2.5MB 的内存,这是 Nginx 支持高并发连接的基础。
    • 单机支持10万以上的并发连接:理论上,Nginx 支持的并发连接上限取决于内存,10万远未封顶。
  • 热部署:
    • master 进程与 worker 进程的分离设计,使得 Nginx 能够提供热部署功能,即在 7x24 小时不间断服务的前提下,升级 Nginx 的可执行文件。当然,它也支持不停止服务就更新配置项,更换日志文件等功能。
  • 最自由的 BSD 许可协议:
    • 这是 Nginx 可以快速发展的强大动力。BSD 许可协议不只是允许用户免费使用 Nginx ,它还允许用户在自己的项目中直接使用或修改 Nginx 源码,然后发布。

为什么要学习Nginx

问题1:客户端到底要将请求发送给哪台服务器

问题2:如果所有客户端的请求都发送给了服务器1

问题3:客户端发送的请求可能是申请动态资源的,也有申请静态资源的

服务器搭建集群后

在搭建集群后,使用Nginx做反向代理

二、Nginx 安装(可以看Docker应用部署部分)

2.1 安装Nginx

使用docker-compose安装

1
2
3
4
5
#在/opt目录下创建docker_nginx目录
cd /opt
mkdir docker_nginx
#创建docker-compose.yml文件并编写下面的内容,保存退出
vim docker-compose.yml

文件内容

1
2
3
4
5
6
7
8
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:latest
container_name: nginx
ports:
- 80:80

执行

1
docker-compose up -d

访问80端口,看到下图说明安装成功

2.2 Nginx的配置文件

1
2
3
4
5
#查看当前nginx的配置需要进入docker容器中
docker exec -it 容器id bash
#进入容器后
cd /etc/nginx/
cat nginx.conf

nginx.conf文件内容如下

  • 全局块;events块;http块;
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
user  nginx;
worker_processes 1;

error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;
# 以上统称为全局块
# worker_processes的数值越大,Nginx的并发能力就越强
# error_log代表Nginx错误日志存放的位置
# pid是Nginx运行的一个标识
##############################################################################
events {
worker_connections 1024;
}
# events块
# worker_connections的数值越大,Nginx的并发能力就越强
##############################################################################
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;

log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';

access_log /var/log/nginx/access.log main;

sendfile on;
#tcp_nopush on;

keepalive_timeout 65;

#gzip on;
###############################
include /etc/nginx/conf.d/*.conf; # 主要关注这个
}
# http块
# include代表引入一个外部文件
# include /etc/nginx/mime.types; # mime.types中存放着大量媒体类型
# include /etc/nginx/conf.d/*.conf; # 引入了conf.d下以.conf为结尾的配置文件

conf.d目录下只有一个default.conf文件,内容如下

  • http中引入了server块和location
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
# server块
# listen代表Nginx监听的端口号
# server_name代表Nginx接受请求的IP

server {
listen 80;
listen [::]:80;
server_name localhost;

#charset koi8-r;
#access_log /var/log/nginx/host.access.log main;

location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
# location块
# root:将接受到的请求根据/usr/share/nginx/html去查找静态资源
# index:默认去上述的路径中找到index.html或index.htm

#error_page 404 /404.html;

# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}


# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1;
#}

# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}

# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}

【重要】配置文件主要五大块

将二者不重要的部分删除,简洁版:

  • 后期主要修改server
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
user  nginx;
worker_processes 1;
# 以上统称为全局块
# worker_processes的数值越大,Nginx的并发能力就越强
##############################################################################
events {
worker_connections 1024;
}
# events块
# worker_connections的数值越大,Nginx的并发能力就越强
##############################################################################
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;

server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
# location块
# root:将接受到的请求根据/usr/share/nginx/html去查找静态资源
# index:默认去上述的路径中找到index.html或index.htm
}
# server块
# listen 代表Nginx监听的端口号
# localhost 代表Nginx接收请求的IP
}
# http块
# include代表引入一个外部文件 -> mime.types中存放着大量媒体类型
# include /etc/nginx/conf.d/*.conf; # 引入了conf.d下以.conf为结尾的配置文件

2.3修改docker-compose文件(追加数据卷到宿主机中)

/opt/docker_nginx/conf.d/:/etc/nginx/conf.d:将容器中/etc/nginx/conf.d的配置目录映射到宿主机中/opt/docker_nginx/conf.d/位置

1
2
3
4
5
#退出容器
exit
#关闭容器
docker-compose down
#修改docker-compose.yml文件如下
1
2
3
4
5
6
7
8
9
10
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:latest
container_name: nginx
ports:
- 80:80
volumes:
- /root/docker_nginx/conf.d/:/etc/nginx/conf.d

重新构建容器

1
2
3
4
#重新构建容器
docker-compose build
#重新启动容器
docker-compose up -d

这时我们再次访问80端口是访问不到的,因为我们映射了数据卷之后还没有编写server块中的内容

我们在/opt/docker_nginx/conf.d下新建default.conf,并插入如下内容

1
2
3
4
5
6
7
8
9
10
server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
}

重启

1
2
#重启nginx
docker-compose restart

这时我们再访问80端口,可以看到是访问成功的

三、Nginx 反向代理

3.1正向代理和反向代理介绍

正向代理:

1.正向代理服务是由客户端设立的

2.客户端了解代理服务器和目标服务器都是谁

3.帮助咱们实现突破访问权限,提高访问的速度,对目标服务器隐藏客户端的ip地址

反向代理:

1.反向代理服务器是配置在服务端的

2.客户端不知道访问的到底是哪一台服务器

3.达到负载均衡,并且可以隐藏服务器真正的ip地址

3.2基于Nginx实现反向代理

目标:

准备一个目标服务器

启动tomcat服务器

编写nginx的配置文件(/opt/docker_nginx/conf.d/default.conf),通过Nginx访问到tomcat服务器


准备tomcat服务器

1
2
3
4
5
6
docker run -d -p 8080:8080 --name tomcat  daocloud.io/library/tomcat:8.5.15-jre8
#或者已经下载了tomcat镜像
docker run -d -p 8080:8080 --name tomcat 镜像的标识

#添加数据卷
docker run -it -v /宿主机绝对目录:/容器内目录 镜像名

default.conf文件内容如下

(先创建tomcat容器,然后在数据卷webapps下创建ROOT/index.html)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
server {
listen 80;
listen [::]:80;
server_name localhost;

# 基于反向代理访问到Tomcat服务器
location / {
proxy_pass http://192.168.149.128:8080/;
}
# 这是原来的
# location / {
# root /usr/share/nginx/html;
# index index.html index.htm;
# }

error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
}

每次修改完后要重启容器,docker restart 容器名

直接访问http: //192.168.149.128:8080/

基于反向代理访问的192.168.149.128

3.3关于Nginx的location路径映射

优先级关系: (location = ) > (location /xxx/yyy/zzz) > (location ^~) > (location ~,~*) > (location /起始路径) > (location /)

1
2
3
4
5
# 1. = 匹配
location / {
#精准匹配,主机名后面不能带任何字符串
#例如www.baidu.com不能是www.baidu.com/id=xxx
}
1
2
3
4
5
#2. 通用匹配
location /xxx {
#匹配所有以/xxx开头的路径
#例如127.0.0.1:8080/xxx xxx可以为空,为空则和=匹配一样
}
1
2
3
4
#3. 正则匹配
location ~ /xxx {
#匹配所有以/xxx开头的路径
}
1
2
3
4
#4. 匹配开头路径
location ^~ /xxx/xx {
#匹配所有以/xxx/xx开头的路径
}
1
2
3
4
#5. 匹配结尾路径
location ~* \.(gif/jpg/png)$ {
#匹配以.gif、.jpg或者.png结尾的路径
}

四、Nginx 负载均衡

Nginx为我们默认提供了三种负载均衡的策略:

1.轮询:

将客户端发起的请求,平均分配给每一台服务器

2.权重:

会将客户端的请求,根据服务器的权重值不同,分配不同的数量

3.ip_hash:

基于发起请求的客户端的ip地址不同,他始终会将请求发送到指定的服务器上,就是说如果这个客户端的请求的ip地址不变,那么处理请求的服务器将一直是同一个

4.1 轮询

想实现Nginx轮询负载均衡机制只需要修改配置文件如下

1
2
3
4
5
6
7
8
9
10
11
12
13
upstream my_server{
server http://192.168.149.128:8080;
server http://192.168.149.128:8081;
}
server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
proxy_pass http://my_server/; #tomcat首页
}
}

通用:

1
2
3
4
5
6
7
8
9
10
11
12
13
upstream 名字{
server ip:端口;
server 域名:端口;
}
server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
proxy_pass http://upstream的名字/;
}
}

4.2 权重

实现权重的方式:在配置文件中upstream块中加上weight

1
2
3
4
5
6
7
8
9
10
11
12
13
14
upstream my_server{
server http://192.168.149.128:8080 weight=10;
server http://192.168.149.128:8081 weight=2;
}
server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
proxy_pass http://my_server/; #tomcat首页
}
}

4.3 ip_hash

实现ip_hash方式:在配置文件upstream块中加上ip_hash;

1
2
3
4
5
6
7
8
9
10
11
12
13
14
upstream my_server{
ip_hash;
server http://192.168.149.128:8080 weight=10;
server http://192.168.149.128:8081 weight=2;
}
server {
listen 80;
listen [::]:80;
server_name localhost;

location / {
proxy_pass http://my_server/; #tomcat首页
}
}

五、Nginx 动静分离

Nginx的并发能力公式: worker_processes * worker_connections / 4|2 = Nginx最终的并发能力

动态资源需要/4,静态资源需要/2

Nginx通过动静分离来提升Nginx的并发能力,更快的给用户响应

5.1动态资源代理

1
2
3
4
#配置如下
location / {
proxy_pass 路径;
}

5.2静态资源代理

1
2
3
4
5
6
7
8
#停掉nginx
docker-compose down

修改docker-compose.yml添加静态资源数据卷
不同版本的静态资源位置可能不同,可以在2.2中查看默认的位置(location块中root后的路径)

#启动nginx
docker-compose up -d
1
2
3
4
5
6
7
8
9
10
11
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:latest
container_name: nginx
ports:
- 80:80
volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
- /opt/docker_nginx/html/:/usr/share/nginx/html

/opt/docker_nginx/html下新建一个index.html

1
2
3
4
5
6
7
8
# 在/opt/docker_nginx/html下新建一个index.html
# 在index.html里面随便写点东西展示
# 修改nginx的配置文件

location / {
root /usr/share/nginx/html;
index index.html;
}

配置如下:

1
2
3
4
5
6
#配置如下
location / {
root; # 静态资源路径;
index; # 默认访问路径下的什么资源;
autoindex on;#代表展示静态资源的全部内容,以列表的形式展开
}

1
2
#重启nginx
docker-compose restart

进行访问

六、Nginx 集群

单点故障,避免nginx的宕机,导致整个程序的崩溃

准备多台Nginx

准备keepalived,监听nginx的健康情况

准备haproxy,提供一个虚拟的路径,统一的去接收用户的请求

搭建

1
2
3
#先准备好以下文件放入/opt/docker_nginx_cluster目录中
#然后启动容器 注意确保80、8081和8082端口未被占用(或者修改docker-compose.yml中的端口)
docker-compose up -d

然后我们访问8081端口可以看到master,访问8082端口可以看到slave

因为我们设置了81端口的master优先级未200比82端口的slave优先级100高,所以我们访问80端口看到的是master

现在我们模仿8081端口的nginx宕机了

docker stop 8081端口nginx容器的ID

这时我们再去访问80端口看到的就是slave了


Dockerfile

1
2
3
4
5
6
7
8
9
10
11
FROM nginx:1.13.5-alpine

RUN apk update && apk upgrade

RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived

COPY entrypoint.sh /entrypoint.sh

RUN chmod +x /entrypoint.sh

CMD ["/entrypoint.sh"]

entrypoint.sh

1
2
3
4
5
6
7
#!/bin/sh

#/usr/sbin/keepalvined -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console &
/usr/sbin/keepalvined -D -f /etc/keepalived/keepalived.conf


nginx -g "daemon off;"

docker-compose.yml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
version: "3.1"
services:
nginx_master:
build:
context: ./
dockerfile: ./Dockerfile
ports:
-8081:80
volumes:
- ./index-master.html:/usr/share/nnginx/html/index.html
- ./favicon.ico:/usr/share/nnginx/html/favicon.ico
- ./keepalived-master.conf:/etv/keepalived/keepalived.conf
networks:
static-network:
ipv4_address:172.20.128.2
cap_add:
- NET_ADMIN
nginx_slave:
build:
context: ./
dockerfile: ./Dockerfile
ports:
-8082:80
volumes:
- ./index-slave.html:/usr/share/nnginx/html/index.html
- ./favicon.ico:/usr/share/nnginx/html/favicon.ico
- ./keepalived-slave.conf:/etv/keepalived/keepalived.conf
networks:
static-network:
ipv4_address:172.20.128.3
cap_add:
- NET_ADMIN
proxy:
image: haproxy:1.7-apline
ports:
- 80:6301
volumes:
- ./happroxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
networks:
- static-network
networks:
static-network:
ipam:
congig:
- subnet: 172.20.0.0/16

keepalived-master.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
}

vrrp_instance VI_1 {
state MASTER
interface etch0 #容器内部的网卡名称
virtual_router_id 33
priority 200 #优先级
advert_int 1

autheentication {
auth_type PASS
auth_pass letmein
}

virtual_ipaddress {
172.20.128.50 #虚拟路径
}

track_script {
chk_nginx
}
}

keepalived-slave.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
}

vrrp_instance VI_1 {
state BACKUP
interface etch0 #容器内部的网卡名称
virtual_router_id 33
priority 100 #优先级
advert_int 1

autheentication {
auth_type PASS
auth_pass letmein
}

virtual_ipaddress {
172.20.128.50 #虚拟路径
}

track_script {
chk_nginx
}
}

haproxy.cfg

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
global
log 127.0.0.1 local0
maxconn 4096
daemon
nbproc 4

defaults
log 127.0.0.1 local3
mode http
option dontlognull
option redispatch
retries 2
maxconn 2000
balance roundrobin
timeout connect 5000ms
timeout client 5000ms
timeout server 5000ms

frontend main
bind *:6301
default_backend webserver

backend webserveer
server nginx_master 127.20.127.50:80 check inter 2000 rise 2 fall 5

index-master.html

1
<h1>master!</h1>

index-slave.html

1
<h1>slave!</h1>