Nginx入门教程:https://xuexb.github.io/learn-nginx/guide/#nginx%E7%9A%84%E7%89%B9%E7%82%B9-2
参考的Nginx学习笔记:https://blog.csdn.net/m0_49558851/article/details/107786372
一、Nginx 简介 Nginx(发音同engine x)是一个异步框架的 Web 服务器,也可以用作反向代理,负载平衡器 和 HTTP 缓存。该软件由 Igor Sysoev 创建,并于2004年首次公开发布。同名公司成立于2011年,以提供支持。Nginx 是一款免费的开源软件,根据类 BSD 许可证的条款发布。一大部分Web服务器使用 Nginx ,通常作为负载均衡器。
Nginx的特点 更快:单次请求会得到更快的响应。 在高并发环境下,Nginx 比其他 WEB 服务器有更快的响应。 高扩展性:Nginx 是基于模块化设计,由多个耦合度极低的模块组成,因此具有很高的扩展性。许多高流量的网站都倾向于开发符合自己业务特性的定制模块。 高可靠性:Nginx 的可靠性来自于其核心框架代码的优秀设计,模块设计的简单性。另外,官方提供的常用模块都非常稳定,每个 worker 进程相对独立,master 进程在一个 worker 进程出错时可以快速拉起新的 worker 子进程提供服务。 低内存消耗:一般情况下,10000个非活跃的 HTTP Keep-Alive
连接在 Nginx 中仅消耗 2.5MB
的内存,这是 Nginx 支持高并发连接的基础。 单机支持10万以上的并发连接:理论上,Nginx 支持的并发连接上限取决于内存,10万远未封顶。 热部署:master 进程与 worker 进程的分离设计,使得 Nginx 能够提供热部署功能,即在 7x24 小时不间断服务的前提下,升级 Nginx 的可执行文件。当然,它也支持不停止服务就更新配置项,更换日志文件等功能。 最自由的 BSD 许可协议:这是 Nginx 可以快速发展的强大动力。BSD 许可协议不只是允许用户免费使用 Nginx ,它还允许用户在自己的项目中直接使用或修改 Nginx 源码,然后发布。 为什么要学习Nginx ?
问题1:客户端到底要将请求发送给哪台服务器
问题2:如果所有客户端的请求都发送给了服务器1
问题3:客户端发送的请求可能是申请动态资源的,也有申请静态资源的
服务器搭建集群后
在搭建集群后,使用Nginx做反向代理
二、Nginx 安装(可以看Docker应用部署部分) 2.1 安装Nginx 使用docker-compose安装
1 2 3 4 5 # 在/opt目录下创建docker_nginx目录 cd /opt mkdir docker_nginx# 创建docker-compose.yml文件并编写下面的内容,保存退出 vim docker-compose.yml
文件内容
1 2 3 4 5 6 7 8 version: '3.1' services: nginx: restart: always image: daocloud.io/library/nginx:latest container_name: nginx ports: - 80 :80
执行
访问80端口,看到下图说明安装成功
2.2 Nginx的配置文件 1 2 3 4 5 # 查看当前nginx的配置需要进入docker容器中 docker exec -it 容器id bash# 进入容器后 cd /etc/nginx/ cat nginx.conf
nginx.conf
文件内容如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 user nginx; worker_processes 1; error_log /var/log/nginx/error.log warn; pid /var/run/nginx.pid; events { worker_connections 1024; } http { include /etc/nginx/mime.types; default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"' ; access_log /var/log/nginx/access.log main; sendfile on; keepalive_timeout 65; include /etc/nginx/conf.d/*.conf; }
conf.d
目录下只有一个default.conf
文件,内容如下
http中引入了server
块和location
块 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 # server块 # listen代表Nginx监听的端口号 # server_name代表Nginx接受请求的IP server { listen 80; listen [::]:80; server_name localhost; #charset koi8-r; #access_log /var/log/nginx/host.access.log main; location / { root /usr/share/nginx/html; index index.html index.htm; } # location块 # root:将接受到的请求根据/usr/share/nginx/html去查找静态资源 # index:默认去上述的路径中找到index.html或index.htm #error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root /usr/share/nginx/html; } # proxy the PHP scripts to Apache listening on 127.0.0.1:80 # #location ~ \.php$ { # proxy_pass http://127.0.0.1; #} # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000 # #location ~ \.php$ { # root html; # fastcgi_pass 127.0.0.1:9000; # fastcgi_index index.php; # fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; # include fastcgi_params; #} # deny access to .htaccess files, if Apache's document root # concurs with nginx's one # #location ~ /\.ht { # deny all; #} }
【重要】配置文件主要五大块 将二者不重要的部分删除,简洁版:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 user nginx; worker_processes 1;# 以上统称为全局块 # worker_processes的数值越大,Nginx的并发能力就越强 # events { worker_connections 1024; }# events块 # worker_connections的数值越大,Nginx的并发能力就越强 # http { include /etc/nginx/mime.types; default_type application/octet-stream; server { listen 80; listen [::]:80; server_name localhost; location / { root /usr/share/nginx/html; index index.html index.htm; } # location块 # root:将接受到的请求根据/usr/share/nginx/html去查找静态资源 # index:默认去上述的路径中找到index.html或index.htm } # server块 # listen 代表Nginx监听的端口号 # localhost 代表Nginx接收请求的IP }# http块 # include代表引入一个外部文件 -> mime.types中存放着大量媒体类型 # include /etc/nginx/conf.d/*.conf;
2.3修改docker-compose文件(追加数据卷到宿主机中) /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
:将容器中/etc/nginx/conf.d
的配置目录映射到宿主机中/opt/docker_nginx/conf.d/
位置
1 2 3 4 5 # 退出容器 exit# 关闭容器 docker-compose down# 修改docker-compose.yml文件如下
1 2 3 4 5 6 7 8 9 10 version: '3.1' services: nginx: restart: always image: daocloud.io/library/nginx:latest container_name: nginx ports: - 80 :80 volumes: - /root/docker_nginx/conf.d/:/etc/nginx/conf.d
重新构建容器
1 2 3 4 # 重新构建容器 docker-compose build# 重新启动容器 docker-compose up -d
这时我们再次访问80端口是访问不到的,因为我们映射了数据卷之后还没有编写server块中的内容
我们在/opt/docker_nginx/conf.d下新建default.conf,并插入如下内容
1 2 3 4 5 6 7 8 9 10 server { listen 80; listen [::]:80; server_name localhost; location / { root /usr/share/nginx/html; index index.html index.htm; } }
重启
1 2 # 重启nginx docker-compose restart
这时我们再访问80端口,可以看到是访问成功的
三、Nginx 反向代理 3.1正向代理和反向代理介绍 正向代理:
1.正向代理服务是由客户端设立的
2.客户端了解代理服务器和目标服务器都是谁
3.帮助咱们实现突破访问权限,提高访问的速度,对目标服务器隐藏客户端的ip地址
反向代理:
1.反向代理服务器是配置在服务端的
2.客户端不知道访问的到底是哪一台服务器
3.达到负载均衡,并且可以隐藏服务器真正的ip地址
3.2基于Nginx实现反向代理 目标:
准备一个目标服务器
启动tomcat服务器
编写nginx的配置文件(/opt/docker_nginx/conf.d/default.conf),通过Nginx访问到tomcat服务器
准备tomcat服务器
1 2 3 4 5 6 docker run -d -p 8080 :8080 --name tomcat daocloud.io/library/tomcat:8.5 .15 -jre8 #或者已经下载了tomcat镜像 docker run -d -p 8080 :8080 --name tomcat 镜像的标识 #添加数据卷 docker run -it -v /宿主机绝对目录:/容器内目录 镜像名
default.conf文件内容如下
(先创建tomcat容器,然后在数据卷webapps下创建ROOT/index.html)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 server { listen 80; listen [::]:80; server_name localhost; # 基于反向代理访问到Tomcat服务器 location / { proxy_pass http://192.168.149.128:8080/; } # 这是原来的 # location / { # root /usr/share/nginx/html; # index index.html index.htm; # } error_page 500 502 503 504 /50x.html; location = /50x.html { root /usr/share/nginx/html; } }
每次修改完后要重启容器,docker restart 容器名
直接访问http: //192.168.149.128:8080/
基于反向代理访问的192.168.149.128
3.3关于Nginx的location路径映射 优先级关系: (location = )
> (location /xxx/yyy/zzz)
> (location ^~)
> (location ~,~*)
> (location /起始路径)
> (location /)
1 2 3 4 5 # 1. = 匹配 location / { # 精准匹配,主机名后面不能带任何字符串 # 例如www.baidu.com不能是www.baidu.com/id=xxx }
1 2 3 4 5 # 2. 通用匹配 location /xxx { # 匹配所有以/xxx开头的路径 # 例如127.0.0.1:8080/xxx xxx可以为空,为空则和=匹配一样 }
1 2 3 4 # 3. 正则匹配 location ~ /xxx { # 匹配所有以/xxx开头的路径 }
1 2 3 4 # 4. 匹配开头路径 location ^~ /xxx/xx { # 匹配所有以/xxx/xx开头的路径 }
1 2 3 4 # 5. 匹配结尾路径 location ~* \.(gif/jpg/png)$ { # 匹配以.gif、.jpg或者.png结尾的路径 }
四、Nginx 负载均衡 Nginx为我们默认提供了三种负载均衡的策略:
1.轮询:
将客户端发起的请求,平均分配给每一台服务器
2.权重:
会将客户端的请求,根据服务器的权重值不同,分配不同的数量
3.ip_hash:
基于发起请求的客户端的ip地址不同,他始终会将请求发送到指定的服务器上,就是说如果这个客户端的请求的ip地址不变,那么处理请求的服务器将一直是同一个
4.1 轮询 想实现Nginx轮询负载均衡机制只需要修改配置文件如下
1 2 3 4 5 6 7 8 9 10 11 12 13 upstream my_server{ server http://192.168.149.128:8080; server http://192.168.149.128:8081; } server { listen 80; listen [::]:80; server_name localhost; location / { proxy_pass http://my_server/; #tomcat首页 } }
通用:
1 2 3 4 5 6 7 8 9 10 11 12 13 upstream 名字{ server ip:端口; server 域名:端口; } server { listen 80; listen [::]:80; server_name localhost; location / { proxy_pass http://upstream的名字/; } }
4.2 权重 实现权重的方式:在配置文件中upstream块中加上weight
1 2 3 4 5 6 7 8 9 10 11 12 13 14 upstream my_server{ server http://192.168.149.128:8080 weight=10; server http://192.168.149.128:8081 weight=2; } server { listen 80; listen [::]:80; server_name localhost; location / { proxy_pass http://my_server/; #tomcat首页 } }
4.3 ip_hash 实现ip_hash方式:在配置文件upstream块中加上ip_hash;
1 2 3 4 5 6 7 8 9 10 11 12 13 14 upstream my_server{ ip_hash; server http://192.168.149.128:8080 weight=10; server http://192.168.149.128:8081 weight=2; } server { listen 80; listen [::]:80; server_name localhost; location / { proxy_pass http://my_server/; #tomcat首页 } }
五、Nginx 动静分离 Nginx的并发能力公式: worker_processes * worker_connections / 4|2
= Nginx最终的并发能力
动态资源需要/4,静态资源需要/2
Nginx通过动静分离来提升Nginx的并发能力,更快的给用户响应
5.1动态资源代理 1 2 3 4 # 配置如下 location / { proxy_pass 路径; }
5.2静态资源代理 1 2 3 4 5 6 7 8 # 停掉nginx docker-compose down 修改docker-compose.yml添加静态资源数据卷 不同版本的静态资源位置可能不同,可以在2.2中查看默认的位置(location块中root后的路径)# 启动nginx docker-compose up -d
1 2 3 4 5 6 7 8 9 10 11 version: '3.1' services: nginx: restart: always image: daocloud.io/library/nginx:latest container_name: nginx ports: - 80 :80 volumes: - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d - /opt/docker_nginx/html/:/usr/share/nginx/html
在/opt/docker_nginx/html
下新建一个index.html
1 2 3 4 5 6 7 8 # 在/opt/docker_nginx/html下新建一个index.html # 在index.html里面随便写点东西展示 # 修改nginx的配置文件 location / { root /usr/share/nginx/html; index index.html; }
配置如下:
1 2 3 4 5 6 # 配置如下 location / { root; # 静态资源路径; index; # 默认访问路径下的什么资源; autoindex on;#代表展示静态资源的全部内容,以列表的形式展开 }
1 2 # 重启nginx docker-compose restart
进行访问
六、Nginx 集群 单点故障,避免nginx的宕机,导致整个程序的崩溃
准备多台Nginx
准备keepalived,监听nginx的健康情况
准备haproxy,提供一个虚拟的路径,统一的去接收用户的请求
搭建
1 2 3 # 先准备好以下文件放入/opt/docker_nginx_cluster目录中 # 然后启动容器 注意确保80、8081和8082端口未被占用(或者修改docker-compose.yml中的端口) docker-compose up -d
然后我们访问8081端口可以看到master,访问8082端口可以看到slave
因为我们设置了81端口的master优先级未200比82端口的slave优先级100高,所以我们访问80端口看到的是master
现在我们模仿8081端口的nginx宕机了
docker stop 8081端口nginx容器的ID
这时我们再去访问80端口看到的就是slave了
Dockerfile
1 2 3 4 5 6 7 8 9 10 11 FROM nginx:1.13.5-alpine RUN apk update && apk upgrade RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived COPY entrypoint.sh /entrypoint.sh RUN chmod +x /entrypoint.sh CMD ["/entrypoint.sh"]
entrypoint.sh
1 2 3 4 5 6 7 # !/bin/sh # /usr/sbin/keepalvined -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console & /usr/sbin/keepalvined -D -f /etc/keepalived/keepalived.conf nginx -g "daemon off;"
docker-compose.yml
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 version: "3.1" services: nginx_master: build: context: ./ dockerfile: ./Dockerfile ports: -8081 :80 volumes: - ./index-master.html:/usr/share/nnginx/html/index.html - ./favicon.ico:/usr/share/nnginx/html/favicon.ico - ./keepalived-master.conf:/etv/keepalived/keepalived.conf networks: static-network: ipv4_address:172.20.128.2 cap_add: - NET_ADMIN nginx_slave: build: context: ./ dockerfile: ./Dockerfile ports: -8082 :80 volumes: - ./index-slave.html:/usr/share/nnginx/html/index.html - ./favicon.ico:/usr/share/nnginx/html/favicon.ico - ./keepalived-slave.conf:/etv/keepalived/keepalived.conf networks: static-network: ipv4_address:172.20.128.3 cap_add: - NET_ADMIN proxy: image: haproxy:1.7-apline ports: - 80 :6301 volumes: - ./happroxy.cfg:/usr/local/etc/haproxy/haproxy.cfg networks: - static-network networks: static-network: ipam: congig: - subnet: 172.20 .0 .0 /16
keepalived-master.conf
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 vrrp_script chk_nginx { script "pidof nginx" interval 2 } vrrp_instance VI_1 { state MASTER interface etch0 #容器内部的网卡名称 virtual_router_id 33 priority 200 #优先级 advert_int 1 autheentication { auth_type PASS auth_pass letmein } virtual_ipaddress { 172.20.128.50 #虚拟路径 } track_script { chk_nginx } }
keepalived-slave.conf
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 vrrp_script chk_nginx { script "pidof nginx" interval 2 } vrrp_instance VI_1 { state BACKUP interface etch0 #容器内部的网卡名称 virtual_router_id 33 priority 100 #优先级 advert_int 1 autheentication { auth_type PASS auth_pass letmein } virtual_ipaddress { 172.20.128.50 #虚拟路径 } track_script { chk_nginx } }
haproxy.cfg
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 global log 127.0.0.1 local0 maxconn 4096 daemon nbproc 4 defaults log 127.0.0.1 local3 mode http option dontlognull option redispatch retries 2 maxconn 2000 balance roundrobin timeout connect 5000ms timeout client 5000ms timeout server 5000ms frontend main bind *:6301 default_backend webserver backend webserveer server nginx_master 127.20.127.50:80 check inter 2000 rise 2 fall 5
index-master.html
index-slave.html