33

Nginx正向代理、反向代理、负载均衡及项目实战!

 5 years ago
source link: http://mp.weixin.qq.com/s?__biz=MzIzNTg3MDQyMQ%3D%3D&%3Bmid=2247486086&%3Bidx=3&%3Bsn=bcc1b8a2da392a67b9f4e61ec6a8c16c
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

fyiQvuU.jpg!web

来源:http://39sd.cn/372A9

正向代理

Nginx 不仅可以做反向代理,实现负载均衡。 还能用作正向代理来进行上网等功能。 正向代理: 如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

  • 简单一点: 通过代理服务器来访问服务器的过程 就叫 正向代理。

  • 需要在客户端配置代理服务器进行指定网站访问

IF7buaq.jpg!web

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问。

我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

vqMFrie.jpg!web

nginx反向代理配置实例

1. 实现效果

打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页 面中

2. 准备工作

(1)在 liunx 系统安装 tomcat,使用默认端口 8080,我这里8080被其他应用占用,所以我已修改端口为8081。 在conf目录下的server.xml配置文件中,如下,将port改为 8081,其实下面也有类似的Connector 标签,但是要看protocol协议为HTTP/1.1的标签修改即可。

<Connector port="8081" protocol="HTTP/1.1"
 connectionTimeout="20000"
 redirectPort="8443" />

tomcat 安装文件放到 liunx 系统中,解压。

Tomcat的路径:

/usr/feng/apach-tomcat/tomcat8081下

进入 tomcat 的 bin 目录中,./startup.sh 启动 tomcat 服务器。

(2)对外开放访问的端口 (我这里不需要)

firewall-cmd --add-port=8080/tcp --permanent

firewall-cmd –reload

查看已经开放的端口号 firewall-cmd --list-all

(3)在 windows 系统中通过浏览器访问 tomcat 服务器

别忘了开启tomcat,在bin目录下,使用 命令:

./startup.sh

y2Ej6nJ.jpg!web

3. 访问过程的分析

mQBVFfQ.jpg!web

4、具体配置

a. 第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置

EZzMJf2.jpg!web

添加内容在 host 文件中

7ZVfmm2.jpg!web

b . 第二步 在 nginx 进行请求转发的配置(反向代理配置)

veuIfyV.jpg!web

5、最终测试

如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故 访问该域名时会跳转到 127.0.0.1:8081 路径上。 在浏览器端输入 www.123.com 结果如下:

vYNZraE.jpg!web

负载均衡

增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的 情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负 载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成 本也低。 但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。 很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。 最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。 那么怎么办呢? 上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢? 这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均衡

iMR3Yv3.jpg!web

vIviuar.jpg!web

Nginx 负载均衡 配置实例

1. 实现效果

浏览器地址栏输入地址 http://208.208.128.122/edu/a.html,负载均衡效果,平均 8081 和 8082 端口中

2. 准备工作

a.准备两台 tomcat 服务器

准备两台 tomcat 服务器,一台 8081,一台 8082

上面的反向代理第二个实例中已经配置成功了。 但是需要添加点东西,如下哦。

b. 修改一处

在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试。

由于第二个实例中,8082中有了 edu 的文件夹,所以只在8081 文件夹下创建即可。

然后使用在vod文件下使用命令:

cp a.html ../edu/

即可完成,

查看命令

cd ../edu/ # 进入到 edu 目录下
cat a.html #查看内容

c. 测试页面

测试URL

http://208.208.128.122:8081/edu/a.html

r226r27.jpg!web

http://208.208.128.122:8082/edu/a.html

YZBRZ32.jpg!web

3. 在 nginx 的配置文件中进行负载均衡的配置

修改了第一个示例的 配置

J3uyyaR.jpg!web

4. 最终测试

测试url

http://208.208.128.122/edu/a.html

aYbARfb.jpg!web

7BnQBja.jpg!web

5. nginx 分配服务器策略

随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。 快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

a. 轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

配置方式:

b. weight

weight 代表权重, 默认为 1,权重越高被分配的客户端越多

 upstream myserver {
 server 208.208.128.122:8081 weight=10; # 在这儿
 server 208.208.128.122:8082 weight=10;
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;
 }

c. ip_hash

ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

 upstream myserver {
 	ip_hash;							// 在这儿
 server 208.208.128.122:8081 ;
 server 208.208.128.122:8082 ;
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;
 }

d. fair(第三方)

fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。

 upstream myserver {					
 server 208.208.128.122:8081 ;
 server 208.208.128.122:8082 ;
 fair; 														# 在这儿
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;

}


Recommend

  • 79

    欢迎关注:glmapper_2018 引言 先来看下nginx在web服务器排名上的趋势: 存在即合理,那为什么要使用nginx呢?这得看看nginx能帮我们做些什么。 首先,nginx能做反向代理【关于反向代理和正向代理此处不做说明了,感兴趣的小伙伴自行谷

  • 48

    1、正向代理和反向代理的概念 无论是正向代理,还是反向代理,说到底,就是代理模式的衍生版本罢了。我们都学习过代理设计模式,都知道代理模式中有代理角色和被代理角色,为什么这么说,因为这两个角色对于我们理解正向和反向代...

  • 35
    • www.tuicool.com 5 years ago
    • Cache

    Nginx反向代理与负载均衡

    学到老活到老 前端圈一直很新,一直要不停的学习,而且在进入大厂的路上,还要求熟悉一门后台语言等等。用一句别人开玩笑的话来说,Java十年前的技术现在还能用,而前端的技术就不是这样的了。 突然想起了deno项目发...

  • 43

    反向代理 1.概念 反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器;并将从服务器上得到的结果返回给Internet上请求连接的客户端,此时代理服务器对...

  • 10

    想必大家一定听说过 Nginx,若没听说过它,那么一定听过它的"同行"Apache 吧! Nginx 的产生 Nginx 同 Apache 一样都是一种 Web 服务器。基于 REST 架构风格,以统一资源描述符(Uniform Resources Identifier)URI 或者统一资源定位...

  • 24

    作者:蹦蹦啪来源:https://urlify.cn/bUviIz 一、SLB 产生背景 SLB(服务器负载均衡):在多个提供相同服务的服务器的情况下,负载均衡设备存在虚拟服务地址,当大量客户端从外部访问虚拟服务IP地址时,负载均衡设备将这些报文...

  • 8

    看到这里的同学应该对「代理」并不陌生。无论是特别的上网技能还是 Nginx 映射本地端口,都离不开代理的特效。这次,让我们再一次看看:代理,究竟是如何运作的。并重点介绍下可能更陌生一点的「反向代理」,我们可以用反向代理干什么。What’s...

  • 4
    • www.androidchina.net 2 years ago
    • Cache

    反向代理和正向代理有什么区别?

    反向代理和正向代理有什么区别? – Android开发中文站 Android开发中文站 ...

  • 6

    正向代理和反向代理有什么区别? 在本次回答中,我将会加入几个例子,以便于理解。 在电脑领域里,我们说的是一部服务器代表另一台电脑处理访问网络、爬取数据等工作。 为了便于访问的有效性使用,我将仅限于网络...

  • 7

    系统设计中正向代理和反向代理的差异原文链接:https://medium.com/javare...

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK