当前位置:首页 > 生活资讯 > 正文内容

如何解决并发问题(并发问题解决方案)

2023-04-25 00:20:17生活资讯1

并发问题解决方案

高并发最直接的解决方案就是使用多线程,多线程的使用是一门学问一两句道不清建议去实战学习一下,推荐书目:《Java并发编程实战》。

此外还要考虑数据库的优化和架构的调优。

解决并发的方法

并发与并行是两个既相似而又不相同的概念:并发性,又称共行性,是指能处理多个同时性活动的能力;并行是指同时发生的两个并发事件,具有并发的含义,而并发则不一定并行,也亦是说并发事件之间不一定要同一时刻发生。

并发的实质是一个物理CPU(也可以多个物理CPU) 在若干道程序之间多路复用,并发性是对有限物理资源强制行使多用户共享以提高效率。

并行性指两个或两个以上事件或活动在同一时刻发生。在多道程序环境下,并行性使多个程序同一时刻可在不同CPU上同时执行。

并发问题解决方案有哪些

在web应用中,同一时间有大量的客户端请求同时发送到服务器,例如抢购、秒杀等。这个时候如何避免将大量的请求同时发送到业务系统。

第一种方法:在容器中配置最大请求数,如果大于改请求数,则客户端阻塞。该方法有效的阻止了大量的请求同时访问业务系统,但对用于不友好。

第二种方法:使用过滤器,保证一定数量的请求能够正常访问系统,多余的请求先跳转到排队页面,由排队页面定时发起请求。过滤器实现如下:

<pre name="code" >

public class ServiceFilter implements Filter {

private static final int MAX_COUNT = 20;

private int filterCount = 0;

public void doFilter(ServletRequest request, ServletResponse response, FilterChain chain) throws IOException, ServletException {

System.out.println("before"+filterCount);

if(filterCount > MAX_COUNT) {

//请求个数太多,跳转到排队页面 request.getRequestDispatcher("index.jsp").forward(request, response);

}

else {

//请求个数加1

filterCount ++; chain.doFilter(request, response);

//访问结束,请求个数减1 filterCount --; } }

}

百度搜索圈T社区(www.aiquanti.com) 免费视频教程

解决并发问题的方法常见有三种

要解决高并发问题,先要了解负载均衡。什么是负载均衡?

当一台服务器的性能达到极限时,我们可以使用服务器集群来提高网站的整体性能。那么,在服务器集群中,需要有一台服务器充当调度者的角色,用户的所有请求都会首先由它接收,调度者再根据每台服务器的负载情况将请求分配给某一台后端服务器去处理。

那么在这个过程中,调度者如何合理分配任务,保证所有后端服务器都将性能充分发挥,从而保持服务器集群的整体性能最优,这就是负载均衡问题。

下面详细介绍负载均衡的五种实现方式

(一)HTTP重定向实现负载均衡

过程描述

当用户向服务器发起请求时,请求首先被集群调度者截获;调度者根据某种分配策略,选择一台服务器,并将选中的服务器的IP地址封装在HTTP响应消息头部的Location字段中,并将响应消息的状态码设为302,最后将这个响应消息返回给浏览器。

当浏览器收到响应消息后,解析Location字段,并向该URL发起请求,然后指定的服务器处理该用户的请求,最后将结果返回给用户。

在使用HTTP重定向来实现服务器集群负载均衡的过程中,需要一台服务器作为请求调度者。用户的一项操作需要发起两次HTTP请求,一次向调度服务器发送请求,获取后端服务器的IP,第二次向后端服务器发送请求,获取处理结果。

调度策略

随机分配策略

当调度服务器收到用户请求后,可以随机决定使用哪台后端服务器,然后将该服务器的IP封装在HTTP响应消息的Location属性中,返回给浏览器即可。

轮询策略(RR)

调度服务器需要维护一个值,用于记录上次分配的后端服务器的IP。那么当新的请求到来时,调度者将请求依次分配给下一台服务器。

由于轮询策略需要调度者维护一个值用于记录上次分配的服务器IP,因此需要额外的开销;此外,由于这个值属于互斥资源,那么当多个请求同时到来时,为了避免线程的安全问题,因此需要锁定互斥资源,从而降低了性能。而随机分配策略不需要维护额外的值,也就不存在线程安全问题,因此性能比轮询要高。

优缺点分析

采用HTTP重定向来实现服务器集群的负载均衡实现起来较为容易,逻辑比较简单,但缺点也较为明显。

在HTTP重定向方法中,调度服务器只在客户端第一次向网站发起请求的时候起作用。当调度服务器向浏览器返回响应信息后,客户端此后的操作都基于新的URL进行的(也就是后端服务器),此后浏览器就不会与调度服务器产生关系,进而会产生如下几个问题:

由于不同用户的访问时间、访问页面深度有所不同,从而每个用户对各自的后端服务器所造成的压力也不同。而调度服务器在调度时,无法知道当前用户将会对服务器造成多大的压力,因此这种方式无法实现真正意义上的负载均衡,只不过是把请求次数平均分配给每台服务器罢了。

若分配给该用户的后端服务器出现故障,并且如果页面被浏览器缓存,那么当用户再次访问网站时,请求都会发给出现故障的服务器,从而导致访问失败。

(二)DNS负载均衡

首先需要将我们的域名指向多个后端服务器(将一个域名解析到多个IP上),再设置一下调度策略,那么我们的准备工作就完成了,接下来的负载均衡就完全由DNS服务器来实现。

当用户向我们的域名发起请求时,DNS服务器会自动地根据我们事先设定好的调度策略选一个合适的IP返回给用户,用户再向该IP发起请求。

调度策略

一般DNS提供商会提供一些调度策略供我们选择,如随机分配、轮询、根据请求者的地域分配离他最近的服务器。

优缺点分析

DNS负载均衡最大的优点就是配置简单。服务器集群的调度工作完全由DNS服务器承担,那么我们就可以把精力放在后端服务器上,保证他们的稳定性与吞吐量。而且完全不用担心DNS服务器的性能,即便是使用了轮询策略,它的吞吐率依然卓越。此外,DNS负载均衡具有较强了扩展性,你完全可以为一个域名解析较多的IP,而且不用担心性能问题。

但是,由于把集群调度权交给了DNS服务器,从而我们没办法随心所欲地控制调度者,没办法定制调度策略。

DNS服务器也没办法了解每台服务器的负载情况,因此没办法实现真正意义上的负载均衡。它和HTTP重定向一样,只不过把所有请求平均分配给后端服务器罢了。

此外,当我们发现某一台后端服务器发生故障时,即使我们立即将该服务器从域名解析中去除,但由于DNS服务器会有缓存,该IP仍然会在DNS中保留一段时间,那么就会导致一部分用户无法正常访问网站。这是一个致命的问题!好在这个问题可以用动态DNS来解决。

动态DNS

动态DNS能够让我们通过程序动态修改DNS服务器中的域名解析。从而当我们的监控程序发现某台服务器挂了之后,能立即通知DNS将其删掉。

综上所述

DNS负载均衡是一种粗犷的负载均衡方法,这里只做介绍,不推荐使用。

(三)反向代理负载均衡(nginx+uwsgi)

什么是正向代理,正向代理是内网通过代理访问外网,这个代理就是正向代理。而反向代理是指,外网通过代理访问内网,那这个代理就是反向代理。

假设把你公司的网看成是内网,那么你从公司里面的一台电脑上访问你家里的电脑上的服务,那就的通过正向代理,而你从你家电脑访问公司的这台电脑,就要通过反向代理。

使用代理服务器可以将请求转发给内部的Web服务器,使用这种加速模式显然可以提升静态网页的访问速度。因此也可以考虑使用这种技术,让代理服务器将请求 均匀转发给多台内部Web服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web 服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式。

反向代理处于web服务器这边,反向代理服务器提供负载均衡的功能,同时管理一组web服务器,它根据负载均衡算法将请求的浏览器访问转发到不同的web服务器处理,处理结果经过反向服务器返回给浏览器。

优点:

隐藏后端服务器。

与HTTP重定向相比,反向代理能够隐藏后端服务器,所有浏览器都不会与后端服务器直接交互,从而能够确保调度者的控制权,提升集群的整体性能。

故障转移

与DNS负载均衡相比,反向代理能够更快速地移除故障结点。当监控程序发现某一后端服务器出现故障时,能够及时通知反向代理服务器,并立即将其删除。

合理分配任务

HTTP重定向和DNS负载均衡都无法实现真正意义上的负载均衡,也就是调度服务器无法根据后端服务器的实际负载情况分配任务。但反向代理服务器支持手动设定每台后端服务器的权重。我们可以根据服务器的配置设置不同的权重,权重的不同会导致被调度者选中的概率的不同。

缺点:

调度者压力过大

由于所有的请求都先由反向代理服务器处理,那么当请求量超过调度服务器的最大负载时,调度服务器的吞吐率降低会直接降低集群的整体性能。

制约扩展

当后端服务器也无法满足巨大的吞吐量时,就需要增加后端服务器的数量,可没办法无限量地增加,因为会受到调度服务器的最大吞吐量的制约。

(四)IP负载均衡

原理:在网络层通过修改目标地址进行负载均衡。

用户访问请求到达负载均衡服务器,负载均衡服务器在操作系统内核进程获取网络数据包,根据算法得到一台真实服务器地址,然后将用户请求的目标地址修改成该真实服务器地址,数据处理完后返回给负载均衡服务器,负载均衡服务器收到响应后将自身的地址修改成原用户访问地址后再讲数据返回回去。类似于反向服务器负载均衡。

优点:在响应请求时速度较反向服务器负载均衡要快。

缺点:当请求数据较大(大型视频或文件)时,速度较慢。

(五)数据链路层负载均衡

原理:在数据链路层修改Mac地址进行负载均衡。

负载均衡服务器的IP和它所管理的web 服务群的虚拟IP一致;

负载均衡数据分发过程中不修改访问地址的IP地址,而是修改Mac地址;

通过这两点达到不修改数据包的原地址和目标地址就可以进行正常的访问。

优点:不需要负载均衡服务器进行地址的转换。数据响应时不需要经过负载均衡服务器。

缺点:负载均衡服务器的网卡带宽要求较高。

并发的解决方案

1.所有的对象都放在内存,20万用户以下无压力。

2.如果游戏的用户很多,例如超过50万,内存就会不够,可使用LRU算法来淘汰一些数据。

流程:收到用户请求-在内存查找用户对象-如果不存在就从数据库中加载-放入内存cache-如果cache中的用户超过20万-用LRU算法淘汰最古老的用户数据。

3.避免同步的IO操作,所有会发生写数据库的操作:例如角色获得了经验,要更新数据库;这类和游戏逻辑相关、安全性要求不高的保存操作,一律用异步操作,由后台的数据库保存线程定期保存。

流程:如果要保存到数据库-检查该对象是否已有标志为在保存队列中-如果为假-将对象放入保存队列。后台保存线程的流程:从队列中获取要保存的对象-保存-置保存标志位为假。

内存cache+异步保存模式,并发每秒1000+不会有任何压力,而且正常情况下每个请求的处理时间不会超过50毫秒。

邮件操作一定产生大量IO操作,而且都是同步操作,可用上面的cache机制处理,或者专门的邮件服务器。

如果是DNF之类的格斗类游戏,因为对系统响应的时间要求特别高,50毫秒都嫌慢,这种情况下,瓶颈是在网络上,可用UDP包来解决。搜索UDP,有大量文档。

如果用户数是海量的,例如超过500万,或者对并发的要求更高,例如每秒5000+次请求,这种指标明显超过了单机的处理能力,这个时候就必须采用分布式结构,使用多台服务器。可参照EJB二次远程调用的原理实现多机分布式结构,搜索EJB,也有大量文档。

没事不要用c或者c++写游戏服务器端,c#和java这类历史悠久、有大量工具包、程序员一抓一大把的语言最好。性能不是问题,少BUG、稳定、开发周期短才是最重要的。

并发问题解决方案设计

这个问题的解决方案是需要是要根据具体的业务场景具体分析的

举例:常见的秒杀系统

1.限流,通过设置服务器的连接等待数量及等待时间,以tomcat为例,通过设置maxthread的值,当连接数超过则会放入等待队列,同时也可设置acceptcount值,若等待数超过,则会提示连接拒绝

2.引入redis,将秒杀商品数据放入redis,用户点击抢购,将商品ID去查redis,若商品存在则生成订单,并保存到缓存,同时库存-1,减完后判断商品库存是否大于0,大于0则更新缓存,否则删除该商品缓存,并更新库表(以上步骤仅为单线程操作,需加锁实现,或可考虑采用redis的list对象去实现单线程操作)

3.利用CDN抗压静态页面流量

为了防止用户秒杀前不断刷新产生的流量,可考虑将秒杀商品详情页的内容静态化处理,除了提交订单,其他数据都可缓存在CDN上

除此之外还可引入消息队列,对非即时响应的服务通过队列进行解耦

并发问题解决方案怎么写

1:系统拆分,将一个系统拆分为多个子系统,用dubbo来搞。然后每个系统连一个数据库,这样本来就一个库,现在多个数据库,这样就可以抗高并发。

2:缓存,必须得用缓存。大部分的高并发场景,都是读多写少,那你完全可以在数据库和缓存里都写一份,然后读的时候大量走缓存不就得了。毕竟人家redis轻轻松松单机几万的并发啊。没问题的。所以你可以考的虑考虑你的项目里,那些承载主要请求读场景,怎么用缓存来抗高并发。

视频课程推荐→:《千万级数据并发解决方案(理论+实战)》

3:MQ(消息队列),必须得用MQ。可能你还是会出现高并发写的场景,比如说一个业务操作里要频繁搞数据库几十次,增删改增删改,疯了。那高并发绝对搞挂你的系统,人家是缓存你要是用redis来承载写那肯定不行,数据随时就被LRU(淘汰掉最不经常使用的)了,数据格式还无比简单,没有事务支持。所以该用mysql还得用mysql啊。那你咋办?用MQ吧,大量的写请求灌入MQ里,排队慢慢玩儿,后边系统消费后慢慢写,控制在mysql承载范围之内。所以你得考虑考虑你的项目里,那些承载复杂写业务逻辑的场景里,如何用MQ来异步写,提升并发性。MQ单机抗几万并发也是ok的。

本网站文章仅供交流学习 ,不作为商用, 版权归属原作者,部分文章推送时未能及时与原作者取得联系,若来源标注错误或侵犯到您的权益烦请告知,我们将立即删除.

本文链接:https://www.xibujisuan.cn/98796500.html