Netty服务器线程模型概览

来源:互联网 发布:node.js 构建工具 编辑:程序博客网 时间:2024/05/22 17:14

netty_modle

一切从ServerBootstrap开始

ServerBootstrap 负责初始话netty服务器,并且开始监听端口的socket请求。

1
2
3
4
5
6
7
8
9
10
bootstrap bootstrap = newServerBootstrap( 
    newNioServerSocketChannelFactory( 
        Executors.newCachedThreadPool(),//boss线程池 
        Executors.newCachedThreadPool()//worker线程池 
    
); 
bootstrap.setPipelineFactory(newHttpChannelPipelineFactory()); 
bootstrap.setOption("child.tcpNoDelay",true); 
bootstrap.setOption("child.keepAlive",true); 
bootstrap.bind(newInetSocketAddress(httpPort));//端口开始监听

ServerBootstrap 用一个ServerSocketChannelFactory 来实例化。ServerSocketChannelFactory 有两种选择,一种是NioServerSocketChannelFactory,一种是OioServerSocketChannelFactory。 前者使用NIO,后则使用普通的阻塞式IO。它们都需要两个线程池实例作为参数来初始化,一个是boss线程池,一个是worker线程池。

ServerBootstrap.bind(int)负责绑定端口,当这个方法执行后,ServerBootstrap就可以接受指定端口上的socket连接了。一个ServerBootstrap可以绑定多个端口。

boss线程和worker线程

可 以这么说,ServerBootstrap监听的一个端口对应一个boss线程,它们一一对应。比如你需要netty监听80和443端口,那么就会有两 个boss线程分别负责处理来自两个端口的socket请求。在boss线程接受了socket连接求后,会产生一个channel(一个打开的 socket对应一个打开的channel),并把这个channel交给ServerBootstrap初始化时指定的 ServerSocketChannelFactory来处理,boss线程则继续处理socket的请求。

ServerSocketChannelFactory则会从worker线程池中找出一个worker线程来继续处理这个请求。
如 果是OioServerSocketChannelFactory的话,那个这个channel上所有的socket消息消息,从开始到 channel(socket)关闭,都只由这个特定的worker来处理,也就是说一个打开的socket对应一个指定的worker线程,这个 worker线程在socket没有关闭的情况下,也只能为这个socket处理消息,无法服务器他socket。

如果是NioServerSocketChannelFactory的话则不然,每个worker可以服务不同的socket或者说channel,worker线程和channel不再有一一对应的关系。
显然,NioServerSocketChannelFactory只需要少量活动的worker线程及能很好的处理众多的channel,而OioServerSocketChannelFactory则需要与打开channel等量的worker线程来服务。

线 程是一种资源,所以当netty服务器需要处理长连接的时候,最好选择NioServerSocketChannelFactory,这样可以避免创建大 量的worker线程。在用作http服务器的时候,也最好选择NioServerSocketChannelFactory,因为现代浏览器都会使用 http keepalive功能(可以让浏览器的不同http请求共享一个信道),这也是一种长连接。

worker线程的生命周期(life circle)

当 某个channel有消息到达或者有消息需要写入socket的时候,worker线程就会从线程池中取出一个。在worker线程中,消息会经过设定好 的ChannelPipeline处理。ChannelPipeline就是一堆有顺序的filter,它分为两部分:UpstreamHandler和 DownStreamHandler。本文着重介绍netty的线程模型,所以关于pipeline的内容从简说明。

客户端送入的消息会首先由许多UpstreamHandler依次处理,处理得到的数据送入应用的业务逻辑handler,通常用SimpleChannelUpstreamHandler来实现这一部分。

1
2
3
4
5
publicclassSimpleChannelUpstreamHandler{ 
    publicvoidmessageReceived(ChannelHandlerContext c,MessageEvent e) throwsException{ 
        //业务逻辑开始掺入 
    
}

对 于Nio当messageReceived()方法执行后,如果没有产生异常,worker线程就执行完毕了,它会被线程池回收。业务逻辑hanlder 会通过一些方法,把返回的数据交给指定好顺序的DownStreamHandler处理,处理后的数据如果需要,会被写入channel,进而通过绑定的 socket发送给客户端。这个过程是由另外一个线程池中的worker线程来完成的。

对于Oio来说,从始到终,都是由一个指定的worker来处理。

减少worker线程的处理占用时间

worker 线程是由netty内部管理,统一调配的一种资源,所以最好应该尽快的把让worker线程执行完毕,返回给线程池回收利用。worker线程的大部分时 间消耗在在ChannelPipeline的各种handler中,而在这些handler中,一般是负责应用程序业务逻辑掺入的那个handler最占 时间,它通常是排在最后的UpstreamHandler。所以通过把这部分处理内容交给另外一个线程来处理,可以有效的减少worker线程的周期循环 时间。一般有两种方法:

messageReceived()方法中开启一个新的线程来处理业务逻辑

1
2
3
4
publicvoidmessageReceived(ChannelHandlerContext ctx, MessageEvent e) throwsException{ 
     ... 
     newThread(...).start(); 
}

在messageReceived()中开启一个新线程来继续处理业务逻辑,而worker线程在执行完messageReceived()就会结束了。更加优雅的方法是另外构造一个线程池来提交业务逻辑处理任务。

利用netty框架自带的ExecutionHandler

基本使用方法:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
publicclassDatabaseGatewayPipelineFactory implementsChannelPipelineFactory { 
 
    privatefinalExecutionHandler executionHandler; 
 
    publicDatabaseGatewayPipelineFactory(ExecutionHandler executionHandler) { 
        this.executionHandler = executionHandler; 
    
 
    publicChannelPipeline getPipeline() { 
        returnChannels.pipeline( 
                newDatabaseGatewayProtocolEncoder(), 
                newDatabaseGatewayProtocolDecoder(), 
                executionHandler,// 多个pipeline之间必须共享同一个ExecutionHandler 
                newDatabaseQueryingHandler());//业务逻辑handler,IO密集 
    
}

把 共享的ExecutionHandler实例放在业务逻辑handler之前即可,注意ExecutionHandler一定要在不同的pipeline 之间共享。它的作用是自动从ExecutionHandler自己管理的一个线程池中拿出一个线程来处理排在它后面的业务逻辑handler。而 worker线程在经过ExecutionHandler后就结束了,它会被ChannelFactory的worker线程池所回收。

它的构造方法是ExecutionHandler(Executor executor) ,很显然executor就是ExecutionHandler内部管理的线程池了。netty额外给我们提供了两种线程池:
MemoryAwareThreadPoolExecutor和OrderedMemoryAwareThreadPoolExecutor,它们都在org.jboss.netty.handler.execution 包下。
MemoryAwareThreadPoolExecutor 确保jvm不会因为过多的线程而导致内存溢出错误,OrderedMemoryAwareThreadPoolExecutor是前一个线程池的子类,除 了保证没有内存溢出之外,还可以保证channel event的处理次序。具体可以查看API文档,上面有详细说明。

Netty服务端启动步骤:
代码:

1
2
3
4
5
6
7
8
9
10
11
12
// 构造一个服务端Bootstrap实例,并通过构造方法指定一个ChannelFactory实现 
// 其中后两个参数分别是BOSS和WORK的线程池 
Bootstrap serverBootstrap = newServerBootstrap( 
        newNioServerSocketChannelFactory( 
                Executors.newCachedThreadPool(),  
                Executors.newCachedThreadPool())); 
 
// 注册用户自己实现的ChannelPipelineFactory 
serverBootstrap.setPipelineFactory(this.pipelineFactory); 
 
// 调用bind等待客户端来连接 
((ServerBootstrap) serverBootstrap).bind(socketAddress);

Netty提供NIO与BIO两种模式,我们主要关心NIO的模式:
NIO处理方式:
1.Netty用一个BOSS线程去处理客户端的接入,创建Channel
2.从WORK线程池(WORK线程数量默认为cpu cores的2倍)拿出一个WORK线程交给BOSS创建好的Channel实例(Channel实例持有java网络对象)
3.WORK线程进行数据读入(读到ChannelBuffer)
4.接着触发相应的事件传递给ChannelPipeline进行业务处理(ChannelPipeline中包含一系列用户自定义的ChannelHandler组成的链)

有 一点要注意的是,执行整个ChannelHandler链这个过程是串行的,如果业务逻辑(比如DB操作)比较耗时,会导致WORK线程长时间被占用得不 到释放,最终影响整个服务端的并发处理能力,所以一般我们通过ExecutionHandler线程池来异步处理ChannelHandler调用链,使 得WORK线程经过ExecutionHandler时得到释放。
要解决这个问题增加下面代码即可:

1
2
3
4
5
6
7
8
9
10
ExecutionHandler executionHandler = 
        newExecutionHandler( 
                newOrderedMemoryAwareThreadPoolExecutor(16,1048576,1048576)); 
publicChannelPipeline getPipeline() { 
        returnChannels.pipeline( 
                                newDatabaseGatewayProtocolEncoder(), 
                                newDatabaseGatewayProtocolDecoder(), 
                                executionHandler,// Must be shared 
                                newDatabaseQueryingHandler()); 
}

Netty为ExecutionHandler提供了两种可选的线程池模型:

1) MemoryAwareThreadPoolExecutor
通过对线程池内存的使用控制,可控制Executor中待处理任务的上限(超过上限时,后续进来的任务将被阻塞),并可控制单个Channel待处理任务的上限,防止内存溢出错误;

2) OrderedMemoryAwareThreadPoolExecutor
是 1)的子类。除了MemoryAwareThreadPoolExecutor 的功能之外,它还可以保证同一Channel中处理的事件流的顺序性,这主要是控制事件在异步处理模式下可能出现的错误的事件顺序,但它并不保证同一 Channel中的事件都在一个线程中执行,也没必要保证这个。

0 0