rocketmq remoting 源碼閱讀筆記

rocketmq網絡部分的整體的架構


remoting 模塊是 mq 的基礎通信模塊,理解通信層的原理對理解模塊間的交互很有幫助。RocketMQ Remoting 模塊底層基于 Netty 網絡庫驅動,因此需要先了解一些基本的Netty原理。

Netty

Netty 使用 Reactor 模式,將監聽線程、IO 線程、業務邏輯線程隔離開來。對每個連接,都對應一個 ChannelPipeline。ChannelPipeline 的默認實現 DefaultChannelPipeline 中用一個雙向鏈表儲存著若干 ChannelHandlerContext,每個ChannelHandlerContext 又對應著一個 ChannelHandler。鏈表的頭部是一個 ChannelOutboundHandler:

class HeadContext extends AbstractChannelHandlerContext implements ChannelOutboundHandler {
  ...
}

尾部是一個 ChannelInboundHandler:

class TailContext extends AbstractChannelHandlerContext implements ChannelInboundHandler {
          ...
}

這里的 Inbound 是指這個 Handler 處理 外界觸發 的事件,典型的就是對端發送了數據過來; Outbound 是指事件是 自己觸發 的,比如向對端發送數據。同時,一個 inbound 的事件將在 ChannelPipeline 的 ChannelHandlerContext 鏈表中從頭到尾傳播;而一個 outbound 的事件將會在 ChannelPipeline 的 ChannelHandlerContext 鏈表中從尾向頭傳播。這樣,就能將數據解碼、數據處理、數據編碼等操作分散到不同的 ChannelHandler 中去了。

另外,RocketMQ 的協議格式如下,開頭4字節表示整個消息長度,隨后4字節表示頭部數據的長度,最后就是消息體的長度:

<4 byte length> <4 byte header length> <N byte header data> <N byte body data>

最后,我們再來看一下 RocketMQ remoting 部分的 UML 圖,了解一下其大概由哪些部分組成:

RocketMQ remoting

上圖這些類中,最重要的是 NettyRemotingClient 和 NettyRemotingServer,它們的一些公共方法就被封裝在 NettyRemotingAbstract 中。

RemotingServer


有了上面的基本認識,就可以開始著手分析 RemotingServer 的源碼了。

啟動

public void start() {
       ...
       ServerBootstrap childHandler =
                this.serverBootstrap.group(this.eventLoopGroupBoss, this.eventLoopGroupSelector)
                        .channel(NioServerSocketChannel.class)
                        .option(ChannelOption.SO_BACKLOG, 1024)
                        .option(ChannelOption.SO_REUSEADDR, true)
                        .option(ChannelOption.SO_KEEPALIVE, false)
                        .childOption(ChannelOption.TCP_NODELAY, true)
                        .option(ChannelOption.SO_SNDBUF, nettyServerConfig.getServerSocketSndBufSize())
                        .option(ChannelOption.SO_RCVBUF, nettyServerConfig.getServerSocketRcvBufSize())
                        .localAddress(new InetSocketAddress(this.nettyServerConfig.getListenPort()))
                        .childHandler(new ChannelInitializer<SocketChannel>() {
                            @Override
                            public void initChannel(SocketChannel ch) throws Exception {
                                ch.pipeline().addLast(
                                        defaultEventExecutorGroup,
                                        new NettyEncoder(),
                                        new NettyDecoder(),
                                        new IdleStateHandler(0, 0, nettyServerConfig.getServerChannelMaxIdleTimeSeconds()),
                                        new NettyConnetManageHandler(),
                                        new NettyServerHandler());
                            }
                        });
  ...
        try {
            ChannelFuture sync = this.serverBootstrap.bind().sync();
            InetSocketAddress addr = (InetSocketAddress) sync.channel().localAddress();
            this.port = addr.getPort();
        } catch (InterruptedException e1) {
            throw new RuntimeException("this.serverBootstrap.bind().sync() InterruptedException", e1);
        }
  ...
}

可以看到,在 NettyRemotingServer 的 start() 方法中,啟動了 netty,使用成員變量 eventLoopGroupBoss 接受連接,使用 eventLoopGroupSelector 處理 IO,并且使用 defaultEventExecutorGroup 來處理 ChannelHandler 中的業務邏輯。nettyServerConfig 用來封裝對 Netty 的配置信息,包括 SendBufSize、RcvBufSize 等。最重要的是,添加了 NettyEncoderNettyDecoderIdleStateHandlerNettyConnetManageHandlerNettyServerHandler 幾個ChannelHandler。

隨后,如果 channelEventListener 不為 null, 則啟動一個專門的線程監聽 Channel 的各種事件。

      if (this.channelEventListener != null) {
            this.nettyEventExecuter.start();
      }

這個類主要是循環的從一個 LinkedBlockingQueue 中讀取事件,而后調用 channelEventListener 的不同方法處理事件:

 class NettyEventExecuter extends ServiceThread {
        //使用一個 LinkedBlockingQueue 來存儲待處理的 NettyEvent
        private final LinkedBlockingQueue<NettyEvent> eventQueue = new LinkedBlockingQueue<NettyEvent>();
        private final int maxSize = 10000;

        //添加待處理事件,如果隊列大小沒用超過限制,則將事件入隊
        public void putNettyEvent(final NettyEvent event) {
            if (this.eventQueue.size() <= maxSize) {
                this.eventQueue.add(event);
            } else {
                PLOG.warn("event queue size[{}] enough, so drop this event {}", this.eventQueue.size(), event.toString());
            }
        }

        @Override
        public void run() {
            PLOG.info(this.getServiceName() + " service started");

            final ChannelEventListener listener = NettyRemotingAbstract.this.getChannelEventListener();
            //循環讀取事件,并處理
            while (!this.isStopped()) {
                try {
                    NettyEvent event = this.eventQueue.poll(3000, TimeUnit.MILLISECONDS);
                    if (event != null && listener != null) {
                        switch (event.getType()) {
                            case IDLE:
                                listener.onChannelIdle(event.getRemoteAddr(), event.getChannel());
                                break;
                            case CLOSE:
                                listener.onChannelClose(event.getRemoteAddr(), event.getChannel());
                                break;
                            case CONNECT:
                                listener.onChannelConnect(event.getRemoteAddr(), event.getChannel());
                                break;
                            case EXCEPTION:
                                listener.onChannelException(event.getRemoteAddr(), event.getChannel());
                                break;
                            default:
                                break;
                        }
                    }
                } catch (Exception e) {
                    PLOG.warn(this.getServiceName() + " service has exception. ", e);
                }
            }

            PLOG.info(this.getServiceName() + " service end");
        }
  ...
}

隨后,則啟動一個定時器,每隔一段時間查看 responseTable 是否有超時未回應的請求,并完成一些清理工作,responseTable 的作用將在后文說明發送請求過程時說明:

       this.timer.scheduleAtFixedRate(new TimerTask() {

            @Override
            public void run() {
                try {
                    NettyRemotingServer.this.scanResponseTable();
                } catch (Exception e) {
                    log.error("scanResponseTable exception", e);
                }
            }
        }, 1000 * 3, 1000);

至此,NettyRemotingServer 的啟動過程就結束了。

ChannelHandler

在啟動時,向 ChannelPipeline 中添加了以下ChannelHandler,我們分別來解釋其作用。

NettyEncoder

對發送請求按照上文提到的格式進行編碼,沒用什么特殊的:

    @Override
    public void encode(ChannelHandlerContext ctx, RemotingCommand remotingCommand, ByteBuf out)
        throws Exception {
        try {
            ByteBuffer header = remotingCommand.encodeHeader();
            out.writeBytes(header);
            byte[] body = remotingCommand.getBody();
            if (body != null) {
                out.writeBytes(body);
            }
        } catch (Exception e) {
            log.error("encode exception, " + RemotingHelper.parseChannelRemoteAddr(ctx.channel()), e);
            if (remotingCommand != null) {
                log.error(remotingCommand.toString());
            }
            RemotingUtil.closeChannel(ctx.channel());
        }
    }

NettyDecoder

與 NettyEncoder 相反,這是一個 Inbound ChannelHandler,對接收到的數據進行解碼,注意由于 RocketMQ 的協議的頭部是定長的,所以它繼承了 LengthFieldBasedFrameDecoder:

 @Override
    public Object decode(ChannelHandlerContext ctx, ByteBuf in) throws Exception {
        ByteBuf frame = null;
        try {
            frame = (ByteBuf) super.decode(ctx, in);
            if (null == frame) {
                return null;
            }

            ByteBuffer byteBuffer = frame.nioBuffer();

            return RemotingCommand.decode(byteBuffer);
        } catch (Exception e) {
            log.error("decode exception, " + RemotingHelper.parseChannelRemoteAddr(ctx.channel()), e);
            RemotingUtil.closeChannel(ctx.channel());
        } finally {
            if (null != frame) {
                frame.release();
            }
        }

        return null;
    }

IdleStateHandler

這個 Handler 是用來進行 keepalive 的,當一段時間沒有發送或接收到數據時,則觸發 IdleStateEvent。

  protected void channelIdle(ChannelHandlerContext ctx, IdleStateEvent evt) throws Exception {
        ctx.fireUserEventTriggered(evt);
  }

NettyConnetManageHandler

負責處理各種連接事件,尤其是 IdleState,將其交給 channelEventListener 處理。

IdleStateEvent evnet = (IdleStateEvent) evt;
if ( evnet.state().equals( IdleState.ALL_IDLE ) )
{
    final String remoteAddress = RemotingHelper.parseChannelRemoteAddr( ctx.channel() );
    log.warn( "NETTY SERVER PIPELINE: IDLE exception [{}]", remoteAddress );
    RemotingUtil.closeChannel( ctx.channel() );
    if ( NettyRemotingServer.this.channelEventListener != null )
    {
        NettyRemotingServer.this
        .putNettyEvent( new NettyEvent( NettyEventType.IDLE, remoteAddress.toString(), ctx.channel() ) );
    }
}

NettyServerHandler

調用 NettyRemotingAbstract 的 processMessageReceived 方法處理請求。

class NettyServerHandler extends SimpleChannelInboundHandler<RemotingCommand> {
    @Override
    protected void channelRead0( ChannelHandlerContext ctx, RemotingCommand msg ) throws Exception
    {
        processMessageReceived( ctx, msg );
    }
}

public void processMessageReceived( ChannelHandlerContext ctx, RemotingCommand msg ) throws Exception
{
    final RemotingCommand cmd = msg;
    if ( cmd != null )
    {
        switch ( cmd.getType() )
        {
        case REQUEST_COMMAND:
            processRequestCommand( ctx, cmd );
            break;
        case RESPONSE_COMMAND:
            processResponseCommand( ctx, cmd );
            break;
        default:
            break;
        }
    }
}

在這里,請求可以分為兩類,一類是處理別的服務發來的請求;另外一類是處理自己發給別的服務的請求的處理結果。所有的請求其實都是異步的,只是將請求相關的 ResponseFuture記在一個 ConcurrentHashMap 中,map 的 key 為與請求相關的一個整數。

protected final ConcurrentHashMap<Integer /* opaque */, ResponseFuture> responseTable =
        new ConcurrentHashMap<Integer, ResponseFuture>(256);

另外需要注意的時,對不同類型的請求(由 RemotingCommand 的 code 字段標識),會提前注冊對應的 NettyRequestProcessor 以及 ExecutorService,對請求的處理將放在注冊好的線程池中進行:

 public void processRequestCommand(final ChannelHandlerContext ctx, final RemotingCommand cmd) {
        final Pair<NettyRequestProcessor, ExecutorService> matched = this.processorTable.get(cmd.getCode());
        final Pair<NettyRequestProcessor, ExecutorService> pair = null == matched ? this.defaultRequestProcessor : matched;
        final int opaque = cmd.getOpaque();
        ...
}

對于 ResponseRequest 的處理則較為簡單,只是將其從 responseTable 中刪掉,然后再調用 ResponseFuture 的 putResponse 方法設置返回結果,或是調用 responseFuture 中預設的回掉方法。

  public void processResponseCommand(ChannelHandlerContext ctx, RemotingCommand cmd) {
        final int opaque = cmd.getOpaque();
        final ResponseFuture responseFuture = responseTable.get(opaque);
        if (responseFuture != null) {
            responseFuture.setResponseCommand(cmd);

            responseFuture.release();

            responseTable.remove(opaque);

            if (responseFuture.getInvokeCallback() != null) {
                executeInvokeCallback(responseFuture);
            } else {
                responseFuture.putResponse(cmd);
            }
        } else {
            PLOG.warn("receive response, but not matched any request, " + RemotingHelper.parseChannelRemoteAddr(ctx.channel()));
            PLOG.warn(cmd.toString());
        }
    }

向其他服務發起請求

請求有三種,分別是異步請求、同步請求以及單向請求,分別調用了 NettyRemotingAbstract 的對應方法。從上文的分析我們可以看到,異步請求其實是使用 opaque 字段標識了一次請求,然后生成一個占位符 ResponseFuture 并存儲起來。接收方在處理完請求后,發送一個相同 opaque 值的回應請求,從而通過 opaque 找到對應的 ResponseFuture,返回結果或是運行預設的回調函數。同步請求其實也是一個異步請求,只不過通過 CountdownLatch 使調用者發生阻塞。單向請求最簡單,只發送,不關注請求結果。

下面以 invokeAsync 為例分析整個過程:

//調用 NettyRemotingAbstract 的 invokeAsyncImpl 方法
@Override
public void invokeAsync(Channel channel, RemotingCommand request, long timeoutMillis, InvokeCallback invokeCallback)
            throws InterruptedException, RemotingTooMuchRequestException, RemotingTimeoutException, RemotingSendRequestException {
        this.invokeAsyncImpl(channel, request, timeoutMillis, invokeCallback);
}

public void invokeAsyncImpl( final Channel channel, final RemotingCommand request, final long timeoutMillis,
             final InvokeCallback invokeCallback )
throws InterruptedException, RemotingTooMuchRequestException, RemotingTimeoutException, RemotingSendRequestException
{
    final int   opaque      = request.getOpaque();
    boolean     acquired    = this.semaphoreAsync.tryAcquire( timeoutMillis, TimeUnit.MILLISECONDS );
    if ( acquired )
    {
        final SemaphoreReleaseOnlyOnce once = new SemaphoreReleaseOnlyOnce( this.semaphoreAsync );

        final ResponseFuture responseFuture = new ResponseFuture( opaque, timeoutMillis, invokeCallback, once );
        this.responseTable.put( opaque, responseFuture );
        try {
            channel.writeAndFlush( request ).addListener( new ChannelFutureListener()
                                 {
                                     @Override
                                     public void operationComplete( ChannelFuture f ) throws Exception {
                                         if ( f.isSuccess() )
                                         {
                                             responseFuture.setSendRequestOK( true );
                                             return;
                                         } else {
                                             responseFuture.setSendRequestOK( false );
                                         }

                                         responseFuture.putResponse( null );
                                         responseTable.remove( opaque );
                                         try {
                                             executeInvokeCallback( responseFuture );
                                         } catch ( Throwable e ) {
                                             PLOG.warn( "excute callback in writeAndFlush addListener, and callback throw", e );
                                         } finally {
                                             responseFuture.release();
                                         }

                                         PLOG.warn( "send a request command to channel <{}> failed.", RemotingHelper.parseChannelRemoteAddr( channel ) );
                                          }
                                      } );
        } catch ( Exception e ) {
            responseFuture.release();
            PLOG.warn( "send a request command to channel <" + RemotingHelper.parseChannelRemoteAddr( channel ) + "> Exception", e );
            throw new RemotingSendRequestException( RemotingHelper.parseChannelRemoteAddr( channel ), e );
        }
    } else {
        String info =
            String.format( "invokeAsyncImpl tryAcquire semaphore timeout, %dms, waiting thread nums: %d semaphoreAsyncValue: %d",   /*  */
                       timeoutMillis,                                                                                           /*  */
                       this.semaphoreAsync.getQueueLength(),                                                                    /*  */
                       this.semaphoreAsync.availablePermits()                                                                   /*  */
                       );
        PLOG.warn( info );
        throw new RemotingTooMuchRequestException( info );
    }
}

在請求時如果失敗成功則直接返回,如果失敗則從 responseTable 刪除本次請求,并調用 responseFuture.putResponse( null ),然后執行失敗回調 executeInvokeCallback( responseFuture )。而后,就是等待對方發來的 Response Request 了,上文已經有過分析,這里不再贅述。

下面,看看同步消息。在發送請求后,調用了 ResponseFuture 的 waitResponse 方法。這個方法調用了 CountDownLatch 的 await 方法。請求處理成功或失敗后則會調用 ResponseFuture 的 putResponse 方法,設置處理結果并打開 CountDownLatch,從而實現了同步調用。

   public RemotingCommand invokeSyncImpl(final Channel channel, final RemotingCommand request, final long timeoutMillis)
        throws InterruptedException, RemotingSendRequestException, RemotingTimeoutException {
        final int opaque = request.getOpaque();

        try {
            final ResponseFuture responseFuture = new ResponseFuture(opaque, timeoutMillis, null, null);
            this.responseTable.put(opaque, responseFuture);
            final SocketAddress addr = channel.remoteAddress();
            channel.writeAndFlush(request).addListener(new ChannelFutureListener() {
                @Override
                public void operationComplete(ChannelFuture f) throws Exception {
                    if (f.isSuccess()) {
                        responseFuture.setSendRequestOK(true);
                        return;
                    } else {
                        responseFuture.setSendRequestOK(false);
                    }

                    responseTable.remove(opaque);
                    responseFuture.setCause(f.cause());
                    responseFuture.putResponse(null);
                    PLOG.warn("send a request command to channel <" + addr + "> failed.");
                }
            });

            RemotingCommand responseCommand = responseFuture.waitResponse(timeoutMillis);
            if (null == responseCommand) {
                if (responseFuture.isSendRequestOK()) {
                    throw new RemotingTimeoutException(RemotingHelper.parseSocketAddressAddr(addr), timeoutMillis,
                        responseFuture.getCause());
                } else {
                    throw new RemotingSendRequestException(RemotingHelper.parseSocketAddressAddr(addr), responseFuture.getCause());
                }
            }

            return responseCommand;
        } finally {
            this.responseTable.remove(opaque);
        }
    }

   public RemotingCommand waitResponse(final long timeoutMillis) throws InterruptedException {
        this.countDownLatch.await(timeoutMillis, TimeUnit.MILLISECONDS);
        return this.responseCommand;
   }

   public void putResponse(final RemotingCommand responseCommand) {
        this.responseCommand = responseCommand;
        this.countDownLatch.countDown();
   }

NettyRemotingClient 的思路與 NettyRemotingServer 類似,這里不再進行分析。

以上。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容

  • Channel 與 ChannelPipeline在Netty中每個Channel都有且僅有一個ChannelPi...
    水欣閱讀 2,208評論 0 1
  • 作者: 一字馬胡 轉載標志 【2017-11-03】 更新日志 ChannelHandler Netty線程模型...
    一字馬胡閱讀 12,977評論 1 24
  • Spring Cloud為開發人員提供了快速構建分布式系統中一些常見模式的工具(例如配置管理,服務發現,斷路器,智...
    卡卡羅2017閱讀 134,915評論 18 139
  • 2011年9月30日 你后來跟我說,那次換座位是你故意的,坐到我后邊是想吸引我的注意,而我居然傻傻的以為,我們的后...
    99709a08cec2閱讀 179評論 0 0
  • 從昨天開始,參加省內閱卷工作,見到了當年的老師,當年的師兄師姐,回到文學院。心情特別輕快,很舒服,我喜歡大學的...
    心如美玉閱讀 214評論 0 0