java - netty如何处理大于1024字节的http请求?

标签 java http netty reverse-proxy

我正在使用 Netty 编写一个简单的反向代理。因为我不想自己处理原始字节,所以我在处理程序管道中添加了一个请求解码器和对象聚合器,以及一个响应编码器,最后是我自己的处理程序,就像这样

ChannelPipeline p = ch.pipeline();
p.addLast(new HttpRequestDecoder());
p.addLast(new HttpObjectAggregator(MAX_CONTENT_LENGTH));
p.addLast(new HttpResponseEncoder());
p.addLast(new FrontendHandler(...));

我的 FrontendHandler延伸SimpleChannelInboundHandler<HttpRequest> , 所以它有一个

// Start reading as soon as a request comes in...
public void channelActive(ChannelHandlerContext ctx) {
    ctx.read();
}

和一个

protected void channelRead0(ChannelHandlerContext ctx, HttpRequest request) {
    // copy request, fix headers, forward to backend server
}

发生的情况是,如果传入的请求大于 1024 字节(例如,它有一些 cookie),服务器会挂起等待。经过反复试验,我发现如果我设置 ChannelOption.AUTO_READ在处理程序上一切正常,所以看起来我的旧代码缺少 ctx.read()在某个地方打电话,但我不知道在哪里。如果我做类似的事情

@Override
public void channelReadComplete(ChannelHandlerContext ctx) {
    ctx.read();
}

然后我在 channelRead0 中得到异常这似乎是由于处理仍然不完整的 http 请求引起的,这违背了使用请求解码器/对象聚合器的目的。我错过了什么?

最佳答案

我不知道 HttpObjectAggregator 是否可以处理分块消息。您可以尝试使用 HttpChunkAggregator,例如:

    pipeline.addLast("decoder", new HttpRequestDecoder(4096, 4096, 100*1024*1024));
    pipeline.addLast("aggregator", new HttpChunkAggregator(100*1024*1024));
    pipeline.addLast("encoder", new HttpResponseEncoder());
    pipeline.addLast("hndlr", new FrontendHandler(...));

关于java - netty如何处理大于1024字节的http请求?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27567398/

相关文章:

java - 在 IntelliJ IDEA 中调试 JDT Core BatchCompiler

java - 加载某些类时不会调用 ClassFileTransformer.transform()

java - Android Fragment 导致 NullPointerException

java - Netty - 在java中并发发送消息的最佳方式

Java 数据包处理程序线程

java - DynamoDBMappingException : no mapping for HASH key - even though I clearly mapped it

http - 使用 HTTP 请求上下文管理 channel

http - 在没有实体主体的情况下执行 HTTP POST 是否被认为是不好的做法?

javascript - 发送带有 JSON 正文的文件

java - 不同 URL 的 Netty 处理程序