Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/362.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/opengl/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java glTexImage2D导致内存泄漏_Java_Opengl_Memory Leaks_Lwjgl - Fatal编程技术网

Java glTexImage2D导致内存泄漏

Java glTexImage2D导致内存泄漏,java,opengl,memory-leaks,lwjgl,Java,Opengl,Memory Leaks,Lwjgl,我计划使用OpenGL渲染视频流 接收到视频的第一帧后,我要做的第一步是分配直接字节缓冲区,并将所有帧片段放入其中。ByteBuffer只分配一次 directBuffer=ByteBuffer.allocateDirect(frameSize*fragmentCount) 当所有帧片段就位后,我将ByteBuffer传递给OpenGL渲染器 public ByteBuffer getBuffer() { buffer.rewind(); fragments.stream().f

我计划使用OpenGL渲染视频流

接收到视频的第一帧后,我要做的第一步是分配直接字节缓冲区,并将所有帧片段放入其中。ByteBuffer只分配一次

directBuffer=ByteBuffer.allocateDirect(frameSize*fragmentCount)

当所有帧片段就位后,我将ByteBuffer传递给OpenGL渲染器

public ByteBuffer getBuffer() {
    buffer.rewind();
    fragments.stream().forEach((frameFragment) -> {
        for (byte byteFragment : frameFragment.getFrameData()) {
            buffer.put(byteFragment);
        }
    });
    buffer.flip();
    return buffer;
}
主场景循环中的阻塞队列正在等待帧准备就绪,然后渲染场景

    glBindTexture(GL_TEXTURE_2D, glGenTextures());
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
    glBegin(GL_QUADS);
    {
        glTexCoord2f(0.0f, 0.0f);
        glVertex2f(0.0f, 0.0f);

        glTexCoord2f(1.0f, 0.0f);
        glVertex2f(768, 0.0f);

        glTexCoord2f(1.0f, 1.0f);
        glVertex2f(768, 576);

        glTexCoord2f(0.0f, 1.0f);
        glVertex2f(0.0f, 576);
    }
    glEnd();
ByteBuffer frame=framesQueue.take()

然后我清除场景,设置视口等等

            glClear(GL_COLOR_BUFFER_BIT);
            glColor3f(1, 1, 1);
            glMatrixMode(GL_PROJECTION);
            glPushMatrix();
            glLoadIdentity();
            glOrtho(-480, 480, -270, 270, -1, 1);
            glPushMatrix();
            glViewport(0, 0, 768, 576);
完成后,我准备在场景中绘制一个带纹理的四边形

    glBindTexture(GL_TEXTURE_2D, glGenTextures());
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
    glBegin(GL_QUADS);
    {
        glTexCoord2f(0.0f, 0.0f);
        glVertex2f(0.0f, 0.0f);

        glTexCoord2f(1.0f, 0.0f);
        glVertex2f(768, 0.0f);

        glTexCoord2f(1.0f, 1.0f);
        glVertex2f(768, 576);

        glTexCoord2f(0.0f, 1.0f);
        glVertex2f(0.0f, 576);
    }
    glEnd();
程序正在运行,视频非常流畅,延迟相当低(这是主要问题)

问题在于这种方法

        glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
正在导致内存泄漏

java堆空间看起来不错

但是java的内存使用量一直在无限增长

对于一个测试,我对执行进行了注释

   glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
方法,并且没有发生内存泄漏。我还尝试了使用drawPixels方法,这也有帮助,但我认为使用纹理是一种方法,而不是不推荐的drawPixels方法


如何解决内存泄漏问题?或者,还有哪些高效的方法可以每隔40毫秒在场景中显示新纹理。延迟至关重要。

此呼叫似乎是个问题

glBindTexture(GL_TEXTURE_2D, glGenTextures());
因为我只使用一个纹理,所以调用可以替换为

glBindTexture(GL_TEXTURE_2D, 0);

这会阻止OpenGL在每次调用时创建新纹理。

此调用似乎是个问题

glBindTexture(GL_TEXTURE_2D, glGenTextures());
因为我只使用一个纹理,所以调用可以替换为

glBindTexture(GL_TEXTURE_2D, 0);

这会阻止OpenGL在每次调用时创建新纹理。

是否有任何理由在每个帧中生成新纹理,而不只是上载新数据?此外,您不会删除旧纹理。由于旧纹理仍保留在内存中,因此内存增加也就不足为奇了。使用相同的texID并在渲染每个帧后删除纹理似乎确实有所帮助。这是一条路吗?编辑:实际上,只使用0作为tex id,而不深入挖掘纹理有帮助。有什么原因可以让你在每一帧中生成一个新的纹理,而不只是上传新的数据?此外,您不会删除旧纹理。由于旧纹理仍保留在内存中,因此内存增加也就不足为奇了。使用相同的texID并在渲染每个帧后删除纹理似乎确实有所帮助。这是一条路吗?编辑:实际上,只使用0作为tex id,而不需要深入研究纹理。