Javascript WebGL:使用两个输出为第一个的着色器作为第二个着色器的输入,只查看第二个着色器的输出

Javascript WebGL:使用两个输出为第一个的着色器作为第二个着色器的输入,只查看第二个着色器的输出,javascript,glsl,webgl,shader,Javascript,Glsl,Webgl,Shader,我怀疑这是我对绑定含义的误解,但我不知道我在这里做错了什么。我把相关代码放在了文章的末尾 我正在GPU上实现一个数值算法。具体来说,我是Nvidia的追随者。特别是,该算法的一部分使用了一种迭代技术,其中一次迭代的输出被用作下一次迭代的输入。在这里做决策时,我特别关注第38.3.1节 现在,我正在学习WebGL/OpenGL/GLSL,所以我不会直接投入其中。在这一点上,我只是尝试直接模拟一个“迭代”,将一个着色器中的图像(只是一个统一的颜色)渲染到帧缓冲区,将输出复制到另一个纹理,并将第二个纹

我怀疑这是我对绑定含义的误解,但我不知道我在这里做错了什么。我把相关代码放在了文章的末尾

我正在GPU上实现一个数值算法。具体来说,我是Nvidia的追随者。特别是,该算法的一部分使用了一种迭代技术,其中一次迭代的输出被用作下一次迭代的输入。在这里做决策时,我特别关注第38.3.1节

现在,我正在学习WebGL/OpenGL/GLSL,所以我不会直接投入其中。在这一点上,我只是尝试直接模拟一个“迭代”,将一个着色器中的图像(只是一个统一的颜色)渲染到帧缓冲区,将输出复制到另一个纹理,并将第二个纹理作为统一的输入传递到第二个着色器。然后,第二个着色器应向图像添加高斯点,并再次渲染到与第一个着色器相同的帧缓冲区(覆盖原始帧)。然后,第二个着色器的输出再次复制到第二个纹理,该纹理作为统一输入传递给最终着色器,该着色器将所有内容渲染到屏幕上

我的问题:如果我只运行第一个或第二个着色器,我会在屏幕上看到该阶段的预期输出。这告诉我着色器正在运行,我正在按预期复制内容(因为最终的“渲染到屏幕”可以看到复制的纹理)。但是,如果我运行这两个步骤,我只会在屏幕上单独获得第二个着色器的输出(好像第一个着色器的输入仅为0),这告诉我,出于某种原因,第二个着色器中的统一输入无法从第一个着色器获得我期望的结果

所有片段着色器都使用相同的顶点着色器,该着色器只接收解决方案域的边界并传递位置的不同vec2

相关代码如下。为简洁起见,我没有包括着色器设置,但基本上我创建了程序,然后获得统一/属性位置,并将其存储在类似命名的属性中,然后激活属性。我还检查程序是否成功链接

最后要注意的是:在运行时,我在控制台中没有看到任何警告或错误

帧缓冲区设置:

function initFramebuffers() {
    console.log("Creating framebuffer for flow field");
    flowFramebuffer = gl.createFramebuffer();
    gl.bindFramebuffer(gl.FRAMEBUFFER, flowFramebuffer);
    frontTex = gl.createTexture();
    gl.activeTexture(gl.TEXTURE1);
    gl.bindTexture(gl.TEXTURE_2D, frontTex);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.LINEAR);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.LINEAR);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
    gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, nx, ny, 0, gl.RGBA, gl.UNSIGNED_BYTE, null);
    gl.framebufferTexture2D(gl.FRAMEBUFFER, gl.COLOR_ATTACHMENT0, gl.TEXTURE_2D, frontTex, 0);
    // Start by zeroing out the flow field
    gl.clearColor(0.0,0.0,0.0,0.0);
    gl.clear(gl.COLOR_BUFFER_BIT | gl.DEPTH_BUFFER_BIT);
    // Now create the texture for the flow field at the last step
    backTex = gl.createTexture();
    gl.activeTexture(gl.TEXTURE2);
    gl.bindTexture(gl.TEXTURE_2D, backTex);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.LINEAR);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.LINEAR);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
    gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
    gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, nx, ny, 0, gl.RGBA, gl.UNSIGNED_BYTE, null);
    gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0); // Copy the blank flow field in to our back texture
    gl.bindFramebuffer(gl.FRAMEBUFFER, null);
}
第一阶段:

function stage1() {
    console.log("Stage 1...");
    gl.useProgram(1Program);
    gl.bindFramebuffer(gl.FRAMEBUFFER,flowFramebuffer);
    gl.activeTexture(gl.TEXTURE1); // We're going to draw this result to texture unit 1
    gl.viewport(0,0, nx, ny);
    gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid);
    gl.vertexAttribPointer(stage1program.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
    gl.uniform1i(stage1program.flowVelUniform, 2); // Use the texture in unit2 as the flowField uniform (unit1 is our current/updating texture)
    gl.uniform1i(stage1program.inFieldUniform, 2); // We're self-advecting, so use the same texture here.
    gl.uniform1f(stage1program.dtUniform, 1.0/60.0); // 60 frames per second
    gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems); // Solve
    gl.activeTexture(gl.TEXTURE2); // Now copy the framebuffer in to texture2
    gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0);
    gl.bindFramebuffer(gl.FRAMEBUFFER,null);
}
阶段1的着色器:

precision mediump float;
uniform float dt;
uniform sampler2D toAdvect; // Input dye field, varies 0 (no dye) to 1 (filled with dye)
uniform sampler2D flowField; // Flow field from the flow calculation step
varying vec2 vertexOut; // The location of the vertex [-1,1]

vec2 simToTextureSpace(vec2 vertex) {
    return 0.5*(vertex+1.0);
}

void main() {
    gl_FragColor = vec4(0.0,0.4,0.6,1.0);
}
第2阶段:

function stage2() {
    gl.useProgram(stage2program);
    gl.bindFramebuffer(gl.FRAMEBUFFER,flowFramebuffer);
    gl.activeTexture(gl.TEXTURE1); // We're going to draw this result to texture unit 1
    gl.viewport(0,0, nx, ny);
    gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid);
    gl.vertexAttribPointer(stage2program.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
    gl.uniform1i(stage2program.flowVelUniform, 2); // Use the texture in unit2 as the flowField uniform (unit1 is our current/updating texture)
    gl.uniform1f(stage2program.dtUniform, 1.0/60.0); // 60 frames per second
    gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems); // Solve
    gl.activeTexture(gl.TEXTURE2); // Now copy out
    gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0);
    gl.bindFramebuffer(gl.FRAMEBUFFER,null);
}
第2阶段着色器:

precision mediump float;
uniform float dt;
uniform sampler2D flowField; // Flow field from the flow calculation step
varying vec2 vertexOut; // The location of the vertex [-1,1]

vec2 simToTextureSpace(vec2 vertex) {
    return 0.5*(vertex+1.0);
}

void main() {
    vec2 texPosition = simToTextureSpace(vertexOut);
    vec4 last = texture2D(flowField, texPosition);
    float radius2 = pow(vertexOut.x,2.0)+pow(vertexOut.y,2.0);
    gl_FragColor = last+vec4(60.0*dt*exp(-radius2/0.001),0.0,0.0,1.0);
}
渲染到屏幕:

function drawScene() {
        // console.log("Drawing scene");
        gl.useProgram(visualProgram);
        gl.activeTexture(gl.TEXTURE0);
        gl.viewport(0,0, gl.viewportWidth, gl.viewportHeight);
        gl.clearColor(0.0,0.0,1.0,1.0); // Clear to blue
        gl.clear(gl.COLOR_BUFFER_BIT | gl.DEPTH_BUFFER_BIT);
        gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid); // Just reuse the coordinates from the fluid position buffer
        gl.vertexAttribPointer(visualProgram.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
        gl.uniform1i(visualProgram.inFieldUniform, 2);
        gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems);
}
渲染到屏幕着色器:

precision mediump float;
uniform sampler2D inField; // field to draw
varying vec2 vertexOut; // The location of the vertex [-1,1]

vec2 simToTextureSpace(vec2 vertex) {
    return 0.5*(vertex+1.0);
}

void main() {
    vec2 texPosition = simToTextureSpace(vertexOut);
    vec4 drawField = texture2D(inField,texPosition);

    gl_FragColor = drawField;
}
通话顺序:

// Setup shaders, initFramebuffers(), etc
//console.log("Drawing...");
stage1();
stage2();
drawScene();

结果发现,在那里的某个地方,我犯了一个错误,在引用统一输入时使用了稍微不同的对象名称。即

myObject.uniformVal
vs


然而,所显示的错误并没有导致抛出实际错误,这一定是完全巧合。它现在正在工作,因此如果其他人遇到类似问题,请检查您的参数名称:)

将未定义的传递给
gl。默认情况下,制服不会生成错误,因为制服通常会得到优化。如果出现错误,那么调试webgl应用程序几乎是不可能的,因为当您稍微更改着色器时,将设置
gl\u FragColor
设置为常量,您的所有代码都会中断,这通常会设置所有刚优化过的制服。如果要在使用中添加对
未定义的
的检查,请使用这些行
gl.activeTexture(gl.TEXTURE1);//我们将把这个结果绘制到第1阶段的纹理单元
,第1阶段和第2阶段是不需要的
myObject.uniformVel