OpenGL核心技术之延迟着色器提升版

来源:互联网 发布:网络数据采集卡 编辑:程序博客网 时间:2024/06/02 02:31

接着上篇博客延迟着色出现的问题继续讲解,为了克服这些缺点(特别是混合),我们通常分割我们的渲染器为两个部分:一个是延迟渲染的部分,另一个是专门为了混合或者其他不适合延迟渲染管线的着色器效果而设计的的正向渲染的部分。为了展示这是如何工作的,我们将会使用正向渲染器渲染光源为一个小立方体,因为光照立方体会需要一个特殊的着色器(会输出一个光照颜色)。

现在我们想要渲染每一个光源为一个3D立方体,并放置在光源的位置上随着延迟渲染器一起发出光源的颜色。很明显,我们需要做的第一件事就是在延迟渲染方形之上正向渲染所有的光源,它会在延迟渲染管线的最后进行。所以我们只需要像正常情况下渲染立方体,只是会在我们完成延迟渲染操作之后进行。代码会像这样:

[cpp] view plain copy
  1. // 延迟渲染光照渲染阶段  
  2. [...]  
  3. RenderQuad();  
  4.   
  5. // 现在像正常情况一样正向渲染所有光立方体  
  6. shaderLightBox.Use();  
  7. glUniformMatrix4fv(locProjection, 1, GL_FALSE, glm::value_ptr(projection));  
  8. glUniformMatrix4fv(locView, 1, GL_FALSE, glm::value_ptr(view));  
  9. for (GLuint i = 0; i < lightPositions.size(); i++)  
  10. {  
  11.     model = glm::mat4();  
  12.     model = glm::translate(model, lightPositions[i]);  
  13.     model = glm::scale(model, glm::vec3(0.25f));  
  14.     glUniformMatrix4fv(locModel, 1, GL_FALSE, glm::value_ptr(model));  
  15.     glUniform3fv(locLightcolor, 1, &lightColors[i][0]);  
  16.     RenderCube();  
  17. }  

然而,这些渲染出来的立方体并没有考虑到我们储存的延迟渲染器的几何深度(Depth)信息,并且结果是它被渲染在之前渲染过的物体之上,这并不是我们想要的结果。


我们需要做的就是首先复制出在几何渲染阶段中储存的深度信息,并输出到默认的帧缓冲的深度缓冲,然后我们才渲染光立方体。这样之后只有当它在之前渲染过的几何体上方的时候,光立方体的片段才会被渲染出来。我们可以使用glBlitFramebuffer复制一个帧缓冲的内容到另一个帧缓冲中,这个函数我们也在抗锯齿的博客中使用过,用来还原多重采样的帧缓冲。glBlitFramebuffer这个函数允许我们复制一个用户定义的帧缓冲区域到另一个用户定义的帧缓冲区域。

我们储存所有延迟渲染阶段中所有物体的深度信息在gBuffer这个FBO中。如果我们仅仅是简单复制它的深度缓冲内容到默认帧缓冲的深度缓冲中,那么光立方体就会像是场景中所有的几何体都是正向渲染出来的一样渲染出来。就像在抗锯齿博客中介绍的那样,我们需要指定一个帧缓冲为读帧缓冲(Read Framebuffer),并且类似地指定一个帧缓冲为写帧缓冲(Write Framebuffer):

[cpp] view plain copy
  1. glBindFramebuffer(GL_READ_FRAMEBUFFER, gBuffer);  
  2. glBindFramebuffer(GL_DRAW_FRAMEBUFFER, 0); // 写入到默认帧缓冲  
  3. glBlitFramebuffer(  
  4.   0, 0, SCR_WIDTH, SCR_HEIGHT, 0, 0, SCR_WIDTH, SCR_HEIGHT, GL_DEPTH_BUFFER_BIT, GL_NEAREST  
  5. );  
  6. glBindFramebuffer(GL_FRAMEBUFFER, 0);  
  7. // 现在像之前一样渲染光立方体  
  8. [...]   
在这里我们复制整个读帧缓冲的深度缓冲信息到默认帧缓冲的深度缓冲,对于颜色缓冲和模板缓冲我们也可以这样处理。现在如果我们接下来再渲染光立方体,场景里的几何体将会看起来很真实了,而不只是简单地粘贴立方体到2D方形之上:


在这里我们复制整个读帧缓冲的深度缓冲信息到默认帧缓冲的深度缓冲,对于颜色缓冲和模板缓冲我们也可以这样处理。现在如果我们接下来再渲染光立方体,场景里的几何体将会看起来很真实了,而不只是简单地粘贴立方体到2D方形之上:

下面把片段着色器代码给读者展示如下:

[cpp] view plain copy
  1. #version 330 core  
  2. layout (location = 0) in vec3 position;  
  3. layout (location = 1) in vec3 normal;  
  4. layout (location = 2) in vec2 texCoords;  
  5.   
  6. uniform mat4 projection;  
  7. uniform mat4 view;  
  8. uniform mat4 model;  
  9.   
  10. void main()  
  11. {  
  12.     gl_Position = projection * view * model * vec4(position, 1.0f);  
  13. }  

片段着色器代码如下所示:

[cpp] view plain copy
  1. #version 330 core  
  2. layout (location = 0) out vec4 FragColor;  
  3.   
  4. uniform vec3 lightColor;  
  5.   
  6. void main()  
  7. {             
  8.     FragColor = vec4(lightColor, 1.0);  
  9. }  

延迟渲染一直被称赞的原因就是它能够渲染大量的光源而不消耗大量的性能。然而,延迟渲染它本身并不能支持非常大量的光源,因为我们仍然必须要对场景中每一个光源计算每一个片段的光照分量。真正让大量光源成为可能的是我们能够对延迟渲染管线引用的一个非常棒的优化:光体积(Light Volumes)

通常情况下,当我们渲染一个复杂光照场景下的片段着色器时,我们会计算场景中每一个光源的贡献,不管它们离这个片段有多远。很大一部分的光源根本就不会到达这个片段,所以为什么我们还要浪费这么多光照运算呢?

隐藏在光体积背后的想法就是计算光源的半径,或是体积,也就是光能够到达片段的范围。由于大部分光源都使用了某种形式的衰减(Attenuation),我们可以用它来计算光源能够到达的最大路程,或者说是半径。我们接下来只需要对那些在一个或多个光体积内的片段进行繁重的光照运算就行了。这可以给我们省下来很可观的计算量,因为我们现在只在需要的情况下计算光照。

这个方法的难点基本就是找出一个光源光体积的大小,或者是半径。

为了获取一个光源的体积半径,我们需要解一个对于一个我们认为是黑暗(Dark)的亮度(Brightness)的衰减方程,它可以是0.0,或者是更亮一点的但仍被认为黑暗的值,像是0.03。为了展示我们如何计算光源的体积半径,我们将会使用一个在投光物这节中引入的一个更加复杂,但非常灵活的衰减方程:


我们现在想要在Flight等于0的前提下解这个方程,也就是说光在该距离完全是黑暗的。然而这个方程永远不会真正等于0.0,所以它没有解。所以,我们不会求表达式等于0.0时候的解,相反我们会求当亮度值靠近于0.0的解,这时候它还是能被看做是黑暗的。在这个教程的演示场景中,我们选择5/256作为一个合适的光照值;除以256是因为默认的8-bit帧缓冲可以每个分量显示这么多强度值(Intensity)。

我们要求的衰减方程会是这样:


在这里,Imax是光源最亮的颜色分量。我们之所以使用光源最亮的颜色分量是因为解光源最亮的强度值方程最好地反映了理想光体积半径。

从这里我们继续解方程:


最后的方程形成了ax2+bx+c=0的形式,我们可以用求根公式来解这个二次方程:


它给我们了一个通用公式从而允许我们计算xx的值,即光源的光体积半径,只要我们提供了一个常量,线性和二次项参数:

[cpp] view plain copy
  1. GLfloat constant  = 1.0;   
  2. GLfloat linear    = 0.7;  
  3. GLfloat quadratic = 1.8;  
  4. GLfloat lightMax  = std::fmaxf(std::fmaxf(lightColor.r, lightColor.g), lightColor.b);  
  5. GLfloat radius    =   
  6.   (-linear +  std::sqrtf(linear * linear - 4 * quadratic * (constant - (256.0 / 5.0) * lightMax)))   
  7.   / (2 * quadratic);    

它会返回一个大概在1.0到5.0范围内的半径值,它取决于光的最大强度。

对于场景中每一个光源,我们都计算它的半径,并仅在片段在光源的体积内部时才计算该光源的光照。下面是更新过的光照处理阶段片段着色器,它考虑到了计算出来的光体积。注意这种方法仅仅用作教学目的,在实际场景中是不可行的,我们会在后面讨论它:

[cpp] view plain copy
  1. struct Light {  
  2.     [...]  
  3.     float Radius;  
  4. };   
  5.   
  6. void main()  
  7. {  
  8.     [...]  
  9.     for(int i = 0; i < NR_LIGHTS; ++i)  
  10.     {  
  11.         // 计算光源和该片段间距离  
  12.         float distance = length(lights[i].Position - FragPos);  
  13.         if(distance < lights[i].Radius)  
  14.         {  
  15.             // 执行大开销光照  
  16.             [...]  
  17.         }  
  18.     }     
  19. }  
这次的结果和之前一模一样,但是这次物体只对所在光体积的光源计算光照。下面给出片段着色器代码如下:

[cpp] view plain copy
  1. #version 330 core  
  2. out vec4 FragColor;  
  3. in vec2 TexCoords;  
  4.   
  5. uniform sampler2D gPosition;  
  6. uniform sampler2D gNormal;  
  7. uniform sampler2D gAlbedoSpec;  
  8.   
  9. struct Light {  
  10.     vec3 Position;  
  11.     vec3 Color;  
  12.       
  13.     float Linear;  
  14.     float Quadratic;  
  15.     float Radius;  
  16. };  
  17. const int NR_LIGHTS = 32;  
  18. uniform Light lights[NR_LIGHTS];  
  19. uniform vec3 viewPos;  
  20.   
  21. void main()  
  22. {               
  23.     // Retrieve data from gbuffer  
  24.     vec3 FragPos = texture(gPosition, TexCoords).rgb;  
  25.     vec3 Normal = texture(gNormal, TexCoords).rgb;  
  26.     vec3 Diffuse = texture(gAlbedoSpec, TexCoords).rgb;  
  27.     float Specular = texture(gAlbedoSpec, TexCoords).a;  
  28.       
  29.     // Then calculate lighting as usual  
  30.     vec3 lighting  = Diffuse * 0.1; // hard-coded ambient component  
  31.     vec3 viewDir  = normalize(viewPos - FragPos);  
  32.     for(int i = 0; i < NR_LIGHTS; ++i)  
  33.     {  
  34.         // Calculate distance between light source and current fragment  
  35.         float distance = length(lights[i].Position - FragPos);  
  36.         if(distance < lights[i].Radius)  
  37.         {  
  38.             // Diffuse  
  39.             vec3 lightDir = normalize(lights[i].Position - FragPos);  
  40.             vec3 diffuse = max(dot(Normal, lightDir), 0.0) * Diffuse * lights[i].Color;  
  41.             // Specular  
  42.             vec3 halfwayDir = normalize(lightDir + viewDir);    
  43.             float spec = pow(max(dot(Normal, halfwayDir), 0.0), 16.0);  
  44.             vec3 specular = lights[i].Color * spec * Specular;  
  45.             // Attenuation  
  46.             float attenuation = 1.0 / (1.0 + lights[i].Linear * distance + lights[i].Quadratic * distance * distance);  
  47.             diffuse *= attenuation;  
  48.             specular *= attenuation;  
  49.             lighting += diffuse + specular;  
  50.         }  
  51.     }        
  52.     FragColor = vec4(lighting, 1.0);  
  53. }  

上面那个片段着色器在实际情况下不能真正地工作,并且它只演示了我们可以不知怎样能使用光体积减少光照运算。然而事实上,你的GPU和GLSL并不擅长优化循环和分支。这一缺陷的原因是GPU中着色器的运行是高度并行的,大部分的架构要求对于一个大的线程集合,GPU需要对它运行完全一样的着色器代码从而获得高效率。这通常意味着一个着色器运行时总是执行一个if语句所有的分支从而保证着色器运行都是一样的,这使得我们之前的半径检测优化完全变得无用,我们仍然在对所有光源计算光照!

使用光体积更好的方法是渲染一个实际的球体,并根据光体积的半径缩放。这些球的中心放置在光源的位置,由于它是根据光体积半径缩放的,这个球体正好覆盖了光的可视体积。这就是我们的技巧:我们使用大体相同的延迟片段着色器来渲染球体。因为球体产生了完全匹配于受影响像素的着色器调用,我们只渲染了受影响的像素而跳过其它的像素。下面这幅图展示了这一技巧:


它被应用在场景中每个光源上,并且所得的片段相加混合在一起。这个结果和之前场景是一样的,但这一次只渲染对于光源相关的片段。它有效地减少了从nr_objects * nr_lightsnr_objects + nr_lights的计算量,这使得多光源场景的渲染变得无比高效。这正是为什么延迟渲染非常适合渲染很大数量光源。

然而这个方法仍然有一个问题:面剔除(Face Culling)需要被启用(否则我们会渲染一个光效果两次),并且在它启用的时候用户可能进入一个光源的光体积,然而这样之后这个体积就不再被渲染了(由于背面剔除),这会使得光源的影响消失。这个问题可以通过一个模板缓冲技巧来解决。

渲染光体积确实会带来沉重的性能负担,虽然它通常比普通的延迟渲染更快,这仍然不是最好的优化。另外两个基于延迟渲染的更流行(并且更高效)的拓展叫做延迟光照(Deferred Lighting)切片式延迟着色法(Tile-based Deferred Shading)。这些方法会很大程度上提高大量光源渲染的效率,并且也能允许一个相对高效的多重采样抗锯齿(MSAA)。然而受制于这篇博客的长度,我将会在之后的教程中介绍这些优化。

仅仅是延迟着色法它本身(没有光体积)已经是一个很大的优化了,每个像素仅仅运行一个单独的片段着色器,然而对于正向渲染,我们通常会对一个像素运行多次片段着色器。当然,延迟渲染确实带来一些缺点:大内存开销,没有MSAA和混合(仍需要正向渲染的配合)。

当你有一个很小的场景并且没有很多的光源时候,延迟渲染并不一定会更快一点,甚至有些时候由于开销超过了它的优点还会更慢。然而在一个更复杂的场景中,延迟渲染会快速变成一个重要的优化,特别是有了更先进的优化拓展的时候。

最后我仍然想指出,基本上所有能通过正向渲染完成的效果能够同样在延迟渲染场景中实现,这通常需要一些小的翻译步骤。举个例子,如果我们想要在延迟渲染器中使用法线贴图(Normal Mapping),我们需要改变几何渲染阶段着色器来输出一个世界空间法线(World-space Normal),它从法线贴图中提取出来(使用一个TBN矩阵)而不是表面法线,光照渲染阶段中的光照运算一点都不需要变。如果你想要让视差贴图工作,首先你需要在采样一个物体的漫反射,镜面,和法线纹理之前首先置换几何渲染阶段中的纹理坐标。一旦你了解了延迟渲染背后的理念,变得有创造力并不是什么难事。

原创粉丝点击