C++ 如何在openGL中处理点球体的闪电(环境光、漫反射光、镜面反射光) 初始情况
我想在openGL中可视化仿真数据。 我的数据由粒子位置(x,y,z)组成,其中每个粒子都有一些用于着色的属性(如密度,温度等)。如果你想知道的话,这些(SPH)粒子(100k到几百万)组合在一起,实际上代表了行星。我希望将这些粒子渲染为小3D球体,并添加环境光、漫反射光和镜面反射光 现状和问题C++ 如何在openGL中处理点球体的闪电(环境光、漫反射光、镜面反射光) 初始情况,c++,opengl,rendering,specular,C++,Opengl,Rendering,Specular,我想在openGL中可视化仿真数据。 我的数据由粒子位置(x,y,z)组成,其中每个粒子都有一些用于着色的属性(如密度,温度等)。如果你想知道的话,这些(SPH)粒子(100k到几百万)组合在一起,实际上代表了行星。我希望将这些粒子渲染为小3D球体,并添加环境光、漫反射光和镜面反射光 现状和问题 在我的例子中:我在哪个坐标系中进行闪电计算?哪种“最佳”方式可以使各种组件通过管道 我看到在视图空间中这样做是很常见的,这也是非常直观的。但是:不同片段位置的法线在片段着色器中以片段空间坐标计算(请参见
//VERTEX SHADER
#version 330 core
layout (location = 0) in vec3 position;
layout (location = 2) in float density;
uniform float radius;
uniform vec3 lightPos;
uniform vec3 viewPos;
out vec4 lightDir;
out vec4 viewDir;
out vec4 viewPosition;
out vec4 posClip;
out float vertexColor;
// transformation matrices
uniform mat4 model;
uniform mat4 view;
uniform mat4 projection;
void main()
{
lightDir = projection * view * vec4(lightPos - position, 1.0f);
viewDir = projection * view * vec4(viewPos - position, 1.0f);
viewPosition = projection * view * vec4(lightPos, 1.0f);
posClip = projection * view * vec4(position, 1.0f);
gl_Position = posClip;
gl_PointSize = radius;
vertexColor = density;
}
//FRAGMENT SHADER
#version 330 core
in float vertexColor;
in vec4 lightDir;
in vec4 viewDir;
in vec4 posClip;
in vec4 viewPosition;
uniform vec3 lightColor;
vec4 colormap(float x); // returns vec4(r, g, b, a)
out vec4 vFragColor;
void main(void)
{
// AMBIENT LIGHT
float ambientStrength = 0.0;
vec3 ambient = ambientStrength * lightColor;
// Normal calculation done in clip space (first from texture (gl_PointCoord 0 to 1) coord to NDC( -1 to 1))
vec3 normal;
normal.xy = gl_PointCoord * 2.0 - vec2(1.0); // transform from 0->1 point primitive coords to NDC -1->1
float mag = dot(normal.xy, normal.xy); // sqrt(x=1) = sqrt(x)
if (mag > 1.0) // discard fragments outside sphere
discard;
normal.z = sqrt(1.0 - mag); // because x^2 + y^2 + z^2 = 1
// DIFFUSE LIGHT
float diff = max(0.0, dot(vec3(lightDir), normal));
vec3 diffuse = diff * lightColor;
// SPECULAR LIGHT
float specularStrength = 0.1;
vec3 viewDir = normalize(vec3(viewPosition) - vec3(posClip));
vec3 reflectDir = reflect(-vec3(lightDir), normal);
float shininess = 64;
float spec = pow(max(dot(vec3(viewDir), vec3(reflectDir)), 0.0), shininess);
vec3 specular = specularStrength * spec * lightColor;
vFragColor = colormap(vertexColor / 8) * vec4(ambient + diffuse + specular, 1);
}
同样在这一刻,我在片段着色器中得到了一些glError:1282错误,我不知道它来自何处,因为着色器程序实际上是编译和运行的,有什么建议吗?:)您正在绘制的东西实际上不是球体。他们只是从远处看起来像他们。如果你同意的话,这是绝对可以的。如果需要几何上正确的球体(具有正确的大小和正确的投影),则需要进行适当的光线投射。这似乎是一个关于这个主题的全面指南 1.什么坐标系? 最后,这取决于你。坐标系只需要满足一些要求。它必须保持角度(因为照明都是关于角度的)。如果需要基于距离的衰减,它也应该保持距离。世界坐标系和视图坐标系通常满足这些要求。剪辑空间不适用于照明计算,因为既不保留角度也不保留距离。此外,
gl_PointCoord
不在任何常用坐标系中。它是它自己的坐标系,如果知道其他坐标系之间的关系,则只能将其与其他坐标系一起使用
2.网格还是什么?
网格绝对不适合渲染球体。如上所述,光线投射或一些屏幕空间近似是更好的选择。以下是我在项目中使用的示例着色器:
#version 330
out vec4 result;
in fData
{
vec4 toPixel; //fragment coordinate in particle coordinates
vec4 cam; //camera position in particle coordinates
vec4 color; //sphere color
float radius; //sphere radius
} frag;
uniform mat4 p; //projection matrix
void main(void)
{
vec3 v = frag.toPixel.xyz - frag.cam.xyz;
vec3 e = frag.cam.xyz;
float ev = dot(e, v);
float vv = dot(v, v);
float ee = dot(e, e);
float rr = frag.radius * frag.radius;
float radicand = ev * ev - vv * (ee - rr);
if(radicand < 0)
discard;
float rt = sqrt(radicand);
float lambda = max(0, (-ev - rt) / vv); //first intersection on the ray
float lambda2 = (-ev + rt) / vv; //second intersection on the ray
if(lambda2 < lambda) //if the first intersection is behind the camera
discard;
vec3 hit = lambda * v; //intersection point
vec3 normal = (frag.cam.xyz + hit) / frag.radius;
vec4 proj = p * vec4(hit, 1); //intersection point in clip space
gl_FragDepth = ((gl_DepthRange.diff * proj.z / proj.w) + gl_DepthRange.near + gl_DepthRange.far) / 2.0;
vec3 vNormalized = -normalize(v);
float nDotL = dot(vNormalized, normal);
vec3 c = frag.color.rgb * nDotL + vec3(0.5, 0.5, 0.5) * pow(nDotL, 120);
result = vec4(c, frag.color.a);
}
#版本330
结果4例;
在fData中
{
vec4 toPixel;//粒子坐标中的碎片坐标
vec4 cam;//摄影机在粒子坐标中的位置
vec4颜色;//球体颜色
浮动半径;//球体半径
}弗拉格;
均匀mat4p//投影矩阵
真空总管(真空)
{
vec3 v=frag.toPixel.xyz-frag.cam.xyz;
vec3 e=frag.cam.xyz;
浮动ev=点(e,v);
浮动vv=点(v,v);
浮点数ee=点(e,e);
浮动rr=框架半径*框架半径;
浮动半径C=ev*ev-vv*(ee-rr);
if(半径C<0)
丢弃;
浮动rt=sqrt(半径C);
float lambda=max(0,(-ev-rt)/vv);//光线上的第一个交点
float lambda2=(-ev+rt)/vv;//光线上的第二个交点
if(lambda2
3.透视图划分
透视分割不应用于属性。GPU对通过gl_Position
传递到屏幕空间的数据进行透视分割。但除非你自己去做,否则你永远不会真正看到这种观点
4.黑暗中的光明
这可能是混合不同坐标系或在剪辑空间中进行照明计算的结果。顺便说一句,镜面反射部分通常不会乘以材质颜色。这是直接在表面反射的光。它不能穿透表面(根据材料的不同,表面会吸收一些颜色)。这就是为什么即使在黑色物体上,这些高光通常都是白色(或任何你拥有的浅色)的原因。谢谢你的回答!只有两个后续问题:1)假设我完全同意球体是“假”球体。可以使用gl_FragCoord进入NDC->然后进入hom吗