Shader "Study/10_Distortion" { Properties{ _NoiseTex("絮乱图", 2D) = "white" {} // 絮乱图 _AreaTex("区域图(Alpha):白色为显示区域,透明为不显示区域", 2D) = "white" {} // 区域图 _MoveSpeed("絮乱图移动速度", range(0,1.5)) = 1 // 絮乱图移动速度 _MoveForce("絮乱图叠加后移动强度", range(0,0.1)) = 0.1 // 絮乱图叠加强度,多张运动纹理叠加后再相乘的系数 } Category{ // 【渲染队列】在透明物体前,类型为【透明】 Tags{ "Queue" = "Transparent+1" "RenderType" = "Transparent" } // 最终透明混合 = 贴图RGB*贴图A + 背景RGB*(1-贴图A) // 透明混合【源的A值】【1-SrcAlpha】 Blend SrcAlpha OneMinusSrcAlpha // 该写法为最常用最真实的透明混合显示,半透明图的正常显示 // GEuqal 点的alpha值大于等于0.01时渲染 AlphaTest Greater .01 // 在PS区域图时,不显示的地方透明度为0即可。 // 关闭剔除,关闭灯光,不记录深度 Cull Off Lighting Off ZWrite Off SubShader{ GrabPass{ Name "BASE"//在后续的通道中可以使用给定的名字来引用这个纹理。当你在1个场景中有多个对象使用grab pass 时候,这样做会提高效率。 Tags{ "LightMode" = "Always" } } Pass{ Name "BASE" Tags{ "LightMode" = "Always" } CGPROGRAM #pragma vertex vert #pragma fragment frag #pragma fragmentoption ARB_precision_hint_fastest #include "UnityCG.cginc" struct appdata_t { float4 vertex : POSITION; // 输入的模型坐标顶点信息 float2 texcoord: TEXCOORD0; // 输入的模型纹理坐标集 }; struct v2f { float4 vertex : POSITION; // 输出的顶点信息 float4 uvgrab : TEXCOORD0; // 输出的纹理做标集0 float2 uvmain : TEXCOORD1; // 输出的纹理坐标集1 }; float _MoveSpeed; // 声明絮乱图移动速度 float _MoveForce; // 声明运动强度 float4 _NoiseTex_ST; // 絮乱图采样 float4 _AreaTex_ST; // 区域图采样 sampler2D _NoiseTex; // 絮乱图样本对象 sampler2D _AreaTex; // 区域图样本对象 sampler2D _GrabTexture; // 全屏幕纹理的样本对象,由GrabPass赋值 v2f vert(appdata_t v) { v2f o; // 从模型坐标-世界坐标-视坐标-(视觉平截体乘以投影矩阵并进行透视除法)-剪裁坐标 o.vertex = mul(UNITY_MATRIX_MVP, v.vertex); // 将裁剪坐标中的【顶点信息】进行换算给uvgrab赋值 #if UNITY_UV_STARTS_AT_TOP // Direct3D类似平台scale为-1;OpenGL类似平台为1。 float scale = -1.0; #else float scale = 1.0; #endif o.uvgrab.xy = (float2(o.vertex.x, o.vertex.y * scale) + o.vertex.w) * 0.5; o.uvgrab.zw = o.vertex.zw; // 区域图纹理:获取输入的纹理坐标集,并且使用_MainTex_ST采样图,支持在视检器调节缩放和偏移值 o.uvmain = TRANSFORM_TEX(v.texcoord, _AreaTex); //o.uvgrab = TRANSFORM_TEX(v.texcoord, _AreaTex); return o; } half4 frag(v2f i) : COLOR { // 控制【UV的运动】,这样在进行采样时,offsetColor1拿到的颜色也是运动的。 half4 offsetColor1 = tex2D(_NoiseTex, i.uvmain + _Time.xz * _MoveSpeed);// 将xy与xz交叉位移 half4 offsetColor2 = tex2D(_NoiseTex, i.uvmain - _Time.yx * _MoveSpeed);// 将xy与yx交叉位移 // 将【正在移动的絮乱图纹理信息】的rg用于给uvgrab累加,加2个col就会出现2个絮乱图纹理 i.uvgrab.x += ((offsetColor1.r + offsetColor2.r) - 1) * _MoveForce; // 叠加强度 i.uvgrab.y += ((offsetColor1.g + offsetColor2.g) - 1) * _MoveForce; // 本来只会显示物体背后的屏幕纹理(视觉上该物体透明了) // 但是上面给x,y叠加了运动的rg值,所以就形成透明絮乱图运动的效果 half4 noiseCol = tex2Dproj(_GrabTexture, UNITY_PROJ_COORD(i.uvgrab)); // 屏幕纹理不需要透明,所以设置为1。 noiseCol.a = 1.0f; // 对区域图进行采样。 half4 areaCol = tex2D(_AreaTex, i.uvmain); // 纹理相乘:区域纹理RBG都为1,区域纹理A为O的像素将不会显示 // 即可达到絮乱图在区域图中才显示的效果。 return noiseCol * areaCol; } ENDCG }//end pass }//end subshader // 用于老式显卡 SubShader{ Blend DstColor Zero Pass{ Name "BASE" SetTexture[_MainTex]{ combine texture } } } } }
原理大概如下:
1:通过grabpass 获取全屏得到图像
2:通过维护一个grabuv(包括通过时间位移该uv)从获取的截屏图像中取出相应纹理信息
3:通过正常的uv取出纹理信息,并与从截屏图像中取出的纹理信息进行混合