<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>浏览笔记 on wanfeng</title>
        <link>https://sdpyy1.github.io/tags/%E6%B5%8F%E8%A7%88%E7%AC%94%E8%AE%B0/</link>
        <description>Recent content in 浏览笔记 on wanfeng</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <copyright>爱喝东方树叶</copyright>
        <lastBuildDate>Tue, 11 Nov 2025 13:43:46 +0800</lastBuildDate><atom:link href="https://sdpyy1.github.io/tags/%E6%B5%8F%E8%A7%88%E7%AC%94%E8%AE%B0/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>博客日记（记录看大佬博客的一些思考）</title>
        <link>https://sdpyy1.github.io/p/%E5%8D%9A%E5%AE%A2%E6%97%A5%E8%AE%B0%E8%AE%B0%E5%BD%95%E7%9C%8B%E5%A4%A7%E4%BD%AC%E5%8D%9A%E5%AE%A2%E7%9A%84%E4%B8%80%E4%BA%9B%E6%80%9D%E8%80%83/</link>
        <pubDate>Tue, 11 Nov 2025 13:43:46 +0800</pubDate>
        
        <guid>https://sdpyy1.github.io/p/%E5%8D%9A%E5%AE%A2%E6%97%A5%E8%AE%B0%E8%AE%B0%E5%BD%95%E7%9C%8B%E5%A4%A7%E4%BD%AC%E5%8D%9A%E5%AE%A2%E7%9A%84%E4%B8%80%E4%BA%9B%E6%80%9D%E8%80%83/</guid>
        <description>&lt;h1 id=&#34;api差异图&#34;&gt;API差异图
&lt;/h1&gt;&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-bc2c3bdf725bc8d13d43b631c1de0ec4_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;h1 id=&#34;20251216&#34;&gt;2025.12.16
&lt;/h1&gt;&lt;blockquote&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/582237962&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://zhuanlan.zhihu.com/p/582237962&lt;/a&gt; 全局光照浅析&lt;/p&gt;
&lt;/blockquote&gt;
&lt;ol&gt;
&lt;li&gt;现实中的反射大部分情况下并不是mirror reflections也不是diffuse reflections，而是介于两者之间，这种反射叫做&lt;strong&gt;glossy reflections&lt;/strong&gt;，对应的材质也叫做&lt;strong&gt;glossy&lt;/strong&gt; 。   这下把这些名词都对应上了~&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Caustics&lt;/strong&gt;焦散在图形学中的定义是指光线经过高光物体的反射或折射，然后弹射到漫反射表面，再弹射到眼睛的效果，如上图中书下面阴影中高亮的部分。Caustics很难实现，即便在离线渲染中使用&lt;strong&gt;path tracing&lt;/strong&gt;也很难实现，通常会借助&lt;strong&gt;Photon Mapping&lt;/strong&gt;光子映射技术来实现Caustics。  &lt;strong&gt;第一次接触这个词！&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;下图可以看到在书下面的阴影中也有很亮的地方，叫做焦散&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/image-20251216140921795.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;image-20251216140921795&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;下面是几种离线渲染的全局光照方案&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Whitted-Style Ray Tracing&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;从视点发射光线。&lt;/li&gt;
&lt;li&gt;光线碰撞到物体表面，如果表面材质是diffuse材质则光线停止传播，否则沿着反射方向继续传播。&lt;/li&gt;
&lt;li&gt;每个碰撞点都需要发射一条shadow ray做遮挡查询。&lt;/li&gt;
&lt;li&gt;shading point需要累加所有碰撞点的Irradiance，作为最终的光照结果。&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;Whitted-Style Ray Tracing算法无法实现右边的glossy reflection效果，因为光线是按照镜面反射的方式传播的，真实世界大部分物体都不是mirror materail。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;原来 Mirror和Glossy是要区分的。另外Games101讲的Whitted-Style Ray Tracing原来就是丐版的pathTracing，因为只进行镜面反射，所以没法实现glossy的反射&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-e4d6121ade048c436193b6e1124ef3dc_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/image-20251216141216946.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;image-20251216141216946&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;因为漫反射不递归，所以漫反射全局光照效果肯定是没有的&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-c5d374a083059069a1f12c8583ba389b_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Distributed Ray Tracing&lt;/strong&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;基本思路和Whitted-Style Ray Tracing一样，只是为了解决漫反射光线传播，在每一个碰撞点上的半球空间都会发射多条光线来模拟漫反射。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;算法的缺点非常明显就是计算量爆炸，这个算法即便是离线渲染也是不能接受的，不过这个算法应该是最朴素也是效果最好的光线追踪算法，说不定以后硬件性能爆炸，这个算法也有回春的一天。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-da4eb9d11981bc463a17fd451f9ae6d3_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Path Tracing&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-aa59a7183378b1dd5af697fda37778ee_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;这个算法的最大问题是光线命中光源的概率很低，因此会有很多噪点。&lt;img src=&#34;https://sdpyy1.github.io/v2-b976056e81e1c297ae5c44a5b0ccd4e2_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;blockquote&gt;
&lt;p&gt;通过加大光源面积和投射光线的数量可以缓解这个问题。另外可以把每个碰撞点的光照分为直接光照和间接光照，直接光照从光源中进行采样以保证命中概率，并且直接光照会做shadow ray，而间接光照还是使用上面的算法，这样噪点仅存在于间接光照的部分&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;Bidirectional Path Tracing&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这里能看出PathTracing的缺点：如果场景主要是间接光照照亮的，那PathTracing效果就会很差&lt;/p&gt;
&lt;p&gt;有的时候光源的环境很复杂，使用上面的Path Tracing依然会获得很低的光源命中率，如下图：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;现实中这种情形，照亮场景的应该是间接光照，而间接光照的命中率又很低，所以上面的算法不太适用这种场景&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-7aa137b42cf86c1cfeb6f5157810c6d3_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;双向路径跟踪算法（Bidirectional Path Tracing，BDPT）在路径跟踪算法的基础之上，额外从光源出发创建光路，再连接从照相机追溯的光路和从光源出发的光路上的点，创建多条光路，并根据光线从这些光路传播的概率，合并各个光路传递的辐射亮度，即进行所谓的多重重要性抽样（multiple importance sampling），计算光线最后进入照相机生成图像的光照结果，如下图：&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-90fd36d157fd29d0c640dea65098cf42_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;光子映射&lt;/strong&gt;Photon Mapping&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhida.zhihu.com/search?content_id=217520473&amp;amp;content_type=Article&amp;amp;match_order=1&amp;amp;q=Path&amp;#43;Tracing%e7%ae%97%e6%b3%95&amp;amp;zhida_source=entity&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Path Tracing算法&lt;/a&gt;最大的问题就是光路命中光源的概率太低，即便是使用大量的SPP也会产生很多高频的噪点。另外在光线传播的过程中光路都是随机生成的，Caustics这种需要先弹射到镜面然后再弹射到漫反射物体的命中概率就更低了，因此Path Tracing很难模拟Caustics效果。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;光子映射的基本算法分成两个Pass。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Pass1-光源从随机方向发射光子，并在一切表面上弹射，如果弹射的表面是diffuse材质则记录光子信息包括光子的POS，光子的能量POWER，光子的入射方向Dir，可以把这些光子理解成为次级光源，使用俄罗斯轮盘算法结束光子的递归弹射，这样可以保证能量守恒。这些光子信息与视点无关，所以可以保存起来供后续pass使用，这也是空间换时间的算法。&lt;/li&gt;
&lt;li&gt;Pass2-从相机射出的光线，打到非diffuse材质表面进行反射或折射，打到diffuse材质表面则根据收集半径检索附近的光子进行间接光照计算。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;下面是实时渲染的全局光照解决方案&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhida.zhihu.com/search?content_id=217520473&amp;amp;content_type=Article&amp;amp;match_order=1&amp;amp;q=Light&amp;#43;Probe&amp;amp;zhida_source=entity&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Light Probe&lt;/a&gt;(Irradiance Volume&lt;/strong&gt;)&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;light probe就是在空间中摆放很多的probe，这些probe可以当成次级光源，在离线的时候将irradiance保存到probe中，通常使用球鞋函数来缓存光照信息。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-1bbb0499c753643bb18869c5429d3dec_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;这样空间中的每个点都可以找到离它最近的四个probe，这四个probe可以构成一个四面体，然后计算四面体的重心位置，通过重心位置和坐标点进行差值来计算最终的光照信息，如下图：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-6141122b1e89ddd976593631105dd3f9_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-e1176044e46ef958304a9ff4ca6f2a04_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;DDGI其实就是Irradiance Volume的实时版本，它利用实时光线追踪来计算probe信息，而Irradiance Volume是离线计算的，从这点上来说DDGI是完全支持动态光源的算法，但是它依赖可以做实时光线追踪的硬件或者是使用Ray Marching。另外DDGI使用了切比雪夫不等式来预测probe是否被遮挡，减缓漏光问题。DDGI的核心是优化Irradiance volume的更新&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;漏光的原因是采样到了实际上被遮挡的探针，DDGI使用切比雪夫不等式原来就是用来预测Probe是否被遮挡&lt;/p&gt;
&lt;p&gt;下面还介绍了LPV、VXGI，这个等实现时再看&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhida.zhihu.com/search?content_id=217520473&amp;amp;content_type=Article&amp;amp;match_order=1&amp;amp;q=GIBS&amp;amp;zhida_source=entity&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;GIBS&lt;/a&gt;&lt;/strong&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;GIBS与VXGI不同之处是VXGI将场景的物体表面离散成了voxel，而GIBS将场景表面离散成了surfel。描述一个surfel的基本数据结构是位置，法线和半径，这就定义了一个2D的圆形表面&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;PRT&lt;/strong&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;PRT就是将光照方程进行拆解，然后用球谐函数记录每个部分，利用球谐函数的性质还原光照方程，因为light transport部分包含场景的遮挡关系且这部分是预计算的所以PRT只支持静态场景动态光源。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;SSGI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;ssgi是基于屏幕空间的全局光照算法，利用深度信息进行Ray Marching，效率不如SDF，但是不需要额外的存储空间，因为是基于屏幕空间的光照算法，所以缺少屏幕外的光照信息。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Lumen&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;ue5的lumen主要是实现了一套软光线追踪算法，其中涉及的内容几乎包括了上面所有介绍的实时全局光照算法，会单独写一篇文章介绍，这里就不详细介绍了。&lt;/p&gt;
&lt;p&gt;总结一下实时全局光照算法，基本分为三个步骤：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;离散化场景空间或物体表面，probe，voxel，surfel，均匀网格，还有一个lumen的mesh card后面介绍。&lt;/li&gt;
&lt;li&gt;计算Irradiance cache。&lt;/li&gt;
&lt;li&gt;利用Irradiance cache还原光照方程。&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;另外 有一个东西是 SDF实现的raymarch不太了解&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h1 id=&#34;20251121-丛越&#34;&gt;2025.11.21 &lt;a class=&#34;link&#34; href=&#34;https://www.zhihu.com/people/li-xiang-da-sheng&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;丛越&lt;/a&gt;
&lt;/h1&gt;&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/73016473&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://zhuanlan.zhihu.com/p/73016473&lt;/a&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;看了人家的管线设计才发现自己费那么多劲琢磨架构是多么的无知，当前阶段还是多输入少输出吧&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-6647fa57ba10d9e59ef450c95a5465e9_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;原来Buffer还能这么复用（在不同时段通过别名资源重用内存）&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-a69ef401111d7e4daafba86bb45dc8e5_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;GPU驱动管线（下一步学习计划！）&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-e31bb10597a4e179fa58b6c8ef2bc73e_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;h2 id=&#34;vulkan的内存模型&#34;&gt;Vulkan的内存模型
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;Vulkan 的内存分为 Host 和 Device 两大类，下图可以看到哪些是Device可见的，哪些是Host可见的&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-dd5c58d0b19d987f75ed0ab789aab700_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;h2 id=&#34;并行-command&#34;&gt;&lt;strong&gt;并行 Command&lt;/strong&gt;
&lt;/h2&gt;&lt;p&gt;尽管从 API 层面来看 Command 是依次录制的，但 GPU 在执行时是将 Queue 中的指令同时分发给 GPU 多核中的 Pipeline 执行，这就是 GPU 的并行计算机制。而这种并行，是不会保证执行的顺序，所以对于提交到 GPU 执行的 Command，需要了解以下几个事实：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Command 在 Command Buffer 中顺序并不代表在 GPU 内部执行的顺序。&lt;/li&gt;
&lt;li&gt;提交到同一 Command Queue 中不同 Command Buffer 的顺序并不代表在 GPU 内部执行的顺序。&lt;/li&gt;
&lt;li&gt;不同 Command Queue 的提交顺序不代表在 GPU 内部执行的顺序。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;pipeline-barrier&#34;&gt;Pipeline Barrier
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;TODO： &lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/100162469&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://zhuanlan.zhihu.com/p/100162469&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;下面图片的每个块表示一个Pipeline Stage&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-2fd622b2f90bc15a58b64ad3bf40e2ca_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-839b52b484211055dabf62f735ce8711_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;h1 id=&#34;20251111-saeruhikari&#34;&gt;2025.11.11 &lt;a class=&#34;link&#34; href=&#34;https://www.zhihu.com/people/SaeruHikari&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;SaeruHikari&lt;/a&gt;
&lt;/h1&gt;&lt;h2 id=&#34;gbuffer压缩&#34;&gt;GBuffer压缩
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;Gbuffer是可以压缩的(&lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/95824400&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://zhuanlan.zhihu.com/p/95824400&lt;/a&gt;)。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;blockquote&gt;
&lt;p&gt;GBuffer会带来显卡的带宽压力, 所以现在的游戏一般会把GBuffer压缩到2~3张。比如把法线压缩到2通道并在使用时进行Decode, 或者不保存PosW到GBuffer, 而是在使用时使用深度重建。可以参照顽皮狗在Sig16分享的方案:&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-608ab351d2c8eab45c19db643a4c2383_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;h2 id=&#34;不同的brdf方案&#34;&gt;不同的BRDF方案
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;可以学习并实践一下不同的BRDF方案，而不是就还是Lambert + Cook-Torrance&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Diffuse&lt;/p&gt;
&lt;p&gt;首先看漫反射部分, 目前比较流行的公式有这些可选:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lambert&lt;/li&gt;
&lt;li&gt;Burley(Disney)[sig2012]&lt;/li&gt;
&lt;li&gt;Renormalized Disney Diffuse[sig2014]&lt;/li&gt;
&lt;li&gt;PBR diffuse for GGX_Smith[GDC 2017]&lt;/li&gt;
&lt;li&gt;MultiScattering Diffuse BRDF[sig2018]&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;在五个模型都尝试一遍过后选择了RenormalizedDisneyDiffuse。&lt;/p&gt;
&lt;p&gt;这里特别要提一句的是MultiScattering版本的diffuse BRDF, 在今年的sig也有对它实现的补充以及改进分享。但是实测之后发现效果并不好, 因为多散射对diffuse的影响实在太小, 这个模型并不能带来太多可见的改善。&lt;/p&gt;
&lt;p&gt;而Frostbite在14年sig[&lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/95824400#ref_3&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;3]&lt;/a&gt;提出的Renormalized Disney Diffuse是带来观感改善较大的一个:&lt;/p&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://link.zhihu.com/?target=https%3A//www.ea.com/frostbite/news/moving-frostbite-to-pb&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-dd4c129afd548efa0dc31ea40c158247_180x120.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;Moving Frostbite To PBRwww.ea.com/frostbite/news/moving-frostbite-to-pb&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;它主要对Burley模型进行了改进, 根据视角入射角对Diffuse进行补正来维持能量守恒, 在视角移动时产生的视觉效果更加细腻(当然光源太复杂就没那么明显了&amp;hellip;)。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-9f1bedb8c658d0a90fce08bf99c3ad20_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;Specular&lt;/p&gt;
&lt;p&gt;接下来来到BRDF里最重要, 组装起来也最好玩的Specular BRDF项:&lt;/p&gt;
&lt;p&gt;(Cook-Torrance)&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;D(h):&lt;/strong&gt; 法线分布函数, 描述微面元法线分布的概率, 具有正确朝向，能够将来自l的光反射到v的表面点的相对于表面面积的浓度。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;F(l,h) :&lt;/strong&gt; 菲涅尔方程, 描述不同的表面角下表面所反射的光线所占的比率。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;G(l,v,h) :&lt;/strong&gt; 几何函数/几何遮蔽，描述微平面自成阴影的属性，即m = h的未被遮蔽的表面点的百分比。&lt;/li&gt;
&lt;li&gt;**分母 4(n·l)(n·v）：**校正因子，作为微观几何的局部空间和整个宏观表面的局部空间之间变换的微平面量的校正。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这里不再细致解释, 列出常用的模型, 这些模型在UE4几乎都有实现, 可以到BRDF.ush去参考(抄):&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Specular D:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Blinn-Phong[1977]&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;GGX/GTR[2007/2012] (GGX(GTR2)作为GTR的特例)&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;以及各种各向异性版本&amp;hellip;&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;SpecularF&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Cook-Torrance[1982]&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Schlick[1994] (一般选用这个, 便宜且曲线非常贴紧参考值)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;SpecularG&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Cook-Torrance[1982]&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Smith[1967] (被拓展为l, v的联合遮蔽函数, 具有多种变体)&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;taa&#34;&gt;TAA
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;一直没管过引擎的走样问题。。。待学习完善&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;rgd&#34;&gt;RGD
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://zhuanlan.zhihu.com/p/97022384&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://zhuanlan.zhihu.com/p/97022384&lt;/a&gt; 这里有RGD的实现思路，学习RGD可以参考&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;反射&#34;&gt;反射
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://link.zhihu.com/?target=https%3A//github.com/rttrorg/rttr&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://link.zhihu.com/?target=https%3A//github.com/rttrorg/rttr&lt;/a&gt; ， &lt;a class=&#34;link&#34; href=&#34;https://www.zhihu.com/people/SaeruHikari&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;SaeruHikari&lt;/a&gt;用的这个反射&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;多线程渲染&#34;&gt;多线程渲染?
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;博客提到的多线程是指多个queue，和我现在实现不一样啊&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h1 id=&#34;20251112&#34;&gt;2025.11.12
&lt;/h1&gt;&lt;h2 id=&#34;匿名资源临时资源&#34;&gt;匿名资源、临时资源
&lt;/h2&gt;&lt;blockquote&gt;
&lt;p&gt;这个东西我的项目有进行规整，所有资源都做了保存    （应该：无名未注册的资源会被保持在一个池内, 并由系统进行自动化的复用。）&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;rdg&#34;&gt;RDG
&lt;/h2&gt;&lt;p&gt;蓝色表示PassNode, 白色圆角表示ResourceNode, 实际资源存储在Container中。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://sdpyy1.github.io/v2-023ed73f03abd924d664599d8eb17235_1440w.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;img&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;纹理、Buffer、Pass创建都是走的RDG&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;RDG需要处理多帧资源比如TAA&lt;/p&gt;
&lt;/blockquote&gt;
</description>
        </item>
        
    </channel>
</rss>
