DirectX11 With Windows SDK--23 立方體映射:動態天空盒的實現

前言

上一章的靜態天空盒已經可以滿足絕大部分日常使用了。但對于自帶反射/折射屬性的物體來說,它需要依賴天空盒進行繪制,但靜態天空盒并不會記錄周邊的物體,更不用說正在其周圍運動的物體了。因此我們需要在運行期間構建動態天空盒,將周邊物體繪制入當前的動態天空盒。

沒了解過靜態天空盒的讀者請先移步到下面的鏈接

章節回顧
22 立方體映射:靜態天空盒的讀取與實現

DirectX11 With Windows SDK完整目錄

Github項目源碼

歡迎加入QQ群: 727623616 可以一起探討DX11,以及有什么問題也可以在這里匯報。

動態天空盒

現在如果我們要讓擁有反射/折射屬性的物體映射其周圍的物體和天空盒的話,就需要在每一幀重建動態天空盒,具體做法為:在每一幀將攝像機放置在待反射/折射物體中心,然后沿著各個坐標軸渲染除了自己以外的所有物體及靜態天空盒共六次,一次對應紋理立方體的一個面。這樣繪制好的動態天空盒就會記錄下當前幀各物體所在的位置了。

但是這樣做會帶來非常大的性能開銷,加上動態天空盒后,現在一個場景就要渲染七次,對應七個不同的渲染目標!如果要使用的話,盡可能減少所需要用到的動態天空盒數目。對于多個物體來說,你可以只對比較重要,關注度較高的反射/折射物體使用動態天空盒,其余的仍使用靜態天空盒,甚至不用。畢竟動態天空盒也不是用在場景繪制,而是在物體上,可以不需要跟靜態天空盒那樣大的分辨率,通常情況下設置到256x256即可.

資源視圖(Resource Views)回顧

由于動態天空盒的實現同時要用到渲染目標視圖(Render Target View)深度模板視圖(Depth Stencil View)著色器資源視圖(Shader Resource View),這里再進行一次回顧。

由于資源(ID3D11Resource)本身的類型十分復雜,比如一個ID3D11Texture2D本身既可以是一個紋理,也可以是一個紋理數組,但紋理數組在元素個數為6時有可能會被用作立方體紋理,就這樣直接綁定到渲染管線上是無法確定它本身究竟要被用作什么樣的類型的。比如說作為著色器資源,它可以是Texture2D, Texture2DArray, TextureCube的任意一種。

因此,我們需要用到一種叫資源視圖(Resource Views)的類型,它主要有下面4種功能:

  1. 綁定要使用的資源
  2. 解釋該資源具體會被用作什么類型
  3. 指定該資源的元素范圍,以及紋理的子資源范圍
  4. 說明該資源最終在渲染管線上的用途

渲染目標視圖用于將渲染管線的運行結果輸出給其綁定的資源,即僅能設置給輸出合并階段。這意味著該資源主要用于寫入,但是在進行混合操作時還需要讀取該資源。通常渲染目標是一個二維的紋理,但它依舊可能會綁定其余類型的資源。這里不做討論。

深度/模板視圖同樣用于設置給輸出合并階段,但是它用于深度測試和模板測試,決定了當前像素是通過還是會被拋棄,并更新深度/模板值。它允許一個資源同時綁定到深度模板視圖和著色器資源視圖,但是兩個資源視圖此時都是只讀的,深度/模板視圖也無法對其進行修改,這樣該紋理就還可以綁定到任意允許的可編程著色器階段上。如果要允許深度/模板緩沖區進行寫入,則應該取消綁定在著色器的資源視圖。

著色器資源視圖提供了資源的讀取權限,可以用于渲染管線的所有可編程著色器階段中。通常該視圖多用于像素著色器階段,但要注意無法通過著色器寫入該資源。

DynamicSkyRender類

該類繼承自上一章的SkyRender類,用以支持動態天空盒的相關操作。


class DynamicSkyRender : public SkyRender
{
public:
    DynamicSkyRender(ComPtr<ID3D11Device> device,
        ComPtr<ID3D11DeviceContext> deviceContext,
        const std::wstring& cubemapFilename,
        float skySphereRadius,      // 天空球半徑
        int dynamicCubeSize,        // 立方體棱長
        bool generateMips = false); // 默認不為靜態天空盒生成mipmaps
                                    // 動態天空盒必然生成mipmaps

    DynamicSkyRender(ComPtr<ID3D11Device> device,
        ComPtr<ID3D11DeviceContext> deviceContext,
        const std::vector<std::wstring>& cubemapFilenames,
        float skySphereRadius,      // 天空球半徑
        int dynamicCubeSize,        // 立方體棱長
        bool generateMips = false); // 默認不為靜態天空盒生成mipmaps
                                    // 動態天空盒必然生成mipmaps


    // 緩存當前渲染目標視圖
    void Cache(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect);

    // 指定天空盒某一面開始繪制,需要先調用Cache方法
    void BeginCapture(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const DirectX::XMFLOAT3& pos,
        D3D11_TEXTURECUBE_FACE face, float nearZ = 1e-3f, float farZ = 1e3f);

    // 恢復渲染目標視圖及攝像機,并綁定當前動態天空盒
    void Restore(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const Camera& camera);

    // 獲取動態天空盒
    // 注意:該方法只能在Restore后再調用
    ComPtr<ID3D11ShaderResourceView> GetDynamicTextureCube();

    // 獲取當前用于捕獲的天空盒
    const Camera& GetCamera() const;

private:
    void InitResource(ComPtr<ID3D11Device> device, int dynamicCubeSize);

private:
    ComPtr<ID3D11RenderTargetView>      m_pCacheRTV;                // 臨時緩存的后備緩沖區
    ComPtr<ID3D11DepthStencilView>      m_pCacheDSV;                // 臨時緩存的深度/模板緩沖區
    
    FirstPersonCamera                   m_pCamera;                  // 捕獲當前天空盒其中一面的攝像機
    ComPtr<ID3D11DepthStencilView>      m_pDynamicCubeMapDSV;       // 動態天空盒渲染對應的深度/模板視圖
    ComPtr<ID3D11ShaderResourceView>    m_pDynamicCubeMapSRV;       // 動態天空盒對應的著色器資源視圖
    ComPtr<ID3D11RenderTargetView>      m_pDynamicCubeMapRTVs[6];   // 動態天空盒每個面對應的渲染目標視圖
    
};

構造函數在完成靜態天空盒的初始化后,就會調用DynamicSkyRender::InitResource方法來初始化動態天空盒。

Render-To-Texture 技術

因為之前的個人教程把計算著色器給跳過了,Render-To-Texture剛好又在龍書里的這章,只好把它帶到這里來講了。

在我們之前的程序中,我們都是渲染到后備緩沖區里。經過了這么多的章節,應該可以知道它的類型是ID3D11Texture2D,僅僅是一個2D紋理罷了。在d3dApp類里可以看到這部分的代碼:

// 重設交換鏈并且重新創建渲染目標視圖
ComPtr<ID3D11Texture2D> backBuffer;
HR(m_pSwapChain->ResizeBuffers(1, m_ClientWidth, m_ClientHeight, DXGI_FORMAT_B8G8R8A8_UNORM, 0));   // 注意此處DXGI_FORMAT_B8G8R8A8_UNORM
HR(m_pSwapChain->GetBuffer(0, __uuidof(ID3D11Texture2D), reinterpret_cast<void**>(backBuffer.GetAddressOf())));
HR(m_pd3dDevice->CreateRenderTargetView(backBuffer.Get(), nullptr, m_pRenderTargetView.GetAddressOf()));
backBuffer.Reset();

這里渲染目標視圖綁定的是重新調整過大小的后備緩沖區。然后把該視圖交給輸出合并階段:

// 將渲染目標視圖和深度/模板緩沖區結合到管線
m_pd3dImmediateContext->OMSetRenderTargets(1, m_pRenderTargetView.GetAddressOf(), m_pDepthStencilView.Get());

這樣經過一次繪制指令后就會將管線的運行結果輸出到該視圖綁定的后備緩沖區上,待所有繪制完成后,再調用IDXGISwapChain::Present方法來交換前/后臺以達到畫面更新的效果。

如果渲染目標視圖綁定的是新建的2D紋理,而非后備緩沖區的話,那么渲染結果將會輸出到該紋理上,并且不會直接在屏幕上顯示出來。然后我們就可以使用該紋理做一些別的事情,比如綁定到著色器資源視圖供可編程著色器使用,又或者將結果保存到文件等等。

雖然這個技術并不高深,但它的應用非常廣泛:

  1. 小地圖的實現
  2. 陰影映射(Shadow mapping)
  3. 屏幕空間環境光遮蔽(Screen Space Ambient Occlusion)
  4. 利用天空盒實現動態反射/折射(Dynamic reflections/refractions with cube maps)

DynamicSkyRender::InitResource方法--初始化動態紋理立方體資源

創建動態紋理立方體和對應渲染目標視圖、著色器資源視圖

在更新動態天空盒的時候,該紋理將會被用做渲染目標;而完成渲染后,它將用作著色器資源視圖用于球體反射/折射的渲染。因此它需要在BindFlag設置D3D11_BIND_RENDER_TARGETD3D11_BIND_SHADER_RESOURCE

void DynamicSkyRender::InitResource(ComPtr<ID3D11Device> device, int dynamicCubeSize)
{

    // ******************
    // 1. 創建紋理數組
    //

    ComPtr<ID3D11Texture2D> texCube;
    D3D11_TEXTURE2D_DESC texDesc;

    texDesc.Width = dynamicCubeSize;
    texDesc.Height = dynamicCubeSize;
    texDesc.MipLevels = 0;
    texDesc.ArraySize = 6;
    texDesc.SampleDesc.Count = 1;
    texDesc.SampleDesc.Quality = 0;
    texDesc.Format = DXGI_FORMAT_R8G8B8A8_UNORM;
    texDesc.Usage = D3D11_USAGE_DEFAULT;
    texDesc.BindFlags = D3D11_BIND_RENDER_TARGET | D3D11_BIND_SHADER_RESOURCE;
    texDesc.CPUAccessFlags = 0;
    texDesc.MiscFlags = D3D11_RESOURCE_MISC_GENERATE_MIPS | D3D11_RESOURCE_MISC_TEXTURECUBE;
    
    // 現在texCube用于新建紋理
    HR(device->CreateTexture2D(&texDesc, nullptr, texCube.ReleaseAndGetAddressOf()));


    // ...

MipLevels設置為0是要說明該紋理將會在后面生成完整的mipmap鏈,但不代表創建紋理后立即就會生成,需要在后續通過GenerateMips方法才會生成出來。為此,還需要在MiscFlags設置D3D11_RESOURCE_MISC_GENERATE_MIPS。當然,把該紋理用作天空盒的D3D11_RESOURCE_MISC_TEXTURECUBE標簽也不能漏掉。

接下來就是創建渲染目標視圖的部分,紋理數組中的每個紋理都需要綁定一個渲染目標視圖:

    // ******************
    // 2. 創建渲染目標視圖
    //

    D3D11_RENDER_TARGET_VIEW_DESC rtvDesc;
    rtvDesc.Format = texDesc.Format;
    rtvDesc.ViewDimension = D3D11_RTV_DIMENSION_TEXTURE2DARRAY;
    rtvDesc.Texture2DArray.MipSlice = 0;
    // 一個視圖只對應一個紋理數組元素
    rtvDesc.Texture2DArray.ArraySize = 1;

    // 每個元素創建一個渲染目標視圖
    for (int i = 0; i < 6; ++i)
    {
        rtvDesc.Texture2DArray.FirstArraySlice = i;
        HR(device->CreateRenderTargetView(
            texCube.Get(),
            &rtvDesc,
            m_pDynamicCubeMapRTVs[i].GetAddressOf()));
    }
    
    // ...

最后就是為整個紋理數組以天空盒的形式創建著色器資源視圖:

    // ******************
    // 3. 創建著色器目標視圖
    //

    D3D11_SHADER_RESOURCE_VIEW_DESC srvDesc;
    srvDesc.Format = texDesc.Format;
    srvDesc.ViewDimension = D3D11_SRV_DIMENSION_TEXTURECUBE;
    srvDesc.TextureCube.MostDetailedMip = 0;
    srvDesc.TextureCube.MipLevels = -1; // 使用所有的mip等級

    HR(device->CreateShaderResourceView(
        texCube.Get(),
        &srvDesc,
        m_pDynamicCubeMapSRV.GetAddressOf()));

到這里還沒有結束。

為動態天空盒創建深度緩沖區和視口

通常天空盒的面分辨率和后備緩沖區的分辨率不一致,這意味著我們還需要創建一個和天空盒表面分辨率一致的深度緩沖區(無模板測試):

    // ******************
    // 4. 創建深度/模板緩沖區與對應的視圖
    //

    texDesc.Width = dynamicCubeSize;
    texDesc.Height = dynamicCubeSize;
    texDesc.MipLevels = 0;
    texDesc.ArraySize = 1;
    texDesc.SampleDesc.Count = 1;
    texDesc.SampleDesc.Quality = 0;
    texDesc.Format = DXGI_FORMAT_D32_FLOAT;
    texDesc.Usage = D3D11_USAGE_DEFAULT;
    texDesc.BindFlags = D3D11_BIND_DEPTH_STENCIL;
    texDesc.CPUAccessFlags = 0;
    texDesc.MiscFlags = 0;

    ComPtr<ID3D11Texture2D> depthTex;
    device->CreateTexture2D(&texDesc, nullptr, depthTex.GetAddressOf());

    D3D11_DEPTH_STENCIL_VIEW_DESC dsvDesc;
    dsvDesc.Format = texDesc.Format;
    dsvDesc.Flags = 0;
    dsvDesc.ViewDimension = D3D11_DSV_DIMENSION_TEXTURE2D;
    dsvDesc.Texture2D.MipSlice = 0;

    HR(device->CreateDepthStencilView(
        depthTex.Get(),
        &dsvDesc,
        m_pDynamicCubeMapDSV.GetAddressOf()));

同樣,視口也需要經過適配。不過之前的攝像機類可以幫我們簡化一下:

    // ******************
    // 5. 初始化視口
    //

    m_pCamera.SetViewPort(0.0f, 0.0f, static_cast<float>(dynamicCubeSize), static_cast<float>(dynamicCubeSize));
}

動態天空盒的繪制

講完了初始化的事,就要開始留意幀與幀之間的動態天空盒渲染操作了。除了繪制部分以外的操作都交給了DynamicSkyRender類來完成。總結如下(粗體部分為該方法完成的任務):

  1. 緩存設備上下文綁定的后備緩沖區、深度/模板緩沖區
  2. 清空設置在像素著色器的著色器資源視圖(綁定了動態天空盒資源)
  3. 對準某一個坐標軸,以90度垂直視野(FOV),1.0f的寬高比架設攝像機,并調整視口
  4. 清理當前天空盒面對應的紋理和深度緩沖區,并綁定到設備上下文
  5. 和往常一樣繪制物體和靜態天空盒
  6. 回到步驟3,繼續下一個面的繪制,直到6個面都完成渲染
  7. 為設備上下文恢復后備緩沖區、深度/模板緩沖區并釋放內部緩存(防止交換鏈ResizeBuffer時因為引用的遺留出現問題)
  8. 讓動態天空盒生成mipmap鏈,并將其綁定到像素著色器
  9. 利用動態天空盒繪制反射/折射物體,和往常一樣繪制剩余物體,并利用靜態天空盒繪制天空

DynamicSkyRender::Cache方法--緩存渲染目標視圖

該方法對應上面所說的第1,2步:

void DynamicSkyRender::Cache(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect)
{
    deviceContext->OMGetRenderTargets(1, m_pCacheRTV.GetAddressOf(), m_pCacheDSV.GetAddressOf());

    // 清掉綁定在著色器的動態天空盒,需要立即生效
    effect.SetTextureCube(nullptr);
    effect.Apply(deviceContext);
}

DynamicSkyRender::BeginCapture方法--指定天空盒某一面開始繪制

該方法對應上面所說的第3,4步:

void DynamicSkyRender::BeginCapture(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const XMFLOAT3& pos,
    D3D11_TEXTURECUBE_FACE face, float nearZ, float farZ)
{
    static XMVECTORF32 ups[6] = {
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +X
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // -X
        {{ 0.0f, 0.0f, -1.0f, 0.0f }},  // +Y
        {{ 0.0f, 0.0f, 1.0f, 0.0f }},   // -Y
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +Z
        {{ 0.0f, 1.0f, 0.0f, 0.0f }}    // -Z
    };

    static XMVECTORF32 looks[6] = {
        {{ 1.0f, 0.0f, 0.0f, 0.0f }},   // +X
        {{ -1.0f, 0.0f, 0.0f, 0.0f }},  // -X
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +Y
        {{ 0.0f, -1.0f, 0.0f, 0.0f }},  // -Y
        {{ 0.0f, 0.0f, 1.0f, 0.0f }},   // +Z
        {{ 0.0f, 0.0f, -1.0f, 0.0f }},  // -Z
    };
    
    // 設置天空盒攝像機
    m_pCamera.LookTo(XMLoadFloat3(&pos) , looks[face].v, ups[face].v);
    m_pCamera.UpdateViewMatrix();
    // 這里盡可能捕獲近距離物體
    m_pCamera.SetFrustum(XM_PIDIV2, 1.0f, nearZ, farZ);

    // 應用觀察矩陣、投影矩陣
    effect.SetViewMatrix(m_pCamera.GetViewXM());
    effect.SetProjMatrix(m_pCamera.GetProjXM());

    // 清空緩沖區
    deviceContext->ClearRenderTargetView(m_pDynamicCubeMapRTVs[face].Get(), reinterpret_cast<const float*>(&Colors::Black));
    deviceContext->ClearDepthStencilView(m_pDynamicCubeMapDSV.Get(), D3D11_CLEAR_DEPTH | D3D11_CLEAR_STENCIL, 1.0f, 0);
    // 設置渲染目標和深度模板視圖
    deviceContext->OMSetRenderTargets(1, m_pDynamicCubeMapRTVs[face].GetAddressOf(), m_pDynamicCubeMapDSV.Get());
    // 設置視口
    deviceContext->RSSetViewports(1, &m_pCamera.GetViewPort());
}

在調用該方法后,就可以開始繪制到天空盒的指定面了,直到下一次DynamicSkyRender::BeginCaptureDynamicSkyRender::Restore被調用。

DynamicSkyRender::Restore方法--恢復之前綁定的資源并清空緩存

該方法對應上面所說的第7,8步:

void DynamicSkyRender::Restore(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const Camera & camera)
{
    // 恢復默認設定
    deviceContext->RSSetViewports(1, &camera.GetViewPort());
    deviceContext->OMSetRenderTargets(1, m_pCacheRTV.GetAddressOf(), m_pCacheDSV.Get());

    // 生成動態天空盒后必須要生成mipmap鏈
    deviceContext->GenerateMips(m_pDynamicCubeMapSRV.Get());

    effect.SetViewMatrix(camera.GetViewXM());
    effect.SetProjMatrix(camera.GetProjXM());
    // 恢復綁定的動態天空盒
    effect.SetTextureCube(m_pDynamicCubeMapSRV);

    // 清空臨時緩存的渲染目標視圖和深度模板視圖
    m_pCacheDSV.Reset();
    m_pCacheRTV.Reset();
}

GameApp::DrawScene方法

在GameApp類多了這樣一個重載的成員函數:

void GameApp::DrawScene(bool drawCenterSphere);

該方法額外添加了一個參數,僅用于控制中心球是否要繪制,而其余的物體不管怎樣都是要繪制出來的。使用該重載方法有利于減少代碼重復,這里面的大部分物體都需要繪制7次。

假如只考慮Daylight天空盒的話,無形參的GameApp::DrawScene方法關于3D場景的繪制可以簡化成這樣:


void GameApp::DrawScene()
{
    // ******************
    // 生成動態天空盒
    //
    
    // 保留當前繪制的渲染目標視圖和深度模板視圖
    m_pDaylight->Cache(m_pd3dImmediateContext, m_BasicEffect);
    
    // 繪制動態天空盒的每個面(以球體為中心)
    for (int i = 0; i < 6; ++i)
    {
        m_pDaylight->BeginCapture(m_pd3dImmediateContext, m_BasicEffect,
            XMFLOAT3(0.0f, 0.0f, 0.0f), static_cast<D3D11_TEXTURECUBE_FACE>(i));

        // 不繪制中心球
        DrawScene(false);
    }
    
    // 恢復之前的繪制設定
    m_pDaylight->Restore(m_pd3dImmediateContext, m_BasicEffect, *m_pCamera);
    
    // ******************
    // 繪制場景
    //

    // 預先清空
    m_pd3dImmediateContext->ClearRenderTargetView(m_pRenderTargetView.Get(), reinterpret_cast<const float*>(&Colors::Black));
    m_pd3dImmediateContext->ClearDepthStencilView(m_pDepthStencilView.Get(), D3D11_CLEAR_DEPTH | D3D11_CLEAR_STENCIL, 1.0f, 0);

    // 繪制中心球
    DrawScene(true);
    
    // 省略文字繪制部分...
}

至于有形參的GameApp::DrawScene方法就不在這里給出,可以在項目源碼看到。

使用幾何著色器的動態天空盒

這部分內容并沒有融入到項目中,因此只是簡單地提及一下。

在上面的內容中,我們對一個場景繪制了6次,從而生成動態天空盒。為了減少繪制調用,這里可以使用幾何著色器來使得只需要進行1次繪制調用就可以生成整個動態天空盒。

首先,創建一個渲染目標視圖綁定整個紋理數組:

D3D11_RENDER_TARGET_VIEW_DESC rtvDesc;
rtvDesc.Format = texDesc.Format;
rtvDesc.ViewDimension = D3D11_RTV_DIMENSION_TEXTURE2DARRAY;
rtvDesc.Texture2DArray.FirstArraySlice = 0;
rtvDesc.Texture2DArray.ArraySize = 6;
rtvDesc.Texture2DArray.MipSlice = 0;
HR(device->CreateRenderTargetView(
    texCube.Get(),
    &rtvDesc,
    m_pDynamicCubeMapRTV.GetAddressOf()));

rtvDesc.

緊接著,就是要創建一個深度緩沖區數組(一個對應立方體面,元素個數為6):

D3D11_DEPTH_STENCIL_VIEW_DESC dsvDesc;
dsvDesc.Format = DXGI_FORMAT_D32_FLOAT;
dsvDesc.ViewDimension = D3D11_DSV_DIMENSION_TEXTURE2DARRAY;
dsvDesc.Texture2DArray.FirstArraySlice = 0;
dsvDesc.Texture2DArray.ArraySize = 6;
dsvDesc.Texture2DArray.MipSlice = 0;
HR(device->CreateDepthStencilView(
    depthTexArray.Get(),
    &dsvDesc,
    m_pDynamicCubeMapDSV.GetAddressOf()));

在輸出合并階段這樣綁定到渲染管線:

deviceContext->OMSetRenderTargets(1, 
    m_pDynamicCubeMapRTV.Get(),
    m_pDynamicCubeMapDSV.Get());

這樣做會使得一次調用繪制可以同時向該渲染目標視圖對應的六個紋理進行渲染。

在HLSL,現在需要同時在常量緩沖區提供6個觀察矩陣。頂點著色階段將頂點直接傳遞給幾何著色器,然后幾何著色器重復傳遞一個頂點六次,但區別在于每次將會傳遞給不同的渲染目標。這需要依賴系統值SV_RenderTargetArrayIndex來實現,它是一個整型索引值,并且只能由幾何著色器寫入來指定當前需要往渲染目標視圖所綁定的紋理數組中的哪一個紋理。該系統值只能用于綁定了紋理數組的視圖。

struct VertexPosTex
{
    float3 PosL : POSITION;
    float2 Tex : TEXCOORD;
};

struct VertexPosHTexRT
{
    float3 PosH : SV_POSITION;
    float2 Tex : TEXCOORD;
    uint RTIndex : SV_RenderTargetArrayIndex;
};


[maxvertexcount(18)]
void GS(trangle VertexPosTex input[3],
    inout TriangleStream<VertexPosTexRT> output)
{
     
    for (int i = 0; i < 6; ++i)
    {
        VertexPosTexRT vertex;
        // 指定該三角形到第i個渲染目標
        vertex.RTIndex = i;
        
        for (int j = 0; j < 3; ++j)
        {
            vertex.PosH = mul(input[j].PosL, mul(g_Views[i], g_Proj));
            vertex.Tex = input[j].Tex;
            
            output.Append(vertex);
        }
        output.RestartStrip();
    }
}

上面的代碼是經過魔改的,至于與它相關的示例項目CubeMapGS只能在舊版的Microsoft DirectX SDK的Samples中看到了。

這種方法有兩點不那么吸引人的原因:

  1. 它使用幾何著色器來輸出大量的數據。不過放眼現在的顯卡應該不會損失多大的性能。
  2. 在一個典型的場景中,一個三角形不會出現在兩個或以上的立方體表面,不管怎樣,這5次繪制都沒法通過裁剪,顯得十分浪費。雖然在我們的項目中,一開始的做法也是將整個場景繪制到天空盒的一面,但是我們還可以使用視錐體裁剪技術來剔除掉那些不在視錐體的物體。使用幾何著色器的方法不能進行提前的裁剪。

但還有一種情況它的表現還算不俗。假如你現在有一個動態天空系統,這些云層會移動,并且顏色隨著時間變化。因為天空正在實時變化,我們不能使用預先烘焙的天空盒紋理來進行反射/折射。使用幾何著色器繪制天空盒的方法在性能上不會損失太大。

模型的折射

dielectric(絕緣體?)是指能夠折射光線的透明材料,如下圖。當光束射到絕緣體表面時,一部分光會被反射,還有一部分光會基于斯涅爾定律進行折射。公式如下:
\[n_{1}sinθ_{1} = n_{2}sinθ_{2}\]

其中n1和n2分半是兩個介質的折射率,θ1和θ2分別是入射光、折射光與界面法線的夾角,叫做入射角和折射角。

n1 = n2時,θ1 = θ2(無折射)
n2 > n1時,θ2 < θ1(光線向內彎折)
n1 > n2時,θ2 > θ1(光線向外彎折)

在物理上,光線在從絕緣體出來后還會進行一次彎折。但是在實時渲染中,通常只考慮第一次折射的情況。

HLSL提供了固有函數refract來幫助我們計算折射向量:

float3 refract(float3 incident, float3 normal, float eta);

incident指的是入射光向量
normal指的是交界面處的法向量(與入射光點乘的結果為負值)
eta指的是n1/n2,即介質之間的折射比

通常,空氣的折射率為1.0,水的折射率為1.33,玻璃的折射率為1.51.

之前的項目中Material::Reflect來調整反射顏色,現在你可以拿它來調整折射顏色。

在HLSL里,你只需要在像素著色器中加上這部分代碼,就可以實現折射效果了(gEta出現在常量緩沖區中):

// 折射
if (g_RefractionEnabled)
{
    float3 incident = -toEyeW;
    float3 refractionVector = refract(incident, pIn.NormalW, g_Eta);
    float4 refractionColor = g_TexCube.Sample(g_Sam, refractionVector);

    litColor += g_Material.Reflect * refractionColor;
}

項目演示

該項目實現了反射和折射

DirectX11 With Windows SDK完整目錄

Github項目源碼

歡迎加入QQ群: 727623616 可以一起探討DX11,以及有什么問題也可以在這里匯報。

posted @ 2018-11-03 15:27 X_Jun 閱讀(...) 評論(...) 編輯 收藏
levels of contents 耐克篮球多少钱