精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    世界領(lǐng)先!如視研究成果入選CVPR 2023,室內(nèi)多視角逆渲染技術(shù)重磅革新

    近日,計算機視覺三大頂級會議之一CVPR正式公布了  2023年的接收結(jié)果,如視首席科學(xué)家潘慈輝帶領(lǐng)團隊提交的最新研究成果《TexIR: Multi-view Inverse Rendering  for Large-scale Real-world Indoor  Scenes(大規(guī)模室內(nèi)真實場景的多視角逆渲染)》成功入圍。該項研究,在真實空間的更深層次數(shù)字化層面取得突破進展。此次全新逆渲染技術(shù)研究成果的入圍,不僅意味著如視在三維實景模型重建和混合現(xiàn)實領(lǐng)域的研究已獲得了國際學(xué)術(shù)界的高度認(rèn)可,更標(biāo)志著如視的算法能力已在理論研究、技術(shù)應(yīng)用等層面步入國際領(lǐng)先水平。

    對物理世界的三維重建,作為計算機圖形學(xué)和計算機視覺領(lǐng)域的熱點課題之一,已隨著技術(shù)的不斷成熟,被越來越廣泛地應(yīng)用于營銷、空間數(shù)字化管理、泛娛樂、虛擬現(xiàn)實等領(lǐng)域。目前市面主流的算法,通過空間幾何模型與紋理貼圖的方式,在場景的外觀還原度上與真實世界看起來幾近相同。

    目前的三維重建方式,僅能對場景的外觀特征加以還原,但無法對場景內(nèi)諸如光照、反射率、粗糙度、等更深層次的屬性加以數(shù)字化,導(dǎo)致無法對這些深層信息進行查詢和編輯,更無法將其更有價值地轉(zhuǎn)化為渲染引擎可使用的PBR渲染資產(chǎn),生成極具真實感的渲染效果。

    逆渲染原理

    而如視團隊本次開創(chuàng)性提出面向真實室內(nèi)場景的多視角逆渲染框架,可基于精準(zhǔn)的空間數(shù)據(jù),反向推測獲取對諸如光照、反射率、粗糙度等場景內(nèi)在屬性,在三維重建的基礎(chǔ)上恢復(fù)出貼近真實場景的光照和材質(zhì)表現(xiàn),在重建效果、成本效率、應(yīng)用范圍等維度實現(xiàn)全面提升。

    逆渲染技術(shù)實操與應(yīng)用

    如視首席科學(xué)家潘慈輝對此表示:“我們創(chuàng)造的全新深度逆渲染框架,真正意義上實現(xiàn)了對真實世界更深層的數(shù)字化,解決了以往逆渲染方法難以在真實場景下恢復(fù)物理合理的材質(zhì)和光照以及多視角一致性的問題,為三維重建和混合現(xiàn)實的落地應(yīng)用帶來了更大想象空間。”

    1.更貼近真實的場景還原效果

    與過往采用合成數(shù)據(jù)訓(xùn)練的方法不同,如視提出的全新深度逆渲染框架,首次引入了“層級式場景先驗”,通過多階段的材質(zhì)優(yōu)化,結(jié)合如視數(shù)字空間中精準(zhǔn)數(shù)據(jù),對空間內(nèi)光照、反射率、粗糙度物理屬性進行分層級的精準(zhǔn)預(yù)測,并將預(yù)測結(jié)果無縫轉(zhuǎn)化為物理合理、全局一致的多類型材質(zhì)貼圖等渲染資產(chǎn),并可適配目前主流渲染引擎。

    2.更低的計算成本

    近年來,為了更好地解決逆渲染問題,  同時減少對訓(xùn)練數(shù)據(jù)的依賴,  可微渲染的方法被提出,即通過“微分求導(dǎo)”的方式,使正向渲染可微分,進而將梯度反向傳播至渲染參數(shù),最終優(yōu)化得到基于物理的待求解參數(shù)。由于復(fù)雜室內(nèi)場景存在大量的復(fù)雜光學(xué)效應(yīng),如遮擋、陰影,在可微渲染中建模全局光照會帶來高昂的計算成本。如視本次提出的光照表示模型可以高效準(zhǔn)確地表示室內(nèi)場景內(nèi)的全局光照,極大地提升了逆渲染方法的效率。據(jù)實驗分析統(tǒng)計,基于如視的逆渲染框架,相較傳統(tǒng)方式,計算速度大幅提升近24倍,數(shù)據(jù)內(nèi)存容量也實現(xiàn)了成倍縮減。

    3.更大的重建規(guī)模

    基于如視的精準(zhǔn)數(shù)字空間模型,與高效準(zhǔn)確的混合光照表示,全新的逆渲染框架引入多種場景先驗,解決了以往NeRF-like的神經(jīng)逆渲染方法無法建模大尺度室內(nèi)場景的問題。

    未來,全新的逆渲染技術(shù)將有望開啟更為廣闊的MR應(yīng)用,如室內(nèi)材質(zhì)編輯、新視圖合成、光照調(diào)整、物體空間融入等。通過對真實世界實現(xiàn)更深層數(shù)字化,如視將進一步加速實現(xiàn)數(shù)字空間的建設(shè),發(fā)揮算法及技術(shù)產(chǎn)品優(yōu)勢,推進研究成果產(chǎn)業(yè)化,為商業(yè)零售、工業(yè)設(shè)施、文博會展、公共事務(wù)、家居家裝、房產(chǎn)交易等行業(yè)帶來數(shù)字化應(yīng)用升級的全新發(fā)展機遇。

    關(guān)于CVPR:

    CVPR(IEEE  Conference on Computer Vision and Pattern  Recognition,即IEEE國際計算機視覺與模式識別會議)作為計算機視覺領(lǐng)域最頂級的會議,每年都會吸引大量研究機構(gòu)和高校參會。近年來,CVPR  的投稿數(shù)量也在持續(xù)增加。據(jù)官方信息統(tǒng)計,本屆CVPR有效投稿9155篇,比去年增加了 12%,創(chuàng)下新紀(jì)錄;收錄2360 篇,接收率為  25.78%。

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )