2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
計(jì)算成像(CI)技術(shù)利用光學(xué)設(shè)備和計(jì)算算法來(lái)重建對(duì)象信息。CI的關(guān)鍵目標(biāo)是開發(fā)更高級(jí)的算法,以簡(jiǎn)化硬件設(shè)備并提高成像質(zhì)量。
深度學(xué)習(xí)是功能最強(qiáng)大的算法之一,它使用深度神經(jīng)網(wǎng)絡(luò)從大量輸入/輸出數(shù)據(jù)對(duì)中學(xué)習(xí),從而建立數(shù)據(jù)之間的映射關(guān)系。它已被廣泛用于CI,并已在許多成像問(wèn)題中取得了最新的成果。但是,大多數(shù)現(xiàn)有的基于深度學(xué)習(xí)的CI方法在數(shù)據(jù)收集和歸納中都面臨挑戰(zhàn)。
在最近的一項(xiàng)研究中,科學(xué)院的研究人員描述了他們?nèi)绾谓Y(jié)合未經(jīng)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)和物理知識(shí)來(lái)消除基于深度學(xué)習(xí)的CI方法的局限性。
負(fù)責(zé)人Situ Guohai教授說(shuō):“我們的成像方法不需要大量數(shù)據(jù)來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò)。它所需要的只是檢測(cè)器記錄的物體的測(cè)量以及從物體到測(cè)量的物理模型。”研究團(tuán)隊(duì)。
研究人員在無(wú)透鏡定量相位成像問(wèn)題上演示了他們的技術(shù),該問(wèn)題需要重建在檢測(cè)階段丟失的相位信息。
新方法基于深度神經(jīng)網(wǎng)絡(luò)(DNN),廣泛用于適應(yīng)來(lái)自許多訓(xùn)練數(shù)據(jù)對(duì)的不同映射函數(shù)的多層計(jì)算模型以及已經(jīng)建立了數(shù)百年的自由空間傳播原理研究。
研究人員求助于光學(xué)系統(tǒng)知識(shí),以增強(qiáng)DNN的參數(shù)優(yōu)化。他們將測(cè)得的強(qiáng)度衍射圖樣輸入到隨機(jī)初始化的DNN(未經(jīng)訓(xùn)練)中,將DNN的輸出作為相位信息的估計(jì),并根據(jù)自由空間傳播原理從估計(jì)的相位開始計(jì)算強(qiáng)度衍射圖樣的估計(jì)值。
然后,更新DNN中的參數(shù),以最大程度地減少測(cè)量模式和估計(jì)模式之間的誤差。隨著誤差的最小化,DNN的輸出也收斂于實(shí)際相位信息。
SITU表示:“雖然大多數(shù)以前的基于深度學(xué)習(xí)的CI方法都使用了大量的訓(xùn)練數(shù)據(jù)來(lái)優(yōu)化DNN中的參數(shù),但我們的方法卻利用了原始測(cè)量和物理模型。”“這是一種可用于重建不同種類對(duì)象的通用方法。”
研究人員通過(guò)使用其對(duì)相對(duì)象成像來(lái)測(cè)試他們的技術(shù)。新方法能夠使用單個(gè)強(qiáng)度衍射圖樣解析相位信息。
SITU說(shuō):“用于相位成像的新方法是單次非干涉測(cè)量方法,在顯微鏡和光學(xué)計(jì)量學(xué)中具有巨大潛力。此外,只要已知物理模型,各種CI方法也可以使用類似的框架,” 。
這項(xiàng)工作得到了科學(xué)院前沿科學(xué)重點(diǎn)研究計(jì)劃,中德中心和自然科學(xué)基金的支持。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。