精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

    本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 :

    Spanning the reality gap between AI and Industry 4.0

    作者 |Philip Montsho

    翻譯 | ciky奇、Ophria

    校對(duì) | 鄧普斯?杰弗 審核| 永恒如新的日常 整理 | 菠蘿妹

    https://medium.com/@p.k.montsho/a-summary-of-industry-ready-state-of-the-art-computer-vision-techniques-a7f2b893de2f

    如今,人工智能在工業(yè)領(lǐng)域有著蓬勃發(fā)展趨勢(shì),因?yàn)樽詣?dòng)化以及優(yōu)化仍是數(shù)字革命的主要焦點(diǎn)。在本文中,我們將回顧近幾年在AI社區(qū)中那些令人興奮的最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù),這些技術(shù)被認(rèn)為是工業(yè)就緒的,而且對(duì)工業(yè)用例產(chǎn)生重大而又實(shí)際的影響。其中一些技術(shù)對(duì)性能的提升達(dá)到了令人難以置信的程度,超越了人類(lèi)能達(dá)到的性能水平,從而超出了大多數(shù)行業(yè)所期望的精度和可靠性標(biāo)準(zhǔn)。在基本的計(jì)算機(jī)視覺(jué)任務(wù)(例如圖像分類(lèi))中取得的驚人進(jìn)步,使得可靠地結(jié)合多種技術(shù)來(lái)創(chuàng)建新的復(fù)合技術(shù)從而實(shí)現(xiàn)之前從未在工業(yè)環(huán)境中探索過(guò)的全新用例成為可能。話雖如此,這些新技術(shù)已經(jīng)證明其結(jié)果可與那些只能通過(guò)非常密集的硬件專用系統(tǒng)才能獲得的精度和可靠性結(jié)果相媲美。雖然在實(shí)現(xiàn)這些專用系統(tǒng)和安裝與之相關(guān)的硬件方面存在實(shí)際的困難和限制,但相機(jī)是很容易買(mǎi)到的,從而極大地?cái)U(kuò)大了用例范圍。AI賦能的計(jì)算機(jī)視覺(jué)系統(tǒng)使得有可能跨入到一個(gè)新的領(lǐng)域,加速了工業(yè)4.0,真正數(shù)字化和物理現(xiàn)實(shí)增強(qiáng)的進(jìn)程。

    在我們深入了解計(jì)算機(jī)視覺(jué)領(lǐng)域的最新進(jìn)展之前,讓我們先介紹一些基本概念以及深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)這方面的歷史事件。

    計(jì)算機(jī)視覺(jué)簡(jiǎn)介

    計(jì)算機(jī)視覺(jué)是一門(mén)科學(xué),旨在使計(jì)算機(jī)能夠理解并從圖形和視頻中洞悉信息。計(jì)算機(jī)視覺(jué),即自動(dòng)執(zhí)行視覺(jué)任務(wù)的能力,例如從圖形或視頻中提取和分析有用的信息。

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)簡(jiǎn)介

    機(jī)器學(xué)習(xí)是算法和統(tǒng)計(jì)模型的科學(xué)研究,它依賴于數(shù)據(jù)驅(qū)動(dòng)的方法來(lái)做決策而不是基于規(guī)則的方法。給定大量高質(zhì)量數(shù)據(jù)并通過(guò)改進(jìn)算法,機(jī)器學(xué)習(xí)系統(tǒng)能夠逐步提高其在特定任務(wù)上的性能。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子類(lèi),完全側(cè)重于一組可描述為網(wǎng)絡(luò)的數(shù)學(xué)算法。它們起初受到人腦中發(fā)現(xiàn)的生物神經(jīng)網(wǎng)絡(luò)的啟發(fā),同樣,人工神經(jīng)網(wǎng)絡(luò)具有數(shù)百萬(wàn)個(gè)人工突觸,數(shù)學(xué)上由數(shù)百萬(wàn)個(gè)簡(jiǎn)單的線性代數(shù)方程表示。

    深度學(xué)習(xí)驅(qū)動(dòng)計(jì)算機(jī)視覺(jué)

    自2012年深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)一直是計(jì)算機(jī)視覺(jué)的主要關(guān)注點(diǎn)是有理由的。由深度學(xué)習(xí)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)系統(tǒng)的優(yōu)點(diǎn)是它們具有更高準(zhǔn)確性,更靈活,且對(duì)大量的光線條件變化,視點(diǎn),尺度,方向,與背景融合,類(lèi)內(nèi)差異,變形以及視覺(jué)遮擋等情況具有更高容忍度。但最重要的是,它們啟發(fā)了新的用例。

    早期的計(jì)算機(jī)視覺(jué)模型依賴于原始像素?cái)?shù)據(jù)作為機(jī)器學(xué)習(xí)模型的輸入。然而,單獨(dú)的原始像素?cái)?shù)據(jù)不足以包含圖像中對(duì)象的千變?nèi)f化。

    深度學(xué)習(xí)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)基于深度神經(jīng)網(wǎng)絡(luò)可在訓(xùn)練階段自動(dòng)提取和創(chuàng)建特定任務(wù)的特征,然后將其用于執(zhí)行計(jì)算機(jī)視覺(jué)任務(wù)。

    下圖突出了深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)近6年歷史中最重要的一些事件。

    2012年引入深度神經(jīng)網(wǎng)絡(luò)所帶來(lái)的突破使得圖像分類(lèi)誤差減少了約10%(從2011年的25.8%降至2012年的16.4%)。

    2015年最先進(jìn)的算法在圖像分類(lèi)方面的表現(xiàn)超過(guò)了人類(lèi)水平(5.1%,Russakovsky et al.),準(zhǔn)確率為3.57%。

    總體而言,深度神經(jīng)網(wǎng)絡(luò)的引入導(dǎo)致圖像分類(lèi)誤差減少10倍(從2011年的25.8%將至2017年的2.3%)。

    值得注意的是,上述結(jié)果是在ImageNet數(shù)據(jù)集上實(shí)現(xiàn)的,其中20,000個(gè)類(lèi)別具有典型類(lèi)別,例如“氣球”或“草莓”,由數(shù)百個(gè)低分辨率469x387像素圖像組成。計(jì)算機(jī)視覺(jué)系統(tǒng)應(yīng)用于具有較少類(lèi)別,較少變化和較多數(shù)量的較高分辨率圖像的特定任務(wù)時(shí),其準(zhǔn)確度可以高達(dá)99.9%。這使得完全獨(dú)立自信地運(yùn)行一個(gè)系統(tǒng)成為可能。

    現(xiàn)在我們已經(jīng)介紹了基礎(chǔ)知識(shí),我們可以更詳細(xì)地了解這些技術(shù)了。

    圖像分類(lèi)

    在本節(jié)中,我們將介紹圖像分類(lèi),這是將一組固定類(lèi)別中的一個(gè)標(biāo)簽分配給圖像的任務(wù)。這是計(jì)算機(jī)視覺(jué)中的核心問(wèn)題之一,盡管其簡(jiǎn)單,但其具有各種各樣的實(shí)際應(yīng)用。許多其它看似不同的計(jì)算機(jī)視覺(jué)任務(wù)(例如圖像 字幕,目標(biāo)檢測(cè),關(guān)鍵點(diǎn)檢測(cè)和分割)可以簡(jiǎn)化為圖像分類(lèi),其它任務(wù)利用全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)。以下視頻片段說(shuō)明了一個(gè)非常簡(jiǎn)單的分類(lèi)事例。

    圖像關(guān)鍵字和字幕

    該技術(shù)處于計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理(NLP)這兩AI中最有趣領(lǐng)域的交點(diǎn)。關(guān)鍵字是用于描述照片或圖像元素的單詞。關(guān)鍵字是對(duì)照片添加描述性術(shù)語(yǔ)的過(guò)程。

    圖像字幕是指基于圖像中的對(duì)象和動(dòng)作從圖像或視頻生成文本描述的過(guò)程。在下圖中可以看到這方面的一個(gè)例子。

    目標(biāo)檢測(cè)

    目標(biāo)檢測(cè)是一種計(jì)算機(jī)視覺(jué)技術(shù),用于識(shí)別和定位圖像或視頻中的對(duì)象。這通常通過(guò)帶邊框標(biāo)記的框包圍對(duì)象來(lái)完成。目標(biāo)檢測(cè)是自動(dòng)駕駛汽車(chē)背后的關(guān)鍵技術(shù),使它們能夠識(shí)別其他汽車(chē)或區(qū)分行人與燈柱。它還可以用于各種應(yīng)用,例如工業(yè)檢測(cè)和機(jī)器人視覺(jué)。由于ImageNet競(jìng)賽,僅2010年至2014年間,定位誤差(從42.5%降至25.3%)就減少了1.7倍。下面的視頻片段顯示了該技術(shù)的實(shí)時(shí)實(shí)施結(jié)果,用于檢測(cè)城市中發(fā)現(xiàn)的與一輛自動(dòng)駕駛視覺(jué)系統(tǒng)相關(guān)的車(chē),人以及其他常見(jiàn)物體。

    關(guān)鍵點(diǎn)檢測(cè)和姿態(tài)估計(jì)

    關(guān)鍵點(diǎn)被視為圖像有趣或重要部分的特征。它們是圖像中的空間位置或點(diǎn),定義圖像中有趣的內(nèi)容或突出的內(nèi)容。關(guān)鍵點(diǎn)之所以特殊,是因?yàn)樗沟酶櫺薷暮蟮膱D像中的相同關(guān)鍵點(diǎn)成為可能,其中圖像或圖像中的對(duì)象會(huì)發(fā)生旋轉(zhuǎn)、收縮/膨脹或變形。

    姿態(tài)估計(jì)是計(jì)算機(jī)視覺(jué)中的一個(gè)普遍問(wèn)題,其目的是檢測(cè)物體的位置和方向。這通常意味著檢測(cè)對(duì)象的關(guān)鍵點(diǎn)位置。這種技術(shù)可以用來(lái)創(chuàng)建一個(gè)非常精確的二維/三維模型,描述對(duì)象關(guān)鍵點(diǎn)的位置,然后可以用來(lái)創(chuàng)建一個(gè)數(shù)字孿生兄弟。

    例如,在姿態(tài)估計(jì)問(wèn)題中,可以檢測(cè)到常見(jiàn)的方形家居對(duì)象的角點(diǎn),從而可以深入了解對(duì)象在環(huán)境中的三維位置。

    同樣的方法也可以用于檢測(cè)人體姿勢(shì),人體上的關(guān)鍵點(diǎn)如肩膀、肘部、手、膝蓋和腳都會(huì)被檢測(cè)到。

    語(yǔ)義分割

    下一種技術(shù)稱為語(yǔ)義分割(也稱為對(duì)象掩蔽),它解決了計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)關(guān)鍵問(wèn)題:直觀地分離圖像中的物體。從大的圖像上看,語(yǔ)義分割為完全理解場(chǎng)景鋪平了道路。這是非常有用的,因?yàn)樗褂?jì)算機(jī)能夠精確地識(shí)別不同物體的邊界。場(chǎng)景理解作為一個(gè)計(jì)算機(jī)視覺(jué)的核心問(wèn)題,其重要性在于從語(yǔ)義分割中所獲得的知識(shí)使得越來(lái)越多的應(yīng)用程序的健壯性得以提升。在下面所示的自動(dòng)駕駛汽車(chē)示例中,它幫助汽車(chē)識(shí)別道路和其他物體的準(zhǔn)確位置。

    下面提到的技術(shù)屬于圖像到圖像轉(zhuǎn)化的范疇。對(duì)于下面的技術(shù),網(wǎng)絡(luò)通過(guò)提高質(zhì)量而不是提取見(jiàn)解或得出結(jié)論來(lái)增強(qiáng)圖像和視頻。

    超分辨率:

    此任務(wù)的目標(biāo)是在同時(shí)提高細(xì)節(jié)級(jí)別的同時(shí)提高圖像的分辨率。一個(gè)非常深的神經(jīng)網(wǎng)絡(luò)最近在圖像超分辨率方面取得了巨大的成功。放大倍數(shù)適用于2倍放大,如下圖所示。

    夜視

    在弱光下成像是一項(xiàng)挑戰(zhàn)。短曝光圖像會(huì)產(chǎn)生噪聲,長(zhǎng)曝光時(shí)間會(huì)導(dǎo)致動(dòng)態(tài)模糊。后者通常也不切實(shí)際,尤其是對(duì)于手持?jǐn)z影。人們已經(jīng)提出了各種去噪、去模糊和增強(qiáng)技術(shù),但它們的效果在極端條件下是有限的,例如夜間高速攝影。為了提高目前的標(biāo)準(zhǔn),研究人員引入了一種基于深度網(wǎng)絡(luò)端到端訓(xùn)練的低光圖像處理技術(shù)。該網(wǎng)絡(luò)直接利用原始傳感器數(shù)據(jù),取代了許多傳統(tǒng)的圖像處理技術(shù)。這可以在下面的圖像中清楚地看到,暗噪聲圖像得到了顯著的增強(qiáng)。

    在黑暗中學(xué)會(huì)看東西(Chen等人,2018年五月)

    Super SloMo

    視頻插值旨在在兩個(gè)連續(xù)幀之間生成中間鄭這些人工生成的畫(huà)面與原始圖像有著不可區(qū)分的視覺(jué)特征。這項(xiàng)技術(shù)是放大攝像系統(tǒng)性能的理想方法。對(duì)多個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,深度學(xué)習(xí)方法比現(xiàn)有的方法具有更好的一致性。這項(xiàng)技術(shù)的結(jié)果可以在下面的視頻剪輯中看到,在原始幀之間添加7個(gè)中間幀來(lái)創(chuàng)建平滑的慢動(dòng)作視頻。

    Super SloMo:視頻插值多中間幀的高質(zhì)量估計(jì)(Jiang等人,2018年7月)

    在本文中,我們研究了許多計(jì)算機(jī)視覺(jué)技術(shù),這些技術(shù)是由最近幾個(gè)月開(kāi)發(fā)的深入學(xué)習(xí)提供動(dòng)力的,并且已經(jīng)展示了令人難以置信的結(jié)果,并準(zhǔn)備在行業(yè)中實(shí)施。這些技術(shù)處于技術(shù)的前沿,通過(guò)提高速度、準(zhǔn)確性、可靠性和靈活性,表現(xiàn)出明顯的優(yōu)于以前的技術(shù)。

    創(chuàng)新的關(guān)鍵驅(qū)動(dòng)因素是近年來(lái)人工智能研究論文的數(shù)量激增,特別是在計(jì)算機(jī)視覺(jué)領(lǐng)域,使充分利用技術(shù)進(jìn)步來(lái)改善工業(yè)運(yùn)營(yíng)的最新趨勢(shì)變得更加重要。

    謝謝你的閱讀!希望,你學(xué)到了一些新的和有用的關(guān)于最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù)的東西,這些技術(shù)已經(jīng)為工業(yè)上的實(shí)際應(yīng)用做好了準(zhǔn)備。

    如果你想了解更多,請(qǐng)一定要為這篇文章鼓掌,并跟隨我。

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

    贊助商
    2019-01-30
    AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?
    本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 : Spanning the reality gap between AI and Industry 4.0 作者 |Philip Montsho 翻譯 |

    長(zhǎng)按掃碼 閱讀全文