Free性欧美Hd另类_精品亚洲欧美视频在线观看_freesex欧美喷水_字幕av在线_久久久久久国产免费_伊人5566

中培偉業(yè)IT資訊頻道
您現(xiàn)在的位置:首頁 > IT資訊 > 軟件研發(fā) > 深度學(xué)習(xí)工程師必須要掌握的神經(jīng)網(wǎng)絡(luò)架構(gòu)是什么?

深度學(xué)習(xí)工程師必須要掌握的神經(jīng)網(wǎng)絡(luò)架構(gòu)是什么?

2020-07-07 14:18:20 | 來源:中培企業(yè)IT培訓(xùn)網(wǎng)

深度學(xué)習(xí)工程師必須要掌握的神經(jīng)網(wǎng)絡(luò)架構(gòu)是什么?深度學(xué)習(xí)工程師必須掌握的神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)架構(gòu)分為四類:標(biāo)準(zhǔn)網(wǎng)絡(luò),遞歸網(wǎng)絡(luò),卷積網(wǎng)絡(luò)和自動(dòng)編碼器。神經(jīng)網(wǎng)絡(luò)可用于可視化的數(shù)據(jù)包含兩個(gè)部分:每層神經(jīng)元的輸出,對(duì)應(yīng)于網(wǎng)絡(luò)中的不同輸入數(shù)據(jù),它代表每個(gè)神經(jīng)元學(xué)習(xí)的權(quán)重,描述每個(gè)神經(jīng)元的行為,即如何響應(yīng)輸入。

  神經(jīng)網(wǎng)絡(luò)架構(gòu)如下:

  1、感知器

感知器是所有神經(jīng)網(wǎng)絡(luò)中最基礎(chǔ)的,是更復(fù)雜的神經(jīng)網(wǎng)絡(luò)的基本構(gòu)建塊。 它僅連接輸入單元和輸出單元。

  2、前饋網(wǎng)絡(luò)

前饋網(wǎng)絡(luò)是感知器的集合,其中存在三種基本類型的層-輸入層,隱藏層和輸出層。 在每個(gè)連接期間,來自上一層的信號(hào)乘以權(quán)重,加到偏置上,并通過激活函數(shù)。 前饋網(wǎng)絡(luò)使用反向傳播來迭代更新參數(shù),直到達(dá)到理想的性能為止。

  3、殘留網(wǎng)絡(luò)(ResNet)

深度前饋神經(jīng)網(wǎng)絡(luò)的一個(gè)問題稱為消失梯度問題,即當(dāng)網(wǎng)絡(luò)太長而無法在整個(gè)網(wǎng)絡(luò)中反向傳播有用信息時(shí)。 隨著更新參數(shù)的信號(hào)通過網(wǎng)絡(luò)傳播,它逐漸減小,直到網(wǎng)絡(luò)前端的權(quán)重完全沒有改變或被利用為止。為了解決這個(gè)問題,殘差網(wǎng)絡(luò)采用了跳過連接,可以跨"跳躍的"層傳播信號(hào)。 通過使用不太容易受到影響的連接,可以減少消失的梯度問題。 隨著時(shí)間的流逝,網(wǎng)絡(luò)在學(xué)習(xí)特征空間時(shí)會(huì)學(xué)習(xí)恢復(fù)跳過的圖層,但由于其不易受到梯度消失的影響并且需要探索較少的特征空間,因此訓(xùn)練效率更高。

  4、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

遞歸神經(jīng)網(wǎng)絡(luò)是一種特殊類型的網(wǎng)絡(luò),它包含循環(huán)并在其自身上遞歸,因此稱為"遞歸"。 RNN允許將信息存儲(chǔ)在網(wǎng)絡(luò)中,使用先前訓(xùn)練中的推理來做出有關(guān)即將發(fā)生的事件的更好,更明智的決策。 為此,它將先前的預(yù)測用作"上下文信號(hào)"。 由于其性質(zhì),RNN通常用于處理順序任務(wù),例如逐個(gè)字母生成文本或預(yù)測時(shí)間序列數(shù)據(jù)(例如股票價(jià)格)。 他們還可以處理任何大小的輸入。

  5、長期短期記憶網(wǎng)絡(luò)(LSTM)

RNN存在問題,因?yàn)閷?shí)際上上下文信息的范圍非常有限。 給定輸入對(duì)隱藏層(因此對(duì)網(wǎng)絡(luò)輸出)的影響(反向傳播錯(cuò)誤),要么呈指數(shù)級(jí)爆發(fā),要么隨著繞網(wǎng)絡(luò)連接循環(huán)而消失為零。 解決這個(gè)逐漸消失的梯度問題的方法是使用長短期內(nèi)存網(wǎng)絡(luò)或LSTM。這種RNN架構(gòu)是專門為解決消失的梯度問題而設(shè)計(jì)的,將結(jié)構(gòu)與存儲(chǔ)塊配合在一起。 這些模塊可以看作是計(jì)算機(jī)中的存儲(chǔ)芯片-每個(gè)模塊都包含幾個(gè)循環(huán)連接的存儲(chǔ)單元和三個(gè)門(輸入,輸出和忘記,相當(dāng)于寫入,讀取和重置)。 網(wǎng)絡(luò)只能通過每個(gè)門與單元交互,因此門學(xué)會(huì)了智能地打開和關(guān)閉,以防止梯度爆炸或消失,而且還可以通過"恒定錯(cuò)誤輪播"傳播有用的信息,并丟棄無關(guān)的存儲(chǔ)內(nèi)容。

在標(biāo)準(zhǔn)RNN無法得知輸入事件與目標(biāo)信號(hào)之間存在大于五到十個(gè)時(shí)間步長的時(shí)滯的情況下,LSTM不會(huì)受到影響,并且可以通過強(qiáng)制執(zhí)行有用的恒定錯(cuò)誤流來學(xué)習(xí)將時(shí)滯甚至連成1000個(gè)時(shí)步。

  6、回聲狀態(tài)網(wǎng)(ESN)

回聲狀態(tài)網(wǎng)絡(luò)是遞歸神經(jīng)網(wǎng)絡(luò)的一種變體,具有非常稀疏的隱藏層(通常為百分之一的連接性)。 神經(jīng)元的連通性和權(quán)重是隨機(jī)分配的,并且忽略層和神經(jīng)元的差異(跳過連接)。 學(xué)習(xí)輸出神經(jīng)元的權(quán)重,以便網(wǎng)絡(luò)可以產(chǎn)生和再現(xiàn)特定的時(shí)間模式。 該網(wǎng)絡(luò)背后的理由來自這樣一個(gè)事實(shí):盡管它是非線性的,但訓(xùn)練過程中唯一修改的權(quán)重是突觸連接,因此可以將誤差函數(shù)區(qū)分為線性系統(tǒng)。

  7、卷積神經(jīng)網(wǎng)絡(luò)(CNN)

圖像具有很高的維數(shù),因此訓(xùn)練一個(gè)標(biāo)準(zhǔn)的前饋網(wǎng)絡(luò)來識(shí)別圖像將需要成千上萬的輸入神經(jīng)元,除了公然高昂的計(jì)算費(fèi)用外,還可能引起許多與神經(jīng)網(wǎng)絡(luò)的維數(shù)詛咒相關(guān)的問題 。卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過使用卷積層和池化層來幫助降低圖像的維數(shù),從而提供了解決方案。 由于卷積層是可訓(xùn)練的,但是比標(biāo)準(zhǔn)隱藏層具有更少的參數(shù),因此它能夠突出顯示圖像的重要部分并將它們向前傳遞。 傳統(tǒng)上,在CNN中,最后幾層是隱藏層,用于處理"壓縮圖像信息"。

  8、反卷積神經(jīng)網(wǎng)絡(luò)(DNN)

顧名思義,反卷積神經(jīng)網(wǎng)絡(luò)的作用與卷積神經(jīng)網(wǎng)絡(luò)相反。 DNN不是執(zhí)行卷積來減小圖像的維數(shù),而是利用反卷積來創(chuàng)建圖像,通常是根據(jù)噪聲來進(jìn)行的。 這是一項(xiàng)固有的艱巨任務(wù)。 考慮CNN的任務(wù)是為奧威爾(Orwell)1984年的整本書寫一個(gè)三句摘要,而DNN的任務(wù)是從三句結(jié)構(gòu)寫整個(gè)本書。

  9、生成對(duì)抗網(wǎng)絡(luò)(GAN)

生成對(duì)抗網(wǎng)絡(luò)是一種專門設(shè)計(jì)用于生成圖像的特殊類型的網(wǎng)絡(luò),它由兩個(gè)網(wǎng)絡(luò)(一個(gè)鑒別器和一個(gè)生成器)組成。 區(qū)分者的任務(wù)是區(qū)分是從數(shù)據(jù)集中提取圖像還是由生成器生成圖像,而生成者的任務(wù)是生成足夠有說服力的圖像,以使區(qū)分器無法區(qū)分其是否真實(shí)。隨著時(shí)間的流逝,經(jīng)過精心的監(jiān)管,這兩個(gè)對(duì)手彼此競爭,互相推動(dòng),成功地改善了彼此。 最終結(jié)果是訓(xùn)練有素的生成器,可以吐出逼真的圖像。 鑒別器是一個(gè)卷積神經(jīng)網(wǎng)絡(luò),其目的是最大程度地提高識(shí)別真實(shí)/偽造圖像的準(zhǔn)確性,而生成器是一個(gè)反卷積神經(jīng)網(wǎng)絡(luò),其目的是最小化鑒別器的性能。

10、自動(dòng)編碼器(AE)

自動(dòng)編碼器的基本思想是獲取原始的高維數(shù)據(jù),將其"壓縮"為高度信息化的低維數(shù)據(jù),然后將壓縮后的形式投影到新的空間中。 自動(dòng)編碼器有許多應(yīng)用,包括降維,圖像壓縮,去噪數(shù)據(jù),特征提取,圖像生成和推薦系統(tǒng)。 它既可以作為無監(jiān)督方法也可以作為有監(jiān)督方法,可以非常洞悉數(shù)據(jù)的性質(zhì)。

  11、可變自動(dòng)編碼器(VAE)

自動(dòng)編碼器學(xué)習(xí)輸入的壓縮表示形式,例如可以是圖像或文本序列,方法是壓縮輸入然后將其解壓縮以匹配原始輸入,而變分自動(dòng)編碼器(VAE)學(xué)習(xí)概率分布的參數(shù) 代表數(shù)據(jù)。 它不僅僅是學(xué)習(xí)表示數(shù)據(jù)的函數(shù),還獲得了更詳細(xì),細(xì)致的數(shù)據(jù)視圖,從分布中采樣并生成新的輸入數(shù)據(jù)樣本。 從這個(gè)意義上講,它更像是一種純粹的"生成"模型,例如GAN。

好了,關(guān)于深度學(xué)習(xí)工程師必須要掌握的神經(jīng)網(wǎng)絡(luò)架構(gòu)是什么的內(nèi)容,介紹到這里就結(jié)束了。想了解更多IT資訊的信息,請(qǐng)繼續(xù)關(guān)注中培偉業(yè)。

主站蜘蛛池模板: 老司机久久精品视频 | 免费高清视频一区二区三区 | 国产成人精品成人a在线观看 | 国产亚洲精品成人av久久果冻 | 久久婷婷国产91天堂综合精品 | 色戒2小时38分无删除版 | 成年黄页网站大全免费 | 性av网址 | 亚洲色欲综合一区二区三区 | 视频第一区 | 国产一级在线免费观看 | 亚洲VA中文字幕无码毛片 | 成年久久 | 九色综合九色综合色鬼 | 国产精品白丝久久av网站 | 成品片a免免费人看 | 久久久久国产综合AV天堂 | 日韩人妻潮喷中文在线视频 | 国偷自产视频一区二区久 | 影片-v66av| 好男人蜜桃av久久久久久蜜桃 | 中文字幕AV一区乱码 | 国产成社区在线视频观看 | 国产视频精品区 | 免费国产黄网站在线观看动图 | 在线观看一区二区精品 | 欧美xxxx黑人又粗又长密月 | 黄页大全在线免费观看 | 国产黑色丝袜在线视频 | 毛片在线网站 | www久久久久久久 | 国产偷国产偷高清精品 | 乌克兰性欧美精品高清 | 国产视频a | 欧美一级免费在线观看 | 成年精品 | 久久国产日韩精华液的功效 | 色36cccwww在线播放 | 欧美亚洲国产成人一区二区三区 | 日本91av| 免费欧美一级片 |