西藏AI人工智能培訓

來源: 發(fā)布時間:2021-09-03

    四、目標檢測進展使用更好的引擎檢測器中非常重要的一個部分就是特征提取的主干網(wǎng)絡(luò),如果backbone性能優(yōu)良,檢測器效果也會不錯。例如FasterRCNN,SSD,RFCN其主干網(wǎng)絡(luò)都是VGG或者resnet,如果對推理時間有要求,一般選取輕量級的網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),例如mobileNet-ssd就是mobileNet作為主干網(wǎng)絡(luò)的SSD檢測算法。所以說主干網(wǎng)絡(luò)對時間的精度的影響非常大。VGG,在2014年被提出,有兩種結(jié)構(gòu),分別是16層和19層,分別被稱為VGG16和VGG19。VGG網(wǎng)絡(luò)中使用3x3的卷積代替了5x5和7x7。GoogleNet,顧名思義這個網(wǎng)絡(luò)由谷歌提出,將網(wǎng)絡(luò)層數(shù)增到了22層,同時在網(wǎng)絡(luò)中增加了BN層使得訓練更加容易收斂Resnet,殘差網(wǎng)絡(luò)結(jié)構(gòu),在2015年被提出,其結(jié)構(gòu)定制化程度非常高,從10層到152層都可以搭建,主要是解決了網(wǎng)絡(luò)訓練退化的問題,加入殘差架構(gòu)之后網(wǎng)絡(luò)不會隨著層數(shù)增加而產(chǎn)生退化現(xiàn)場。DenseNet,在殘差網(wǎng)絡(luò)的基礎(chǔ)上進行修改,殘差是有shortcut鏈接,而denseNet塊是前面所有的層都與后面層有鏈接,所以是稠密鏈接。深度人工智能學院疲勞駕駛監(jiān)測系統(tǒng)項目。西藏AI人工智能培訓

    梯度較明顯的應(yīng)用,就是快速找到多維變量函數(shù)的極(大/小)值?!疤荻冗f減”的問題所在,那就是它很容易收斂到局部較小值。重溫神經(jīng)網(wǎng)絡(luò)的損失函數(shù)相比于神經(jīng)網(wǎng)絡(luò)輸入、輸出層設(shè)計的簡單直觀,它的隱含層設(shè)計,可就沒有那么簡單了。依賴于“工匠”的打磨,它就是一個體力活,需要不斷地“試錯”。但通過不斷地“折騰”,研究人員掌握了一些針對隱層的啟發(fā)式設(shè)計規(guī)則(如下文即將提到的BP算法),以此降低訓練網(wǎng)絡(luò)所花的開銷,并盡量提升網(wǎng)絡(luò)的性能。為了達到理想狀態(tài),我們希望快速配置好網(wǎng)絡(luò)參數(shù),從而讓這個損失函數(shù)達到極小值。這時,神經(jīng)網(wǎng)絡(luò)的性能也就接近較優(yōu)!BP神經(jīng)網(wǎng)絡(luò)BP算法,是一個典型的雙向算法。更確切來說,它的工作流程是分兩大步走:(1)正向傳播輸入信號,輸出分類信息(對于有監(jiān)督學習而言,基本上都可歸屬于分類算法);(2)反向傳播誤差信息,調(diào)整全網(wǎng)權(quán)值(通過微調(diào)網(wǎng)絡(luò)參數(shù),讓下一輪的輸出更加準確)。類似于感知機,每一個神經(jīng)元的功能都可細分兩大部分:(1)匯集各路鏈接帶來的加權(quán)信息;(2)加權(quán)信息在激勵函數(shù)的“加工”下,神經(jīng)元給出相應(yīng)的輸出到首輪信號前向傳播的輸出值計算出來后,實際輸出向量與預期輸出的向量之間的誤差就可計算出來。西藏深度人工智能培訓深度人工智能學院tensorflow架構(gòu)課程。

    從后面16個5X5的featuremap開始,經(jīng)過了3個全連接層,達到結(jié)束的輸出,輸出就是標簽空間的輸出。由于設(shè)計的是只要對0到9進行識別,所以輸出空間是10,如果要對10個數(shù)字再加上26個大小字母進行識別的話,輸出空間就是62。62維向量里,如果某一個維度上的值較大,它對應(yīng)的那個字母和數(shù)字就是就是預測結(jié)果。壓在駱駝身上的一根稻草從98年到本世紀初,深度學習興盛起來用了15年,但當時成果泛善可陳,一度被邊緣化。到2012年,深度學習算法在部分領(lǐng)域取得不錯的成績,而壓在駱駝身上一根稻草就是AlexNet。AlexNet由多倫多大學幾個科學家開發(fā),在ImageNet比賽上做到了非常好的效果。當時AlexNet識別效果超過了所有淺層的方法。此后,大家認識到深度學習的時代終于來了,并有人用它做其它的應(yīng)用,同時也有些人開始開發(fā)新的網(wǎng)絡(luò)結(jié)構(gòu)。其實AlexNet的結(jié)構(gòu)也很簡單,只是LeNet的放大版。輸入是一個224X224的圖片,是經(jīng)過了若干個卷積層,若干個池化層,后面連接了兩個全連接層,達到了的標簽空間。

    一、介紹缺陷檢測被使用于布匹瑕疵檢測、工件表面質(zhì)量檢測、航空航天領(lǐng)域等。傳統(tǒng)的算法對規(guī)則缺陷以及場景比較簡單的場合,能夠很好工作,但是對特征不明顯的、形狀多樣、場景比較混亂的場合,則不再適用。近年來,基于深度學習的識別算法越來越成熟,許多公司開始嘗試把深度學習算法應(yīng)用到工業(yè)場合中。二、缺陷數(shù)據(jù)如下圖所示,這里以布匹數(shù)據(jù)作為案例,常見的有以下三種缺陷,磨損、白點、多線。如何制作訓練數(shù)據(jù)呢?這里是在原圖像上進行截取,截取到小圖像,比如上述圖像是512x512,這里我裁剪成64x64的小圖像。這里以一類缺陷為例,下面是制作數(shù)據(jù)的方法。注意:在制作缺陷數(shù)據(jù)的時候,缺陷面積至少占截取圖像的2/3,否則舍棄掉,不做為缺陷圖像。一般來說,缺陷數(shù)據(jù)都要比背景數(shù)據(jù)少很多,沒辦法,這里請參考我的另外一篇博文,圖像的數(shù)據(jù)增強通過增強后的數(shù)據(jù),缺陷:背景=1:1,每類在1000幅左右~~~三、網(wǎng)絡(luò)結(jié)構(gòu)具體使用的網(wǎng)絡(luò)結(jié)構(gòu)如下所示,輸入大小就是64x64x3,采用的是截取的小圖像的大小。每個Conv卷積層后都接BN層,具體層參數(shù)如下所示。Conv1:64x3x3Conv2:128x3x3ResNetBlock和DenseNetBlock各兩個,具體細節(jié)請參考殘差網(wǎng)絡(luò)和DenseNet。深度人工智能學院全連接神經(jīng)網(wǎng)絡(luò)。

    在上面這個例子里,池化層對每一個2X2的區(qū)域求max值,然后把max值賦給生成的featuremap的對應(yīng)位置。如果輸入圖像是100×100的話,那輸出圖像就會變成50×50,featuremap變成了一半。同時保留的信息是原來2X2區(qū)域里面max的信息。操作的實例:LeNet網(wǎng)絡(luò)Le顧名思義就是指人工智能領(lǐng)域的大牛Lecun。這個網(wǎng)絡(luò)是深度學習網(wǎng)絡(luò)的早期原型,因為之前的網(wǎng)絡(luò)都比較淺,它較深的。LeNet在98年就發(fā)明出來了,當時Lecun在AT&T的實驗室,他用這一網(wǎng)絡(luò)進行字母識別,達到了非常好的效果。怎么構(gòu)成呢?輸入圖像是32×32的灰度圖,首先層經(jīng)過了一組卷積和,生成了6個28X28的featuremap,然后經(jīng)過一個池化層,得到得到6個14X14的featuremap,然后再經(jīng)過一個卷積層,生成了16個10X10的卷積層,再經(jīng)過池化層生成16個5×5的featuremap。深度人工智能學院網(wǎng)絡(luò)模型架構(gòu)設(shè)計課程。四川人工智能培訓價格多少

深度人工智能學院線上線下雙模式教學。西藏AI人工智能培訓

    什么是學習?赫伯特·西蒙教授(HerbertSimon,1975年圖靈獎獲得者、1978年諾貝爾經(jīng)濟學獎獲得者)曾對“學習”給了一個定義:“如果一個系統(tǒng),能夠通過執(zhí)行某個過程,就此改進了它的性能,那么這個過程就是學習”學習的目的,就是改善性能。什么是機器學習?對于某類任務(wù)(Task,簡稱T)和某項性能評價準則(Performance,簡稱P),如果一個計算機程序在T上,以P作為性能的度量,隨著很多經(jīng)驗(Experience,簡稱E)不斷自我完善,那么我們稱這個計算機程序在從經(jīng)驗E中學習了對于一個學習問題,我們需要明確三個特征:任務(wù)的類型,衡量任務(wù)性能提升的標準以及獲取經(jīng)驗的來源學習的4個象限機器學習的方法論“end-to-end”(端到端)說的是,輸入的是原始數(shù)據(jù)(始端),然后輸出的直接就是目標(末端),中間過程不可知,因此也難以知。就此,有人批評深度學習就是一個黑箱(BlackBox)系統(tǒng),其性能很好,卻不知道為何而好,也就是說,缺乏解釋性。其實,這是由于深度學習所處的知識象限決定的。從圖1可以看出,深度學習,在本質(zhì)上,屬于可統(tǒng)計不可推理的范疇。“可統(tǒng)計”是很容易理解的,就是說,對于同類數(shù)據(jù),它具有一定的統(tǒng)計規(guī)律,這是一切統(tǒng)計學習的基本假設(shè)。西藏AI人工智能培訓

成都深度智谷科技有限公司位于中國(四川)自由貿(mào)易試驗區(qū)成都天府一街369號1棟2單元17樓1715號。公司自成立以來,以質(zhì)量為發(fā)展,讓匠心彌散在每個細節(jié),公司旗下人工智能培訓,深度學習培訓,AI培訓,AI算法工程師培訓深受客戶的喜愛。公司注重以質(zhì)量為中心,以服務(wù)為理念,秉持誠信為本的理念,打造教育培訓良好品牌。深度智谷立足于全國市場,依托強大的研發(fā)實力,融合前沿的技術(shù)理念,飛快響應(yīng)客戶的變化需求。