第26節(jié): 手動(dòng)實(shí)現(xiàn)超參數(shù)搜索案例.mp40 }0 _/ z$ y2 Z+ `+ r/ G
第27節(jié): 用sklearn封裝keras模型.mp4
第28節(jié): 用sklearn超參數(shù)搜索.mp4
第29節(jié): 基礎(chǔ)API介紹.mp48 V9 w. n7 u! |& N
第30節(jié): tf.constant.mp47 l2 R’ e’ v% R. F0 j5 S9 X( D
第31節(jié): tf.strings與ragged_tensor.mp4
第32節(jié): sparse_tensor與tf.Variable.mp4
第33節(jié): 自定義損失函數(shù)與DenseLayer回顧.mp4
第34節(jié): 使子類與lambda分別自定義層次.mp4
第35節(jié): tf.function函數(shù)轉(zhuǎn)換.mp4
第36節(jié): @tf.function函數(shù)轉(zhuǎn)換.mp4
第37節(jié): 函數(shù)簽名與圖結(jié)構(gòu).mp47 I: [‘ x6 t% [+ [& l& w
第38節(jié): 近似求導(dǎo).mp4
第39節(jié): tf.GradientTape基本使用方法.mp4
第40節(jié): tf.GradientTape與tf.keras結(jié)合使用.mp4
第41節(jié): 其它常用API介紹.mp4
第42節(jié): 調(diào)用data_API.mp4
第43節(jié): 調(diào)用tf_data.mp4+ M7 l??j% \- d. g7 b
第44節(jié): 生成csv文件.mp4
第45節(jié): 調(diào)用tf.io.decode_csv工具.mp4. o- Y0 A: b) w. M
第46節(jié): tf.data與tf.keras讀取csv文件.mp4
第47節(jié): tfrecord API導(dǎo)入.mp4
第48節(jié): 生成tfrecords文件.mp4” }) _??i3 P. J2 c??F
第49節(jié): tf.data+tf.keras讀取文件.mp4$ I, V$ J1 B$ v0 R3 s
第50節(jié): datasetAPI注意事項(xiàng).mp4
第51節(jié): Estimator介紹.mp40 R( b1 F9 @% H??P% Y2 t
第52節(jié): 泰坦尼克問題分析.mp4
第53節(jié): feature_column使用.mp4
第54節(jié): keras_to_estimator.mp4) ^1 m5 D5 d# F6 J’ {/ y4 K5 b
第55節(jié): 預(yù)定義estimator使用.mp4
第56節(jié): 交叉特征.mp4
第57節(jié): TF1.0引入.mp4??D0 ~* ]7 M7 l2 N: V
第58節(jié): TF1.0計(jì)算圖構(gòu)建.mp4
第59節(jié): TF1.0模型訓(xùn)練.mp47 }* e( j( l1 a* t0 i1 I
第60節(jié): TF1_dataset使用.mp4/ E: D1 e& ~” l8 U
第61節(jié): TF1_自定義estimator.mp4* {* ]: {‘ B4 v; R1 V1 a0 B??|
第62節(jié): API改動(dòng)升級(jí)與課程總結(jié).mp4/ {; j$ _# m2 B8 Z4 E’ D+ I# I
第63節(jié): 卷積神經(jīng)網(wǎng)絡(luò)引入與總體結(jié)構(gòu).mp4
第64節(jié): 卷積解決的問題.mp4
第65節(jié): 卷積的計(jì)算.mp4
第66節(jié): 池化操作.mp4
第67節(jié): 卷積神經(jīng)網(wǎng)絡(luò).mp4
第68節(jié): 深度可分離卷積網(wǎng)絡(luò).mp4
第69節(jié): 深度可分離卷積網(wǎng)絡(luò).mp42 N3 {; c* k3 y7 z; ~
第70節(jié): Kaggle平臺(tái)與10monkeys數(shù)據(jù)集介紹.mp49 q3 l8 j* [* d+ i( b9 S
第71節(jié): Keras_generator讀取數(shù)據(jù).mp4. K4 |8 s* e( d/ J( A- k7 V( d
第72節(jié): 10monkeys基礎(chǔ)模型搭建與訓(xùn)練.mp4
第73節(jié): 10monkeys模型微調(diào).mp44 C; A! ?; m. J8 J# |( n3 x! C
第74節(jié): keras_generator讀取cifar10數(shù)據(jù)集.mp4
第75節(jié): 模型訓(xùn)練與預(yù)測.mp4
第76節(jié): 章節(jié)總結(jié).mp4??U’ U* n7 J$ E# t” q8 r* d” A, f
第77節(jié): 循環(huán)神經(jīng)網(wǎng)絡(luò)引入與embedding.mp44 }8 {: Q+ K1 W
第78節(jié): 數(shù)據(jù)集載入與構(gòu)建詞表索引.mp4
第79節(jié): 數(shù)據(jù)padding、模型構(gòu)建與訓(xùn)練.mp4
第80節(jié): 序列式問題與循環(huán)神經(jīng)網(wǎng)絡(luò).mp4* D3 K” P: D: |9 r??O* Z8 D
第81節(jié): 循環(huán)神經(jīng)網(wǎng)絡(luò)文本分類.mp4” b# U( _! g* k( b3 v: c
第82節(jié): 文本生成之?dāng)?shù)據(jù)處理.mp4$ X- L1 M” z% D3 s1 }, e4 t
第83節(jié): 文本生成之構(gòu)建模型.mp48 D- w9 `* s; s4 d
第84節(jié): 文本生成之采樣生成文本.mp4
第85節(jié): LSTM長短期記憶網(wǎng)絡(luò).mp4
第86節(jié): LSTM文本分類與文本生成.mp4
第87節(jié): subword文本分類之?dāng)?shù)據(jù)集載入與tokenizer.ts5 w5 {# N& G, ^$ P$ v+ e7 p7 s3 _
第88節(jié): subword文本分類之dataset變換與模型訓(xùn)練.ts– T3 w+ g6 l; ^* k
第89節(jié): 章節(jié)總結(jié).ts
第90節(jié): 課程引入與GPU設(shè)置.mp4
第91節(jié): GPU默認(rèn)設(shè)置.mp4‘ |” _2 e* \- K7 }2 U1 a2 p
第92節(jié): 內(nèi)存增長和虛擬設(shè)備.mp4% {, I7 a6 K, |$ e3 A0 F7 l
第93節(jié): GPU手動(dòng)設(shè)置.mp4
第94節(jié): 分布式策略.mp4
第95節(jié): keras分布式.mp4
第96節(jié): estimator分布式.mp44 d: ~% ~6 X& M- N5 f$ ]( l
第97節(jié): 自定義流程.mp48 @) y! D7 H! ]9 g1 T1 g
第98節(jié): 分布式自定義流程.mp4
第99節(jié): 課程引入與TFLite_x264.ts
第100節(jié): 保存模型結(jié)構(gòu)加參數(shù)與保存參數(shù).ts, S; s+ T2 _. K2 u1 K7 I2 o
第101節(jié): Keras模型轉(zhuǎn)化為SavedModel.ts7 [, C, B+ \’ r1 i) V. }+ C
第102節(jié): 簽名函數(shù)轉(zhuǎn)化為SavedModel.ts, {! {* Q% v6 z8 K- w* H
第103節(jié): 簽名函數(shù),SavedModel和Keras模型到具體函數(shù)轉(zhuǎn)換.ts
第104節(jié): tflite保存與解釋與量化.ts
第105節(jié): 本章總結(jié).mp4; ~+ i7 T% X& F% P
第106節(jié): tensorflowjs搭建服務(wù)?載入模型.mp4
第107節(jié): Android部署模型與總結(jié).mp4: |; j. M0 j0 d. i! }
第108節(jié): 課程引入與seq2seq+attention模型講解.ts
第109節(jié): 數(shù)據(jù)預(yù)處理理與讀取.ts$ t: U’ F8 p3 q- D% G+ Q+ C
第110節(jié): 數(shù)據(jù)id化與dataset生成.ts
第111節(jié): Encoder構(gòu)建.ts
第112節(jié): attention構(gòu)建.ts
第113節(jié): Decoder構(gòu)建.ts
第114節(jié): 損失函數(shù)與單步訓(xùn)練函數(shù).ts
第115節(jié): 模型訓(xùn)練.ts
第116節(jié): 模型預(yù)測實(shí)現(xiàn).ts” L4 o1 H3 I: ~8 |’ v% x’ ~# e- i
第117節(jié): 樣例例分析與總結(jié).ts, D7 G# N/ u$ w, A
第118節(jié): Transformer模型總體架構(gòu).ts‘ {/ J4 T7 ]/ w! B
第119節(jié): Encoder-Decoder架構(gòu)與縮放點(diǎn)擊注意力.ts3 y& k” M0 P% W
第120節(jié): 多頭注意力與位置編碼.ts6 ]& f/ }, H% E& Z% p
第121節(jié): Add、Normalize、Decoding過程與總結(jié).ts: a- t7 P??[” `7 ?9 r; i
第122節(jié): 數(shù)據(jù)預(yù)處理與dataset生成.ts
第123節(jié): 位置編碼.ts( A’ U( x# a8 C! J( w
第124節(jié): mask構(gòu)建.ts1 r: r3 v6 ]2 @) x
第125節(jié): 縮放點(diǎn)積注意力機(jī)制實(shí)現(xiàn)(1).ts
第126節(jié): 縮放點(diǎn)積注意力機(jī)制實(shí)現(xiàn)(2).ts
第127節(jié): 多頭注意力機(jī)制實(shí)現(xiàn).ts
第128節(jié): feedforward層次實(shí)現(xiàn).ts
第129節(jié): EncoderLayer.ts
第130節(jié): DecoderLayer.ts: Z0 k$ h5 ~: B* T’ B” Y& F! A
第131節(jié): EncoderModel.ts) L9 T- ~; b+ L& T
第132節(jié): DecoderModel.ts! ~& ^: Z# m” d/ e; G
第133節(jié): Transformer.ts
第134節(jié): 自定義學(xué)習(xí)率.ts
第135節(jié): Mask創(chuàng)建與使用.ts+ `) p9 d* d/ G3 H% b
第136節(jié): 模型訓(xùn)練.ts7 }8 n. Y7 s+ s
第137節(jié): 模型預(yù)測實(shí)現(xiàn).ts, v- U7 t- ?* C6 g! t
第138節(jié): attention可視化.ts
第139節(jié): 案例展示.mp42 h. \” T+ G, h) `: A7 o
第140節(jié): 如何學(xué)習(xí)更多模型[完].mp4$ H; J2 R% B” o9 f’ A! F
資料包.rar