NLP自然语言处理集训营2【共78章,更新至第72章 40G】

通过这套课程,你将获得:

  • 精通自然语言处理技术,相当于掌握了AI领域最核心的技能!
  • 完成AI小白到大神的逆袭!
  • 可获得专业、权威的结业证书,证明自己!
  • 优秀学员可获得名企就业/实习内推机会,甚至面试绿色通道!

 

这套课程适合:

  • 有一定Python编程基础的学员,但不需要NLP相关基础
  • 想找自然语言处理/算法相关工作的学员
  • 试图学好但缺乏正确指点的学员
  • 想转型从事AI工作的学员

第1章: 课程宣传片
任务1: 自然语言处理训练营 10:46
第2章: 课程介绍以及NLP概论
任务2: 训练营介绍 课程体系介绍 13:42
任务3: NLP定义以及歧义性 13:56
任务4: 案例:机器翻译01 26:37
任务5: 案例:机器翻译02 31:21
任务6: NLP的应用场景 08:52
任务7: NLP的关键技术 22:27
任务8: 算法复杂度介绍 24:37
任务9: 课后答疑 27:06
第3章: 时间复杂度与问答系统
任务10: 简单的复杂度的回顾 04:01
任务11: 归并排序 17:16
任务12: Master Theorem 21:10
任务13: 斐波那契数的时间复杂度 18:30
任务14: 斐波那契数的空间复杂度 17:39
任务15: 斐波那契数的循环实现 10:34
任务16: P vs NP vs NP Hard vs NP Complete 19:32
任务17: 问答系统介绍 39:39
第4章: Review Session 1
任务18: Review 一只狗和两只猫的故事 ——心理学与DL,RL-01 26:13
任务19: Review 一只狗和两只猫的故事 ——心理学与DL,RL-02 28:25
第5章: 文本处理技术(1)
任务20: 文本处理的流程 10:40
任务21: 分词-前向最大匹配 22:12
任务22: 分词-后向最大匹配 12:16
任务23: 分词-考虑语言模型 26:55
任务24: 分词-维特比算法 48:03
任务25: 拼写错误纠正 25:55
第6章: 文本处理技术(2) —— 19年2月12日
任务26: 拼写纠错(2) 10:43
任务27: 拼写纠错(3) 16:00
任务28: 停用词过滤,Stemming操作 14:54
任务29: 文本的表示 14:22
任务30: 文本的相似度 22:46
任务31: tf-idf 文本表示 21:52
任务32: 词向量介绍 30:30
任务33: 学习词向量 26:48
任务34: 倒排表 24:53
第7章: 语言模型———19年2月14日
任务35: Noisy Channel Model 14:55
任务36: 语言模型介绍 05:57
任务37: Chain Rule和Markov Assumption 25:38
任务38: Unigram, Bigram, N-gram 11:46
任务39: 估计语言模型的概率 19:03
任务40: 评估语言模型:Perplexity 23:14
任务41: Add-one Smoothing 12:13
任务42: Add-K Smoothing 07:32
任务43: Interpolation 11:35
第8章: Review 基于几个例子,书写动态规划——-19年2月16日
任务44: 2019.2.17Review 基于几个例子,书写动态规划-01 28:44
任务45: 2019.2.17Review 基于几个例子,书写动态规划-02 16:02
任务46: 2019.2.17Review 基于几个例子,书写动态规划-03 22:48
第9章: 拼写纠错实战(语言模型,Noisy Channel Model)——19年2月16日
任务47: Lesson6直播 02:24:13
第10章: 专家系统与朴素贝叶斯——19年2月19日
任务48: 01在训练数据里没有见过的怎么处理? 09:55
任务49: 02Good-Turning Smoothing 24:51
任务50: 03利用语言模型生成句子 17:14
任务51: 04专家系统与基于概率统计学习 09:07
任务52: 05专家系统介绍 31:36
任务53: 06逻辑推理 20:30
任务54: 07Case Study 风控 07:53
任务55: 08一些难题 17:12
任务56: 09机器学习介绍01 26:19
任务57: 10机器学习介绍02 23:44
任务58: 11朴素贝叶斯介绍 22:24
任务59: 12Case Study 垃圾邮件过滤 20:17
第11章: Python函数式编程—–2019年2月21日
任务60: lambda表达式 05:20
任务61: map函数的应用 07:20
任务62: filter过滤器 05:40
任务63: reduce函数 05:59
任务64: python三大推导式 10:37
任务65: 闭包 11:09
任务66: 装饰器一 05:31
任务67: 装饰器二 09:51
第12章: Python数据处理—–2019年2月21日
任务68: 初识numpy 06:42
任务69: numpy数组的创建 13:13
任务70: numpy的矢量化运算 06:03
任务71: numpy的花式索引 18:38
任务72: numpy数组转置和轴对换 11:33
任务73: 条件逻辑转数组 09:06
任务74: 数学运算与排序 08:58
任务75: numpy文件处理 10:02
任务76: 线性代数函数和随机漫步例子 08:13
第13章: 词性标注-实战 (2019年2月23日)
任务77: 词性标注-实战(1) 20:20
任务78: 词性标注–实战(2) 56:47
任务79: 词性标注-实战(3) 29:32
任务80: 词性标注-实战(4) 30:02
任务81: 词性标注-实战(5) 12:10
第14章: Pandas与Matplotlib—–2019年2月26日
任务82: 初识series类型 12:58
任务83: 初识dataframe 14:06
任务84: 重新索引、数学运算和数据对齐 11:56
任务85: dataframe和series之间的运算和排序 09:29
任务86: 层次化索引 12:35
任务87: dataframe的层次化索引的访问和汇总运算 08:32
任务88: pandas读写csv文件 13:37
任务89: pandas读取excel文件并画图 07:15
任务90: matplotlib可视化及学习方法建议 11:39
第15章: Python爬虫框架Scrapy的使用—–2019年2月26日
任务91: 虚拟环境的搭建 05:38
任务92: 创建第一个爬虫项目 04:44
任务93: 调试运行爬虫程序 06:33
任务94: 13-scrapy shell调试方法进行元素定位 06:34
任务95: 访问首页列表中的url 06:49
任务96: 获取帖子标题和内容 07:23
任务97: 处理帖子内容中的特殊标签 07:31
任务98: 获取帖子发送时间及位于的楼数 09:41
任务99: 爬虫的bug调试与修复 08:10
任务100: 数据持久化代码开发 16:57
任务101: 数据入库 11:11
第16章: 2019.2.24Review importance sample negtive sample nce
任务102: importance sample negtive sample nce-01 25:50
任务103: importance sample negtive sample nce-02 28:13
任务104: importance sample negtive sample nce-03 38:41
第17章: 逻辑回归—–2019年2月28日
任务105: 精确率和召回率 32:17
任务106: 逻辑回归介绍 34:03
任务107: 逻辑回归是线性分类器 07:35
任务108: 逻辑回归的目标函数 18:58
任务109: 梯度下降法 23:32
任务110: 逻辑回归的梯度下降法 37:45
任务111: 当线性可分的时候 02:08
第18章: Review 关于面试的话题—–2019年3月2日
任务112: 关于面试的话题-01 20:17
任务113: 关于面试的话题-02 26:00
任务114: 关于面试的话题-03 19:46
第19章: 直播—–2019年3月2日
任务115: 直播-01 12:39
任务116: 直播-02 11:38
任务117: 直播-03 11:37
任务118: 直播-04 17:03
任务119: 直播-05 09:01
任务120: 直播-06 13:39
任务121: 直播-07 06:39
任务122: 直播-08 24:31
任务123: 直播-09 17:13
任务124: 直播-10 15:34
任务125: 直播-11 14:48
第20章: —–2019年3月5日
任务126: 当数据线性可分割的时候 07:36
任务127: 限制参数变得太大 17:13
任务128: 模型复杂度与过拟合 46:03
任务129: 怎么避免过拟合 08:00
任务130: 正则介绍 11:00
任务131: L1 VS L2 29:58
第21章: Review 数据结构串讲—–2019年3月9日
任务132: review 数据结构串讲-01 32:22
任务133: review 数据结构串讲-02 37:00
第22章: 2019年3月9日 直播
任务134: Affective Computing & 情绪识别实战 41:08
任务135: 交叉验证(1) 09:08
任务136: 交叉验证(2) 21:47
任务137: 正则的作用 12:40
任务138: MLE VS MAP介绍 13:25
任务139: 正则的使用 28:52
第23章: —–2019年3月12日
任务140: 交叉验证 18:46
任务141: 参数搜索策略 27:49
任务142: 高级:正则的灵活应用 27:30
任务143: 总结 05:29
任务144: MLE与MAP 33:17
第24章: —–2019年3月15日
任务145: Lasso Regression介绍 10:01
任务146: 特征选择技术 25:35
任务147: LASSO介绍 12:18
任务148: Coordinate Descent 10:04
任务149: Coordinate Descent for LASSO 19:33
任务150: 其他LASSO Solver 03:39
第25章: Review 变分推断 指数族家族 lda—20190316
免费 任务151: 变分推断 指数族家族 lda 52:50
第26章: Optimization—20190316 直播
任务152: Optimization 15:04
任务153: Optimization is Everywhere 26:27
任务154: Optimization – Categories 10:30
任务155: Convex Optimization-Global vs Local Optimal 04:06
任务156: 判断一个函数是凸函数 33:35
任务157: 解决一个具体问题1 17:21
任务158: 解决一个具体问题2 21:15
第27章: —2019年3月21日
任务159: 回顾凸函数 04:26
任务160: 介绍Set Cover Problem 05:15
任务161: Approach1- Exhaustive Search 05:35
任务162: Approach2-贪心算法 07:31
任务163: Approach3-Optimization 28:32
任务164: 总结 08:52
任务165: 回顾-逻辑回归的梯度下降法 02:27
任务166: 梯度下降法的复杂度 04:06
任务167: 梯度下降法的收敛分析 12:49
任务168: 凸函数性质以及L-Lipschitz条件 22:31
任务169: 收敛性推导 27:39
第28章: —2019年3月22日
任务170: Linear Classifier 10:49
任务171: Margin的计算 08:21
任务172: SVM的目标函数:Hard constraint
任务173: SVM的目标函数:Soft constraint
任务174: Hinge Loss
任务175: Primal-Dual介绍
第29章: Review attention transformer bert
任务176: attention transformer bert-01
任务177: attention transformer bert-02
第30章: Capstone项目介绍—2019.03.26
任务178: Capstone项目介绍
第31章: —2019年3月26日
任务179: LinearSVM的缺点
任务180: 数据映射到高维
任务181: 拉格朗日-等号条件处理
任务182: 拉格朗日-不等号条件处理
任务183: KKT条件
任务184: SVM的KKT条件
任务185: Primal-Dual介绍
任务186: SVM的Dual推导
任务187: Kernel Trick
第32章: —2019年3月23日
任务188: 信息抽取介绍 直播
任务189: 命名实体识别介绍
任务190: 简历分析场景
任务191: 搭建NER分类器
任务192: 方法介绍
任务193: 基于规则的方法
任务194: 投票决策方法
任务195: 特征工程与特征表示01
任务196: 特征工程与特征表示02
任务197: 问答
第33章: –2019年3月28日
任务198: 信息抽取介绍
任务199: Ontological Relation
任务200: 关系抽取方法介绍
任务201: 基于规则的方法
任务202: 基于监督学习的方法
第34章: 20190330 Review Session: cnn rnn transformer对比
任务203: cnn rnn transformer对比-01
任务204: cnn rnn transformer对比-02
第35章: —2019年3月30日 直播
任务205: 关系抽取
任务206: bootstrap算法的缺点
任务207: SnowBall算法
任务208: 生成模板
任务209: 生成tuple与模板评估
任务210: 评估记录+过滤
任务211: SnowBall总结
第36章: –2019年4月2日
任务212: Entity Disambiguation (实体消歧)介绍
任务213: 实体消歧算法
任务214: Entity Resolution(实体统一)
任务215: 实体统一算法
任务216: Co-reference Resolution(指代消解)介绍
第37章: –2019年4月9日
任务217: 什么是句法分析
任务218: 句法分析的应用
任务219: 语法
任务220: PCFG
任务221: 评估语法树
任务222: 寻找最好的树
任务223: CNF Form
任务224: CKY算法
第38章: –2019年4月11日
任务225: 时序模型
任务226: HMM的介绍
任务227: HMM的应用例子
任务228: HMM的参数
任务229: HMM中的Inference问题
任务230: HMM中的F B算法1
任务231: HMM中的F B算法2
任务232: HMM中的F B算法3
第39章: –2019年4月13日 直播
任务233: Data Representation
任务234: Latent Variable Models
任务235: Complete vs Incomplete Case
任务236: MLE for Complete and Incomplete Case
任务237: EM Derivation
任务238: Remarks on EM
任务239: K-means
任务240: K-means Cost Function
任务241: MLE for GMM
第40章: 20190413 Review 模拟面试(mp3)
任务242: 模拟面试(mp3)-01
任务243: 模拟面试(mp3)-02
第41章: –2019年4月18日
任务244: HMM中的参数
任务245: Complete vs Incomplete Case
任务246: Complete Case
任务247: Incomplete Case
任务248: EM算法回顾
任务249: F B算法回顾
任务250: 估计PI 08:05
任务251: 估计B 12:14
任务252: 估计A 39:19
第42章: 20190420 Review 公司实际项目串讲
任务253: 公司实际项目串讲-01 19:36
任务254: 公司实际项目串讲-02 18:22
任务255: 公司实际项目串讲-03 27:44
第43章: –2019年4月20日
任务256: 有向图与无向图模型 16:27
任务257: 生成模型与判别模型 01:10
任务258: Log-Linear Model 03:30
任务259: Log-Linear Model与多元逻辑回归 18:52
任务260: CRF介绍 09:50
任务261: Inference问题 09:45
任务262: 参数估计 36:35
第44章: –2019年4月24日
任务263: wordvector词向量 15:35
任务264: Global Generation of Distributed Representation 20:32
任务265: How to Learn Word2Vec-Intuition 03:29
任务266: Skip-Gram Model 20:53
任务267: 语料库 33:56
任务268: Word2Vec代码 23:26
第45章: –2019年4月26日
任务269: 训练SkipGram问题 05:18
任务270: SkipGram另一种目标函数构建 09:00
任务271: SkipGram的negative sampling 33:08
任务272: 评估词向量 08:56
任务273: 词向量在推荐系统中的应用 23:51
第46章: 20190427 Review 梯度提升树
任务274: 梯度提升树 41:34
任务275: 答疑 12:49
第47章: –2019年4月27日 直播
任务276: Word2vec 20:52
任务277: Learning with Subword 17:54
任务278: When subword is needed 13:52
任务279: Learn Embedding from Language Model 06:47
任务280: What are potential solutions 08:41
任务281: Elmo at Glance 30:03
任务282: Category of Word Representation 36:28
第48章: 20190430 神经网络
任务283: 神经网络介绍 11:14
任务284: 激活函数 20:00
任务285: MLP 19:02
任务286: 多层神经网络 03:56
任务287: Universal Approximation Theorem 06:02
任务288: Biological Inspiration 05:11
第49章: –20190507 梯度计算
任务289: 回顾神经网络 05:00
任务290: 神经网络的损失函数 13:30
任务291: BP算法的核心流程 05:30
任务292: 对输出层的梯度计算 20:28
任务293: 对隐含层的梯度计算 15:05
任务294: 对参数的梯度计算 08:25
任务295: 对BP算法的总结 08:54
第50章: –20190509
任务296: gradient checking 05:51
任务297: 深度学习与非凸函数 03:02
任务298: 深度学习中的Plateau 03:17
任务299: SGD的收敛条件 08:02
任务300: Early Stopping 10:21
任务301: 为什么需要递归神经网络? 03:23
任务302: 递归神经网络介绍 15:48
任务303: 语言模型 11:19
任务304: RNN的深度 02:32
任务305: 梯度爆炸和梯度消失 16:07
任务306: Gradient Clipping 05:23
任务307: LSTM的介绍 10:07
任务308: LSTM的应用 08:47
任务309: Bi-Directional LSTM 07:55
任务310: Gated Recurrent Unit 06:03
第51章: 20190511 review 问答系统讲解
任务311: 问答系统讲解01 26:36
任务312: 问答系统讲解02 37:37
第52章: 2019年5月11日 直播
任务313: Representation Learning 17:05
任务314: What makes good representation-01 40:42
任务315: What makes good representation-02 25:37
任务316: What makes good representation-03 27:23
任务317: Why Deep 18:56
第53章: 2019年5月15日
任务318: Why Deep Learning Hard to Train 07:22
任务319: Ways to Solve Training 10:38
任务320: Dropout 介绍
任务321: 为什么Dropout防止过拟合现象
任务322: 机器翻译
任务323: Multimodal Learning
任务324: Seq2Seq模型
任务325: Seq2Seq训练介绍
任务326: Inference Decoding
第54章: 2019年5月17日
任务327: Exhaustic Search
任务328: Beam Search
任务329: 回顾Multimodal Learning
任务330: Attention注意力机制介绍
任务331: 看图说话介绍
任务332: 图像识别的注意力机制
第55章: 20190518 Review 基于GAN及强化学习的文本生成
任务333: 基于GAN及强化学习的文本生成-01
任务334: 基于GAN及强化学习的文本生成-02
第56章: 2019年5月18日 直播
任务335: 回顾Seq2Seq模型
任务336: Seq2Seq的Attention
任务337: Self-Attention1
任务338: Self-Attention2
第57章: 20190525 review 深度文本匹配
任务339: 深度文本匹配-01
任务340: 深度文本匹配-02 20:24
第58章: 2019年5月28日 直播
任务341: 回顾Attention 12:26
任务342: RNN LSTM-based models 08:58
任务343: Transformer的结构 18:06
任务344: Each Encoder Block 04:46
任务345: Self-Attention 29:11
任务346: Add Normalize 29:50
第59章: 2019年5月30日 直播
任务347: BERT概念 17:37
任务348: 回顾Language model 12:37
任务349: masked Language model 23:03
任务350: masked Language model存在的问题 13:03
任务351: LSTM 10:58
任务352: BERT训练过程 28:43
第60章: 2019年6月1日 直播
任务353: PGM领域 21:40
任务354: 主题模型 24:05
任务355: 回顾不同模型的范畴Model Estimation 22:35
任务356: 预测的过程 35:13
第61章: 20190602 review Nlp2 GD,SGD,Adagrad算法
任务357: GD,SGD,Adagrad算法 34:59
第62章: 2019年6月4日 直播
任务358: 回顾LDA 26:19
任务359: 举例说明生成的过程 20:09
任务360: 从官方的角度讲解生成的过程 16:59
任务361: α到θi的生成 25:11
任务362: 举例说明生成文章 07:04
任务363: gibbs sampler 44:30
第63章: 20190612 直播 collapsed gibbs sampling 1
任务364: collapsed gibbs sampling-01 13:03
任务365: collapsed gibbs sampling-02 22:53
任务366: collapsed gibbs sampling-03 34:18
任务367: collapsed gibbs sampling-04 18:47
任务368: collapsed gibbs sampling-05 21:08
第64章: 20190613 直播 collapsed gibbs sampling 2
任务369: 推导过程01 21:17
任务370: 推导过程02 29:39
任务371: 推导过程03 26:23
任务372: Gibbs采样01 26:09
任务373: Gibbs采样02 12:47
第65章: 2019年6月15日 Review
任务374: Web-Scale Information Extraction in KnowItAll-01 33:11
任务375: Web-Scale Information Extraction in KnowItAll-02 29:54
任务376: 核函数 49:55
第66章: 2019年6月15日 直播
任务377: 直播-01 11:35
任务378: 直播-02 16:09
任务379: 直播-03 08:30
任务380: 直播-04 16:53
任务381: 直播-05 21:59
任务382: 直播-06 17:58
任务383: 直播-07 20:16
第67章: 2019年6月20日 直播
任务384: 直播-01 15:21
任务385: 直播-02 16:03
任务386: 直播-03 24:27
任务387: 直播-04 12:35
任务388: 直播-05 19:51
任务389: 直播-06 22:32
第68章: 2019年6月22日 Review
任务390: 利用CRF模型做命名实体识别-01 29:51
任务391: 利用CRF模型做命名实体识别-02 23:37
任务392: 基于语料库训练Glove词向量模型-01 27:40
任务393: 基于语料库训练Glove词向量模型-02 28:19
第69章: 2019年6月22日 直播
任务394: GMM-01 31:17
任务395: GMM-02 36:36
任务396: GMM-03 44:28
第70章: 2019年6月27日 直播
任务397: XLNet-Bert Autoregressive LM 30:11
任务398: 改进思路 20:19
任务399: Bert 的目标函数 20:25
任务400: permutation 33:28
第71章: 2019年6月29日 Review
任务401: pytorch实现skip-gram 55:25
任务402: Airbnb(KDD 2018 best Paper)-01 25:14
任务403: Airbnb(KDD 2018 best Paper)-02 20:19
第72章: 2019年7月4日 直播
任务404: 直播-01 14:34
任务405: 直播-02 36:19
任务406: 直播-03 27:44
任务407: 直播-04

发表评论