神秘学占星网

某心学院-机器学习高级训练营|资料齐全|完结无秘

神秘学占星网 资料 2023-07-07 08:42:55 422745

机器学习技术是整个AI的基础,对机器学习的理解以及深度决定了在AI领域能够走多远。机器学习看似简单,但它是一门博大精深的学科。在这门课程中,我们将传授给大家机器学习领域最为重要的几个技术,包括最近特别流行的图神经网络,在原有第一版的基础上做了大幅度的更新,包括内容的增加、开放式项目的安排。 在课程中,我们由浅入深的讲清楚每一个核心的细节以及前沿的技术、同时你将有机会参与到课题中,并通过课题来增加对领域的认知,让自己的能力更上一层。 课程特别适合想持续深造的人士, 想跑在技术前沿的人士。

高级魔鬼训练营的优势

1、每个章节都有案例或者项目实操,这点对我来说还是比较友好的。

2、在合适的章节介绍合适的案例,比如在凸优化介绍第一周的时候介绍的是运输问题讲解,而在第三周,凸优化问题时候介绍的打车中的匹配问题。这样对比和比较知识点也比较轻松。

3、课程有迭代,会在适合的时候加入相应的模块。

4、课程有对应的项目作业和实操案例。

5、课程服务开设小班教学,并且对学员有相应的回访。

6、通俗易懂地讲解每一个技术细节,用最少的时间成本来掌握那些很难自学的原理和模型。

7、为进阶人士设计,帮助打破技术天花板。

目录

Week 1: 凸优化介绍

  1. 从优化角度理解机器学习

  2. 凸优化的重要性

  3. 常见的凸优化问题

  4. 线性规划以及Simplex Method

  5. Stochastic LP

  6. 案例:运输问题讲解

Week 2: 判定凸函数

  1. 凸集的判断

  2. First-order Convexity

  3. Second-order convexity

  4. Operations preserve convexity

  5. 二次规划问题(QP)

  6. 案例:最小二乘问题

  7. 项目:股票投资组合优化

Week 3: 凸优化问题

  1. 常见的凸优化问题类别

  2. 半定规划问题(semi-definite programming)

  3. 几何规划问题(geometric programming)

  4. 非凸函数的优化

  5. 松弛化(relaxazation)

  6. 整数规划(integer programming)

  7. 案例:打车中的匹配问题

Week 4: 对偶(Duality)

  1. 拉格朗日对偶函数

  2. 对偶的几何意义

  3. Weak and Strong Duality

  4. KKT条件

  5. LP, QP, SDP的对偶问题

  6. 对偶的其他应用

  7. 案例:经典机器学习模型的对偶推导及实现

Week 5: 优化技术

  1. 一阶与二阶优化技术

  2. Gradient Descent

  3. Subgradient Method

  4. Proximal Gradient Descent

  5. Projected Gradient Descent

  6. Stochastic Gradient Descent与收敛

  7. Newton’s Method

  8. Quasi-Newton Method

Week 6: 数学基础

  1. 向量空间和图论基础

  2. Inner Prosrcct, Hilbert Space

  3. Eigenfunctions, Eigenvalue

  4. 傅里叶变化

  5. 卷积操作

  6. Time Domain and Spectral Domain

  7. Laplacian, Graph Laplacian

Week 7: 谱域(Spectral Domain)的图神经网络

  1. 卷积神经网络回归

  2. 卷积操作的数学意义

  3. Graph Convolution

  4. Graph Filter

  5. ChebNet

  6. CayleyNet

  7. GCN

  8. Graph Pooling

  9. 案例:基于GCN的推荐间域与谱域的比较

Week 8: 空间域(Spatial Domain)的图神经网络

  1. Spatial Convolution

  2. Mixture Model Network (MoNet)

  3. 注意力机制(Attention Mechanism)

  4. Graph Attention Network(GAT)

  5. Edge Convolution

  6. 空间域与谱域的比较

  7. 项目:基于图神经网络的链路预测

Week 9: 图神经网络改进与应用

  1. 拓展1: Relative Position与图神经网络

  2. 拓展2:融入Edge特征:Edge GCN

  3. 拓展3:图神经网络与知识图谱: Knowledge GCN

  4. 拓展4:姿势识别:ST-GCN

  5. 案例:基于图的文本分类

  6. 案例:基于图的阅读理解

Week 10: 强化学习基础

  1. Markov Decision Process

  2. Bellman equation

  3. 三种方法:Value-based, Policy-based, Model-based

  4. Value-based Approach: Q-learning

  5. Policy-based Approach: SARSA

Week 11: Bandicts

  1. Multi-armed bandicts

  2. Epsilon-Greedy

  3. Upper Confidence Bound (UCB)

  4. Contextual UCB: LinUCB & Kernel UCB

  5. 案例:Bandits在推荐系统的应用案例

Week 12: 路径规划

  1. Monte-Carlo Tree Search

  2. N-step learning

  3. Approximation and reward shaping

  4. 项目:强化学习在游戏中的应用案例

  5. 结合深度学习:Deep RL

Week 13: 自然语言处理中的RL

  1. Seq2seq模型的问题

  2. 结合Evaluation Metric的自定义loss

  3. 结合aspect的自定义loss

  4. 不同RL模型与seq2seq模型的结合

  5. 案例:基于RL的对话系统

Week 14: 贝叶斯方法论简介

  1. 贝叶斯定理

  2. 从MLE, MAP到贝叶斯估计

  3. 集成模型与贝叶斯方法比较

  4. 贝叶斯方法在计算上的Intractiblity

  5. MCMC与变分法简介

  6. 贝叶斯线性回归

  7. 贝叶斯神经网络

  8. 案例:基于Bayesian-LS有需要联系v;lyjlyj13141314TM的命名实体识别

Week 15: 主题模型

  1. 生成模型与判别模型

  2. 隐变量模型

  3. 贝叶斯中的prior重要性

  4. 狄利克雷分布、多项式分布

  5. LDA的生成过程

  6. LDA中的参数与隐变量

  7. Supervised LDA

  8. Dynamic LDA

  9. LDA的其他变种

  10. 项目:LDA的基础上修改并搭建无监督情感分析模型

Week 16: MCMC方法

  1. Detail Balance

  2. 对于LDA的吉布斯采样

  3. 对于LDA的Collapsed吉布斯采样

  4. Metropolis Hasting

  5. Importance Sampling

  6. Rejection Sampling

  7. 大规模分布式MCMC

  8. 大数据与SGLD

  9. 案例:基于分布式的LDA训练

Week 17: 变分法(variational method)

  1. 变分法核心思想

  2. KL散度与ELBo的推导

  3. Mean-Field变分法

  4. EM算法

  5. LDA的变分法推导

  6. 大数据与SVI

  7. 变分法与MCMC的比较

  8. Variational Autoencoder

  9. robabilistic Programming

  10. 案例:使用概率编程工具来训练贝叶斯模型、



(1)因部分资料含有敏感关键词,百度网盘无法分享链接,请联系客服进行发送;
(2)如资料存在张冠李戴联系微信:hx-hx3 无条件退款!
(3)不用担心不给资料,如果没有及时回复也不用担心,看到了都会发给您的!放心!
(4)关于所收取的费用与其对应资源价值不发生任何关系,只是象征的收取站点运行所消耗各项综合费用

热评榜单