首页 体系课 程序员数学体系课
程序员数学体系课

独家设计:严选AI强关联数学干货、可视化呈现“能看见”的数理、低学习门槛,助力高效掌握数学体系

应用导向:50+AI案例,60+习题精讲,5+拓展主题,数学理论与AI实例紧密融合

程序员友好:数学与代码完美结合,架设AI数学内核和程序员工程实践之间的桥梁

20 课程内容
12 个月 教学服务期限
60 小时 视频时长
10 累计学习人数
100% 累计好评度
满599减100 满299减30
20 课程内容
12 个月 教学服务期限
70000 手敲代码
2 企业及项目
16+ 实操案例
10 累计学习人数
活动到手价 ¥1699.00
7天未学可退 ¥1999

数学—AI人工智能基石

AI在可预见的多年内还将以爆发的态势增长,AI人才需求与日俱增,但普通程序员困于没有扎实的专业数学基础,局限在AI应用层开发,在进一步构建自己的AI模型、调参优化、处理数据并评估性能方面无法突破,甚至很多教程也基于有相关高等数学基础而设计,对于大部分毕业后再未接触过数学的开发人员有相当的难度,鉴于此本课程严选AI强关联数学干货,降低学习门槛、可视化呈现、数学与代码结合的程序员友好课程设计,广泛覆盖AI所必备的数学基础,旨在消除程序员在深入AI领域的数学屏障,无论你是想夯实数学基础,还是深耕AI领域,这门课程都将是你的首选。

程序员友好设计,4大独家优势架构数学内核与工程实践桥梁

围绕AI筛选知识点,一站式掌握与AI紧密关联的数学知识体系,只学有用的

数学与AI项目实例紧密融合,学员动手实操,避免一看就会,一用就废

  • 大语言模型的数学原理
  • 手工实现一个
    分类问题神经网络
  • 实现一个自动微分框架
  • 大手搓一个python矩阵类

项目简介

深入大语言模型的核心数学原理:分解大语言模型的结构,亲手实现一个简单大语言模型。综合在整个课程中所学,理解数学为大语言模型提供的算法和理论基础、优化方法以及在数据分析和处理中的关键作用;通过实验直观的感受大语言模型的语义逻辑,观察模型深层的向量脉动;从而更有效的使用大模型,为更深入的工作打下基础

项目内容:

对应数学原理:

Transformer总体架构,历史和现状
矩阵运算;均值,方差,归一化;激活函数;概率分布与条件概率链式法则与梯度下降
Embedding,位置编码:将离散的单词映射为连续向量,保留语义,引入位置编码以保留序列顺序信息
向量空间;相似度计算;周期性信号;主成分分析 PCA
注意力机制:包括 Q、K、V 的计算及点积注意力公式
矩阵分解;特征值与特征向量;点积;归一化;Softmax 函数与概率分布;均值,方差
解码器:掩码多头注意力(Masked Multi-Head Attention)和上下文融合,生成文本输出的过程
条件概率与贝叶斯定理;梯度下降与反向传播;链式法则与自动微分;信息熵

项目简介

从数学原理入手,深入剖析神经网络的核心原理。课程将带领学生用Python从零实现一个简易的全连接神经网络(含输入层、隐藏层、输出层),网络中关键组件包括:激活函数(Sigmoid 和 Softmax)、损失函数(交叉熵)以及训练数据的处理方法。通过一个真实分类数据训练并验证模型效果。每一步代码实现均对应数学公式推导,重点解释梯度计算、反向传播等关键概念。

项目内容:

对应数学原理:

神经网络结构
矩阵运算(矩阵乘法、加法);线性代数基础;非线性变换;函数复合与链式法则;
Sigmoid激活函数:激活函数的作用及其数学表达式;解释其如何引入非线性特性。
指数函数与对数函数;导数与梯度;单调函数性质;
Softmax激活函数:介绍 Softmax 激活函数的定义及其在多分类问题中的应用;讲解如何将原始输出转换为概率分布。
指数函数与归一化;概率分布与条件概率;偏导数计算;
交叉熵 (Cross-Entropy)损失函数:解释交叉熵损失函数的定义及其在分类任务中的作用;讨论如何衡量预测值与真实值之间的差异。
最大似然估计;梯度下降与优化理论;
Softmax-Cross-Entropy 的偏导数:推导 Softmax 和交叉熵组合的损失函数的偏导数;讲解反向传播中梯度的计算方法。
复合函数求导;链式法则;偏导数与梯度更新规则;
训练数据处理:讲解数据标准化的必要性及其数学原理;介绍均值归一化和标准差缩放的方法。
统计学基础:均值、方差、标准差;

项目简介

深入探讨自动微分的数学原理,并带领大家手工实现一个基于自动微分的神经网络框架。从自动微分的基础原理出发,通过构建计算图、实现反向传播算法,逐步理解神经网络中梯度计算的本质。课程将涵盖自动微分的前向模式和反向模式,并通过代码实现softmax和交叉熵损失的自动微分,最终将自动微分集成到神经网络中,展示其在模型训练中的强大优势。

项目内容:

对应数学原理:

神自动微分的原理:计算图,前向传导:介绍自动微分的核心思想,包括计算图的构建和前向传导过程;讲解如何将数学表达式分解为基本操作节点。
计算图的定义;前向传播的流程;链式法则;函数复合与偏导数
自动微分之后向传导:深入讲解反向传导的过程,基于链式法则递归计算每个节点的梯度;实现梯度的自动累积。
指链式法则;反向传播算法;偏导数与梯度计算;递归的应用
代码实现 Softmax + 交叉熵的自动微分:实现 Softmax 激活函数和交叉熵损失函数的自动微分,推导其梯度公式并验证结果。
Softmax 函数的定义与性质;交叉熵损失函数;复合函数求导;梯度下降优化
将实现的自动微分应用到神经网络中:将自动微分框架应用于一个简单的神经网络,完成前向传播、反向传播和参数更新,训练模型完成分类任务。
神经网络结构;梯度下降法;参数更新规则;损失函数与优化目标

项目简介

带领学生深入理解矩阵操作在科学计算和机器学习中的核心作用,并通过动手实践,从零开始实现一个完整的矩阵类。课程内容覆盖矩阵的基本操作及其背后的数学原理,包括加减乘除、点积、转置、行列式计算、高斯消元法和 LU 分解等。在编码过程中,我们将逐一解析这些操作的数学基础,帮助学生建立从理论到实践的完整认知。

项目内容:

对应数学原理:

重载加减乘除运算符:重载矩阵类的加法、减法、数乘和矩阵乘法运算符,支持矩阵之间的基本运算。
矩阵加减法;数乘运算;矩阵乘法规则
实现矩阵的点积运算:实现矩阵的点积(内积)运算,用于科学计算和机器学习中的权重更新和激活函数计算。
指点积定义;矩阵维度匹配;向量内积与矩阵乘法的关系
实现矩阵的转置:实现矩阵的转置操作,即将矩阵的行变为列,列变为行。
转置矩阵的定义;索引变换;对称矩阵的性质
实现递归求矩阵的行列式:使用递归方法计算矩阵的行列式,基于拉普拉斯展开公式。
行列式的定义;代数余子;递归
实现高斯消元法求矩阵的秩:使用高斯消元法将矩阵化为阶梯形矩阵,进而求解矩阵的秩。
复高斯消元法;阶梯形矩阵;矩阵的秩与线性无关性
实现舒尔补方法对矩阵LU分解:使用舒尔补方法实现矩阵的 LU 分解,即将矩阵分解为下三角矩阵L和上三角矩阵U的乘积。
统LU 分解的定义;舒尔补方法;线性方程组的求解与矩阵分解

还有一套机器学习工具与框架,让你更高效的学习和构建业务解决方案

慕课网诚意钜献,为你量身定制

数学基础薄弱、缺乏实践的大学
生(数学停留在应试层面的)

想转AI专业的大学生,以及有意
转型AI领域的程序员和开发人员

已在AI领域工作,想进一步提
升、深入底层开发的职场人士

想深入大模型原理,想对大模型
微调,上下文学习,Prompt
Engineering,和想训练自己的
大模型,有更高追求的同学

学前技术储备

1、掌握Python语法
2、需要对中学的数学知识还有一些印象,包括:代数,几何

资深技术专家授课,精准干货+专业指导,让你的每分钟收获满满

GuoSr

算法工程师

硕士毕业于人工智能专业,曾长期在知名外企担任项目专家,深度参与多个AI项目的全流程工作,包括筹划、开发与实施,拥有AI理论知识和丰富的实践经验。同时,具备跨领域的产品开发经验,熟悉软件开发与人工智能的结合应用,深刻理解程序员在人工智能领域的痛点与挑战。

课程大纲及学习周期安排

为保证课程内容紧跟市场变化,课程章节将逐步开放,直至课程完结

阶段一: 线性代数:批量数据规律的研究
5门课    ·   课程总时长:15小时
  • 第1周
  • 第2周
  • 第3周
  • 第4周
  • 第5周
线性代数入门:由来、与人工智能的关系

介绍课程,配置开发环境,快速入门编程,了解线性代数的基本概念和应用,学习线性代数核心概念-走进矩阵

课程安排:
  1. 1、准备编程环境
  2. 2、Matplotlib快速上手、练习
  3. 3、常用科学计算,机器学习库的介绍和对比
  4. 4、线性代数入门练习
  5. 5、从数值到多维数据--计算机批量数据处理的基石:标量、向量、矩阵、张6、量到底是什么?
  6. 7、批量数据核心操作:向量的加减乘除
  7. 8、机器学习中的尺子:向量范数
  8. 9、让数据动起来,矩阵乘法与变换
  9. 10、对称矩阵、对角矩阵……这些特殊矩阵的what和why
矩阵进阶运算与矩阵分解

深入学习矩阵的高级运算和性质,包括转置、逆、迹、秩等以及矩阵计算的基石:矩阵分解

课程安排:
  1. 1、批量数据隐藏的信息:矩阵转置/逆/迹/秩的作用
  2. 2、行列式:矩阵信息量的指标
  3. 3、稀疏矩阵:现实数据表示和压缩的数据结构
  4. 4、更高维数据的表示:张量
  5. 5、矩阵进阶运算的练习
  6. 6、矩阵分身术:矩阵分解介绍
  7. 7、LU分解:高效解线性方程组与加速工程计算
  8. 8、QR分解:从最小二乘法到机器人定位的核心工具
  9. 9、Cholesky分解:金融风险评估与数值模拟的加速器
  10. 10、矩阵分解练习
特征分解

学习特征分解的定义、代码调用、直观理解、手工计算方法和性质。

课程安排:
  1. 1、什么是特征分解?从数学定义到现实问题的映射
  2. 2、调用Scipy进行特征分解
  3. 3、一眼就明白:通过可视化理解特征分解
  4. 4、手把手教学:一步步完成特征分解计算
  5. 5、特征分解的有趣性质
  6. 6、特征分解的练习
奇异值分解SVD

深入学习奇异值分解的定义、代码调用、直观解释、作用、与特征值分解的关系、伪逆等。

课程安排:
  1. 1、奇异值分解SVD介绍:从图片压缩到推荐系统,SVD奇异的作用
  2. 2、调用Scipy进行SVD分解
  3. 3、奇异值分解的底层逻辑与独特优势
  4. 4、SVD分解能解决哪些问题?
  5. 5、特征值分解与SVD分解的关系
  6. 6、SVD分解的应用:伪逆求问题近似解
  7. 7、奇异值分解SVD练习
主成分分析PCA

学习主成分分析的直观理解、协方差矩阵、分解过程、与SVD的关系、应用等。

课程安排:
  1. 1、矩阵的主成分是什么?主成分分析又能做什么?
  2. 2、找到数据背后的隐藏关联--协方差矩阵
  3. 3、一步步拆解PCA:从数据标准化到主成分提取
  4. 4、同样是数据降维:PCA与SVD有何异同,他们之间的关系如何?
  5. 5、PCA在真实场景中的威力
  6. 6、PCA主成分分析的练习
阶段二: 线性代数实战
2门课    ·   课程总时长:9小时
  • 第6周
  • 第7周
Numpy快速上手,用Python实现矩阵

帮助怼Numpy不太熟悉的同学提供了Numpy快速入门知识,再通过带同学自己手工实现一个python矩阵操作的类来加深对矩阵运算规律和性质的理解。

课程安排:
  1. 1、机器学习和数据科学的基石:Numpy的介绍
  2. 2、Numpy数组的灵活操作:数组的创建,索引,切片
  3. 3、更有效的内存使用:Numpy的复制和视图
  4. 4、灵活的数组过滤:布尔数组索引
  5. 5、数据变形记:维度调整与遍历
  6. 6、多维数据拼接:concatenate, stack, hstack, vstack, dstack
  7. 7、不同形状的数组能运算:Numpy的广播机制
  8. 8、Numpy的矩阵操作以及算数运算的支持
  9. 9、数据升维降维:添加,删除维度
  10. 10、Numpy相关知识点练习
  11. 11、为什么需要自定义矩阵类?筑牢机器学习的基石
  12. 12、让矩阵数据一目了然?重载类的字符串表达实现可视化调试
  13. 13、重载加减乘除运算符
  14. 14、实现矩阵的点积
  15. 15、实现矩阵的转置
  16. 16、实现递归求矩阵的行列式
  17. 17、实现高斯消元法求矩阵的列
  18. 18、Python实现一个矩阵类的练习
数据处理方法与矩阵与图形变换

学习常用的数据处理方法,包括正态分布、数据归一化、标准化、模型正则化等。学习矩阵在图形变换中的应用,包括缩放、旋转、剪切、移动、组合变换、倾斜等。

课程安排:
  1. 1、自然、社会的普适数据分布:正态分布,标准分布
  2. 2、消除量纲差异:归一化如何让特征工程更高效?
  3. 3、不同算法需要怎样的输入?标准化处理打通模型适配瓶颈
  4. 4、正则化又是什么东西
  5. 5、常见数据处理方式练习
  6. 6、图像尺寸调整:缩放矩阵如何改变像素坐标?
  7. 7、二维图像的旋转矩阵
  8. 8、剪切矩阵实现图像变形
  9. 9、平移矩阵控制图形位置偏移
  10. 10、在一个矩阵中实现旋转剪切和平移
  11. 11、倾斜矩阵模拟结构变形
  12. 12、齐次坐标:如何整合所有变换参数‌
  13. 13、Python图像处理库Pillow简介
  14. 14、矩阵图形变换的复习
阶段三: 微积分:研究数据变化的规律与模型优化
3门课    ·   课程总时长:8小时
  • 第8周
  • 第9周
  • 第10周
微积分入门,微积分核心基础

介绍微积分的基本概念,包括斜率、切线、极限、导数、穷竭法、曲线下面积等,学习极限、连续性、斜率和导数的基本概念和计算方法。

课程安排:
  1. 1、为什么人工智能要学微积分?数学工具的革命性力量
  2. 2、如何描述数据变化及趋势:斜率,切线,极限,导数,穷竭法,曲线下面积
  3. 3、从牛顿到莱布尼茨:微积分如何重塑现代科学世界观?
  4. 4、远不止是自动优化和梯度下降,微积分在人工智能中的用处
  5. 5、练习:理解极限
  6. 6、函数的连续性是什么--直观理解
  7. 7、用极限的思维重新认识世界
  8. 8、常用函数的极限特性
  9. 9、Python的Sympy库如何处理复杂极限问题
  10. 10、极限的运算规则
  11. 11、嵌套函数的极限
  12. 12、有理化技巧处理根号型极限问题
  13. 13、变化率的研究:导数的直观理解
  14. 14、符号计算库sympy简介
  15. 15、微积分基础知识练习
微积分进阶与多元微积分

学习常见函数的导数、微分公式、链式规则、高阶导数、不定式和洛必达法则等。学习多元微积分的基本概念,包括偏导数、偏导数规则、梯度向量、高阶偏导数等。

课程安排:
  1. 1、导数公式帮助求解复杂函数导数
  2. 2、导数规则:四则运算与隐函数求导
  3. 3、二阶导数的物理意义与曲线凹凸性判断
  4. 4、不定式和洛必达法则,求解0/0型极限
  5. 5、多元函数求导的核心工具,模型优化的算法基础:复合函数与链式法则
  6. 6、链式法则在神经网络中的作用:反向传播算法如何实现参数优化?
  7. 7、微积分进阶的练习
  8. 8、从多元函数到多元微积分
  9. 9、多元函数的变化率的研究:偏导数
  10. 10、偏导数的运算规则
  11. 11、梯度向量以及可视化
  12. 12、机器学习参数调优:梯度下降如何借助偏导数寻找最优解?
  13. 13、高阶偏导数与机器学习模型优化的重要应用
  14. 14、高阶偏导数的练习
积分基础

学习积分的基本概念,包括积分的直观理解、不定积分与定积分、积分的性质等。

课程安排:
  1. 1、量化数据变化的总量:微积分--从几何图形到现实累积的直观分析
  2. 2、不定积分与定积分:函数家族vs具体数值
  3. 3、积分的线性性与区间可加性:积分的性质
  4. 4、如何从不定积分计算定积分
  5. 5、用Scipy玩转数值积分:Python中如何快速获得近似解?
  6. 6、Sympy解析积分:符号运算如何实现精确的数学推导?
  7. 7、积分构建概率世界:从概率密度到累积分布函数是怎样炼成的?
  8. 8、练习:积分基础
阶段四: 微积分实战和进阶
5门课    ·   课程总时长:10小时
  • 第11周
  • 第12周
  • 第13周
  • 第14周
  • 第15周
用微积分知识实现一个神经网络

实现多分类问题的神经网络,学习回归问题与分类问题、神经网络结构、激活函数、损失函数等。

课程安排:
  1. 1、从回归到分类的问题建模
  2. 2、神经网络结构
  3. 3、S型曲线转化为二分类概率:sigmoid激活函数
  4. 4、将神经元输出压缩为概率的激活函数:softmax
  5. 5、如何量化预测结果与真实标签的差距的损失函数:交叉熵 cross-entropy
  6. 6、反向传播核心:Softmax与交叉熵联合求导的数学技巧
  7. 7、数据标准化:为什么特征缩放能加速神经网络收敛?
  8. 8、从微积分推导到Python代码的完整实现
  9. 9、练习:实现分类神经网络
ROC曲线与分类性能评估

学习分类问题与回归问题的区别,ROC曲线的定义和应用,混淆矩阵等。

课程安排:
  1. 1、如何区分预测类型:连续值输出与类别判断的本质差异?
  2. 2、概率阈值调整:如何平衡漏判与误判的风险?
  3. 3、混淆矩阵:分类模型效果化验单
  4. 4、实战可视化:用Sklearn一键生成混淆矩阵热力图
  5. 5、四大核心指标拆解:准确率、召回率如何反映模型短板?
  6. 6、ROC曲线解剖:为什么TPR与FPR的博弈能评估模型?
  7. 7、AUC值密码破译:用Python代码实现模型效果量化评分
  8. 8、分类问题与ROC练习
神经网络梯度问题

研究神经网络的梯度消失和梯度爆炸问题,学习ReLU激活函数、正则化技术等。

课程安排:
  1. 1、神经网络的梯度消失问题,代码复现梯度消失
  2. 2、分析神经网络梯度消失的原因
  3. 3、ReLU激活函数和其它办法来应对梯度消失问题
  4. 4、深入研究RELU和它的变形
  5. 5、神经网络的梯度爆炸问题以及成因
  6. 6、代码演示一个梯度爆炸问题的应对方式:梯度缩放和梯度剪裁
  7. 7、神经网络过拟合与欠拟合以及成因
  8. 8、L1正则化和L2正则化技术的直观理解
  9. 9、应对过拟合与欠拟合的技术:dropout
  10. 10、神经网络梯度问题练习
神经网络自动微分

学习自动微分的原理和实现,包括计算图、前向传导、后向传导等。

课程安排:
  1. 1、为什么要用自动微分
  2. 2、自动微分的原理:计算图,前向传导
  3. 3、自动微分之后向传导
  4. 4、代码实现softmax + 交叉熵的自动微分
  5. 5、将实现的自动微分应用到神经网络中
  6. 6、pytorch和它的自动微分工具:autograd
  7. 7、练习:实现自动微分功能
偏导数与模型优化与支持向量机SVM

学习偏导数的链式法则、雅可比矩阵、神经网络中的偏导数、黑塞矩阵、牛顿法优化器等。学习支持向量机SVM的基本概念,包括超平面、硬间隔、软间隔、Hinge Loss损失函数、核函数等。

课程安排:
  1. 1、链式法则如何传递参数误差
  2. 2、捕捉多变量函数的梯度变化方向--雅可比矩阵
  3. 3、神经网络优化核心:偏导数如何指导参数调整方向?
  4. 4、黑塞矩阵:用二阶导数分析损失函数曲面曲率
  5. 5、牛顿法优化器利用二阶导数加速优化模型参数
  6. 6、图像边缘检测利器:拉普拉斯算子简介
  7. 7、偏导数练习
  8. 8、支持向量机SVM:间隔最大化的数学魔法
  9. 9、SVM的超平面,超越传统平面的分类边界
  10. 10、超平面硬间隔,软间隔:完美分割与噪声容忍的平衡术
  11. 11、SVM最大化间隔:拉格朗日乘子优化最大分类间隔
  12. 12、SVM的Hinge Loss损失函数
  13. 13、用高维的眼光看数据 – SVM核函数的直观理解
  14. 14、SVM的多项式核函数:用多项式组合求解复杂分类边界
  15. 15、SVM的RBF核函数:高斯核的惊人魔力
  16. 16、sklearn调用SVM解决分类问题
  17. 17、练习:SVM支持向量机
阶段五: 概率论:应对现实世界中不确定性、神经网络的理论基础
4门课    ·   课程总时长:8小时
  • 第16周
  • 第17周
  • 第18周
  • 第19周
概率基础与离散概率分布

学习概率的基本概念,包括机器学习中的不确定性、概率的直观理解、频率派与贝叶斯派、随机变量等。学习离散概率分布,包括伯努利分布、二项分布、多项伯努利分布、多项分布等。

课程安排:
  1. 1、为什么机器学习模型需要处理不确定性?概率论的现实意义
  2. 2、概率的直观理解,几个概率的概念
  3. 3、两种概率学派:频率派与贝叶斯派
  4. 4、随机变量:如何用数学语言描述掷骰子的结果分布?
  5. 5、多随机变量:联合概率,边际概率,条件概率,独立性,排他性
  6. 6、蒙提霍尔问题及其它,概率论教你最优决策!
  7. 7、概率论入门练习
  8. 8、离散概率模型在机器学习分类任务中的应用解析
  9. 9、随机变量基础:定义、期望与方差在风险预测中的核心作用
  10. 10、离散与连续概率分布对比:PMF、PDF、CDF在数据建模中的实际应用
  11. 11、伯努利分布原理:二分类问题中的成功概率建模方法
  12. 12、二项分布详解:重复试验下的成功次数计算与用户行为预测
  13. 13、多项伯努利分布:多选项独立事件的概率建模及文本分类应用
  14. 14、多项分布应用:多元离散数据分析与推荐系统算法优化
  15. 15、练习:离散概率分布
连续概率分布与概率密度估计

学习连续概率分布,包括正态分布、指数分布、泊松分布、帕累托分布等。学习概率密度估计的基本概念,包括直方图、参数密度估计、核密度估计等。

课程安排:
  1. 1、连续概率分布可视化解析及其在机器学习模型评估中的应用(校准度与锐度)
  2. 2、正态分布与中心极限定理:大数据预测与抽样误差控制的核心工具
  3. 3、指数分布原理:时间间隔建模与设备寿命风险评估方法
  4. 4、泊松分布应用:低概率事件发生率预测与客服需求建模
  5. 5、帕累托分布与二八定律:资源分配优化及商业价值挖掘策略
  6. 6、统计量实战解析:均值/中位数/众数在统计数据数据中的作用
  7. 7、练习:连续概率分布
  8. 8、概率密度估计基础:数据建模与模型评估中的分布解析方法
  9. 9、直方图数据可视化实战:Matplotlib探索性分析数据的可能概率分布
  10. 10、直方图密度总结技巧:统计量提取与数据分布特征发现
  11. 11、参数密度估计方法:估计假设的概率密度函数的参数
  12. 12、核密度估计原理:非参数方法在复杂数据建模中的实现逻辑
  13. 13、核密度估计编程实现
  14. 14、用MISE平均积分平方误差方法评估密度估计的效果
  15. 15、练习:概率密度估计
最大似然估计,贝叶斯概率

学习最大似然估计的基本概念,包括似然、最大似然、正态分布的最大似然函数、逻辑回归等。学习贝叶斯概率的基本概念,包括贝叶斯定理、贝叶斯分类器、朴素贝叶斯分类器等。

课程安排:
  1. 1、似然函数与最大似然估计原理:模型参数优化的数学基础
  2. 2、正态分布的最大似然函数
  3. 3、最大似然估计逻辑回归原理
  4. 4、实现最大似然估计逻辑回归代码
  5. 5、神经网络训练本质:交叉熵损失函数与最大似然估计关系
  6. 6、练习:最大似然估计
  7. 7、贝叶斯定理:直观理解,证明,例子
  8. 8、贝叶斯定理的变形,例子
  9. 9、贝叶斯分类器的直观理解
  10. 10、分类实战:朴素贝叶斯分类器
  11. 11、高斯朴素贝叶斯分类器的直观理解
  12. 12、高斯朴素贝叶斯分类器Python实现
  13. 13、对数似然优化策略:模型训练数值稳定性增强技术
  14. 14、高斯模型参数估计与分类器调优指南(方差计算与过拟合控制)
  15. 15、练习:贝叶斯概率
贝叶斯回归

学习贝叶斯回归的基本概念,包括贝叶斯回归、正则化等。

课程安排:
  1. 1、贝叶斯回归,用概率的眼光和工具来重新认识回归问题
  2. 2、贝叶斯回归数学推导:先验分布选择与后验概率更新机制
  3. 3、贝叶斯回归的代码实现
  4. 5、正则化技术解析:贝叶斯先验分布与L2正则化的数学等价性
  5. 6、练习:贝叶斯回归
阶段六: 综合实战、总结
1门课    ·   课程总时长:10小时
  • 第20周
大语言模型实现:深入大语言模型的核心数学原理

分解大语言模型结构,亲手实现一个大语言模型。综合整个课中所学,理解数学为大语言模型提供的算法和理论基础、优化方法以及在数据分析和处理中的关键作用;直观感受大语言模型的语义逻辑和模型深层的向量脉动

课程安排:
  1. 1、生成式AI预训练与微调的核心骨架Transformer的总体架构析
  2. 2、文本语义建模与序列位置敏感性增强:词嵌入与位置编码
  3. 3、自注意力机制数学推导:权重动态分配与机器翻译对齐优化
  4. 4、解码器核心技术栈:掩码多头注意力与跨层上下文融合的文本生成控制

微信扫码

选课遇到问题?添加指导老师微信,1V1为您解答~
发送“课程名称”至老师微信,还可领取课程专属福利!

就业前景
课程特色
技术体系
项目实战
适合人群
课程大纲
返回顶部

学习咨询

选课、学习遇到问题?
扫码添加指导老师 1V1 帮助你!

扫码加顾问老师 立即咨询

微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师