首页 体系课 程序员数学体系课
程序员数学体系课

独家设计:严选AI强关联数学干货、可视化呈现“能看见”的数理、低学习门槛,助力高效掌握数学体系

应用导向:50+AI案例,60+习题精讲,5+拓展主题,数学理论与AI实例紧密融合

程序员友好:数学与代码完美结合,架设AI数学内核和程序员工程实践之间的桥梁

20 课程内容
12 个月 教学服务期限
60 小时 视频时长
8 累计学习人数
100% 累计好评度
满599减100 满299减30
20 课程内容
12 个月 教学服务期限
70000 手敲代码
2 企业及项目
16+ 实操案例
8 累计学习人数
活动到手价 ¥1699.00
7天未学可退 ¥1999

数学—AI人工智能基石

AI在可预见的多年内还将以爆发的态势增长,AI人才需求与日俱增,但普通程序员困于没有扎实的专业数学基础,局限在AI应用层开发,在进一步构建自己的AI模型、调参优化、处理数据并评估性能方面无法突破,甚至很多教程也基于有相关高等数学基础而设计,对于大部分毕业后再未接触过数学的开发人员有相当的难度,鉴于此本课程严选AI强关联数学干货,降低学习门槛、可视化呈现、数学与代码结合的程序员友好课程设计,广泛覆盖AI所必备的数学基础,旨在消除程序员在深入AI领域的数学屏障,无论你是想夯实数学基础,还是深耕AI领域,这门课程都将是你的首选。

程序员友好设计,4大独家优势架构数学内核与工程实践桥梁

围绕AI筛选知识点,一站式掌握与AI紧密关联的数学知识体系,只学有用的

数学与AI项目实例紧密融合,学员动手实操,避免一看就会,一用就废

  • 大语言模型的数学原理
  • 手工实现一个
    分类问题神经网络
  • 实现一个自动微分框架
  • 大手搓一个python矩阵类

项目简介

深入大语言模型的核心数学原理:分解大语言模型的结构,亲手实现一个简单大语言模型。综合在整个课程中所学,理解数学为大语言模型提供的算法和理论基础、优化方法以及在数据分析和处理中的关键作用;通过实验直观的感受大语言模型的语义逻辑,观察模型深层的向量脉动;从而更有效的使用大模型,为更深入的工作打下基础

项目内容:

对应数学原理:

Transformer总体架构,历史和现状
矩阵运算;均值,方差,归一化;激活函数;概率分布与条件概率链式法则与梯度下降
Embedding,位置编码:将离散的单词映射为连续向量,保留语义,引入位置编码以保留序列顺序信息
向量空间;相似度计算;周期性信号;主成分分析 PCA
注意力机制:包括 Q、K、V 的计算及点积注意力公式
矩阵分解;特征值与特征向量;点积;归一化;Softmax 函数与概率分布;均值,方差
解码器:掩码多头注意力(Masked Multi-Head Attention)和上下文融合,生成文本输出的过程
条件概率与贝叶斯定理;梯度下降与反向传播;链式法则与自动微分;信息熵

项目简介

从数学原理入手,深入剖析神经网络的核心原理。课程将带领学生用Python从零实现一个简易的全连接神经网络(含输入层、隐藏层、输出层),网络中关键组件包括:激活函数(Sigmoid 和 Softmax)、损失函数(交叉熵)以及训练数据的处理方法。通过一个真实分类数据训练并验证模型效果。每一步代码实现均对应数学公式推导,重点解释梯度计算、反向传播等关键概念。

项目内容:

对应数学原理:

神经网络结构
矩阵运算(矩阵乘法、加法);线性代数基础;非线性变换;函数复合与链式法则;
Sigmoid激活函数:激活函数的作用及其数学表达式;解释其如何引入非线性特性。
指数函数与对数函数;导数与梯度;单调函数性质;
Softmax激活函数:介绍 Softmax 激活函数的定义及其在多分类问题中的应用;讲解如何将原始输出转换为概率分布。
指数函数与归一化;概率分布与条件概率;偏导数计算;
交叉熵 (Cross-Entropy)损失函数:解释交叉熵损失函数的定义及其在分类任务中的作用;讨论如何衡量预测值与真实值之间的差异。
最大似然估计;梯度下降与优化理论;
Softmax-Cross-Entropy 的偏导数:推导 Softmax 和交叉熵组合的损失函数的偏导数;讲解反向传播中梯度的计算方法。
复合函数求导;链式法则;偏导数与梯度更新规则;
训练数据处理:讲解数据标准化的必要性及其数学原理;介绍均值归一化和标准差缩放的方法。
统计学基础:均值、方差、标准差;

项目简介

深入探讨自动微分的数学原理,并带领大家手工实现一个基于自动微分的神经网络框架。从自动微分的基础原理出发,通过构建计算图、实现反向传播算法,逐步理解神经网络中梯度计算的本质。课程将涵盖自动微分的前向模式和反向模式,并通过代码实现softmax和交叉熵损失的自动微分,最终将自动微分集成到神经网络中,展示其在模型训练中的强大优势。

项目内容:

对应数学原理:

神自动微分的原理:计算图,前向传导:介绍自动微分的核心思想,包括计算图的构建和前向传导过程;讲解如何将数学表达式分解为基本操作节点。
计算图的定义;前向传播的流程;链式法则;函数复合与偏导数
自动微分之后向传导:深入讲解反向传导的过程,基于链式法则递归计算每个节点的梯度;实现梯度的自动累积。
指链式法则;反向传播算法;偏导数与梯度计算;递归的应用
代码实现 Softmax + 交叉熵的自动微分:实现 Softmax 激活函数和交叉熵损失函数的自动微分,推导其梯度公式并验证结果。
Softmax 函数的定义与性质;交叉熵损失函数;复合函数求导;梯度下降优化
将实现的自动微分应用到神经网络中:将自动微分框架应用于一个简单的神经网络,完成前向传播、反向传播和参数更新,训练模型完成分类任务。
神经网络结构;梯度下降法;参数更新规则;损失函数与优化目标

项目简介

带领学生深入理解矩阵操作在科学计算和机器学习中的核心作用,并通过动手实践,从零开始实现一个完整的矩阵类。课程内容覆盖矩阵的基本操作及其背后的数学原理,包括加减乘除、点积、转置、行列式计算、高斯消元法和 LU 分解等。在编码过程中,我们将逐一解析这些操作的数学基础,帮助学生建立从理论到实践的完整认知。

项目内容:

对应数学原理:

重载加减乘除运算符:重载矩阵类的加法、减法、数乘和矩阵乘法运算符,支持矩阵之间的基本运算。
矩阵加减法;数乘运算;矩阵乘法规则
实现矩阵的点积运算:实现矩阵的点积(内积)运算,用于科学计算和机器学习中的权重更新和激活函数计算。
指点积定义;矩阵维度匹配;向量内积与矩阵乘法的关系
实现矩阵的转置:实现矩阵的转置操作,即将矩阵的行变为列,列变为行。
转置矩阵的定义;索引变换;对称矩阵的性质
实现递归求矩阵的行列式:使用递归方法计算矩阵的行列式,基于拉普拉斯展开公式。
行列式的定义;代数余子;递归
实现高斯消元法求矩阵的秩:使用高斯消元法将矩阵化为阶梯形矩阵,进而求解矩阵的秩。
复高斯消元法;阶梯形矩阵;矩阵的秩与线性无关性
实现舒尔补方法对矩阵LU分解:使用舒尔补方法实现矩阵的 LU 分解,即将矩阵分解为下三角矩阵L和上三角矩阵U的乘积。
统LU 分解的定义;舒尔补方法;线性方程组的求解与矩阵分解

还有一套机器学习工具与框架,让你更高效的学习和构建业务解决方案

慕课网诚意钜献,为你量身定制

数学基础薄弱、缺乏实践的大学
生(数学停留在应试层面的)

想转AI专业的大学生,以及有意
转型AI领域的程序员和开发人员

已在AI领域工作,想进一步提
升、深入底层开发的职场人士

想深入大模型原理,想对大模型
微调,上下文学习,Prompt
Engineering,和想训练自己的
大模型,有更高追求的同学

学前技术储备

1、掌握Python语法
2、需要对中学的数学知识还有一些印象,包括:代数,几何

资深技术专家授课,精准干货+专业指导,让你的每分钟收获满满

GuoSr

算法工程师

硕士毕业于人工智能专业,曾长期在知名外企担任项目专家,深度参与多个AI项目的全流程工作,包括筹划、开发与实施,拥有AI理论知识和丰富的实践经验。同时,具备跨领域的产品开发经验,熟悉软件开发与人工智能的结合应用,深刻理解程序员在人工智能领域的痛点与挑战。

除了出色的视频内容,这里有伴你整个职业生涯的“成长社区”

学习时你能在这里获取答案,工作后你能在这里解决难题

由于课程类型与教学目标不同,学习服务会有不同,具体服务可在线咨询
问答专区
作业专区
笔记专区
资料专区
编程遇难点,名师来指点;疑难汇总一键查看,海量问答覆盖全面
多方位知识面,分层巩固吸收;学练测一体,一对一项目点评
脱离时空限制,随记随查很方便;总结课程重点,分享提升代码经验
横向拓展,超全配套教辅资源;纵向延伸,源码开放更助知识理解
了解更多

课程大纲及学习周期安排

为保证课程内容紧跟市场变化,课程章节将逐步开放,直至课程完结

阶段一: 线性代数:批量数据规律的研究
5门课    ·   课程总时长:15小时
  • 第1周
  • 第2周
  • 第3周
  • 第4周
  • 第5周
线性代数入门:由来、与人工智能的关系

介绍课程,配置开发环境,快速入门编程,了解线性代数的基本概念和应用,学习线性代数核心概念-走进矩阵

课程安排:
  1. 1、准备编程环境
  2. 2、Matplotlib快速上手、练习
  3. 3、常用科学计算,机器学习库的介绍和对比
  4. 4、线性代数入门练习
  5. 5、从数值到多维数据--计算机批量数据处理的基石:标量、向量、矩阵、张6、量到底是什么?
  6. 7、批量数据核心操作:向量的加减乘除
  7. 8、机器学习中的尺子:向量范数
  8. 9、让数据动起来,矩阵乘法与变换
  9. 10、对称矩阵、对角矩阵……这些特殊矩阵的what和why
矩阵进阶运算与矩阵分解

深入学习矩阵的高级运算和性质,包括转置、逆、迹、秩等以及矩阵计算的基石:矩阵分解

课程安排:
  1. 1、批量数据隐藏的信息:矩阵转置/逆/迹/秩的作用
  2. 2、行列式:矩阵信息量的指标
  3. 3、稀疏矩阵:现实数据表示和压缩的数据结构
  4. 4、更高维数据的表示:张量
  5. 5、矩阵进阶运算的练习
  6. 6、矩阵分身术:矩阵分解介绍
  7. 7、LU分解:高效解线性方程组与加速工程计算
  8. 8、QR分解:从最小二乘法到机器人定位的核心工具
  9. 9、Cholesky分解:金融风险评估与数值模拟的加速器
  10. 10、矩阵分解练习
特征分解

学习特征分解的定义、代码调用、直观理解、手工计算方法和性质。

课程安排:
  1. 1、什么是特征分解?从数学定义到现实问题的映射
  2. 2、调用Scipy进行特征分解
  3. 3、一眼就明白:通过可视化理解特征分解
  4. 4、手把手教学:一步步完成特征分解计算
  5. 5、特征分解的有趣性质
  6. 6、特征分解的练习
奇异值分解SVD

深入学习奇异值分解的定义、代码调用、直观解释、作用、与特征值分解的关系、伪逆等。

课程安排:
  1. 1、奇异值分解SVD介绍:从图片压缩到推荐系统,SVD奇异的作用
  2. 2、调用Scipy进行SVD分解
  3. 3、奇异值分解的底层逻辑与独特优势
  4. 4、SVD分解能解决哪些问题?
  5. 5、特征值分解与SVD分解的关系
  6. 6、SVD分解的应用:伪逆求问题近似解
  7. 7、奇异值分解SVD练习
主成分分析PCA

学习主成分分析的直观理解、协方差矩阵、分解过程、与SVD的关系、应用等。

课程安排:
  1. 1、矩阵的主成分是什么?主成分分析又能做什么?
  2. 2、找到数据背后的隐藏关联--协方差矩阵
  3. 3、一步步拆解PCA:从数据标准化到主成分提取
  4. 4、同样是数据降维:PCA与SVD有何异同,他们之间的关系如何?
  5. 5、PCA在真实场景中的威力
  6. 6、PCA主成分分析的练习
阶段二: 线性代数实战
2门课    ·   课程总时长:9小时
  • 第6周
  • 第7周
Numpy快速上手,用Python实现矩阵

帮助怼Numpy不太熟悉的同学提供了Numpy快速入门知识,再通过带同学自己手工实现一个python矩阵操作的类来加深对矩阵运算规律和性质的理解。

课程安排:
  1. 1、机器学习和数据科学的基石:Numpy的介绍
  2. 2、Numpy数组的灵活操作:数组的创建,索引,切片
  3. 3、更有效的内存使用:Numpy的复制和视图
  4. 4、灵活的数组过滤:布尔数组索引
  5. 5、数据变形记:维度调整与遍历
  6. 6、多维数据拼接:concatenate, stack, hstack, vstack, dstack
  7. 7、不同形状的数组能运算:Numpy的广播机制
  8. 8、Numpy的矩阵操作以及算数运算的支持
  9. 9、数据升维降维:添加,删除维度
  10. 10、Numpy相关知识点练习
  11. 11、为什么需要自定义矩阵类?筑牢机器学习的基石
  12. 12、让矩阵数据一目了然?重载类的字符串表达实现可视化调试
  13. 13、重载加减乘除运算符
  14. 14、实现矩阵的点积
  15. 15、实现矩阵的转置
  16. 16、实现递归求矩阵的行列式
  17. 17、实现高斯消元法求矩阵的列
  18. 18、Python实现一个矩阵类的练习
数据处理方法与矩阵与图形变换

学习常用的数据处理方法,包括正态分布、数据归一化、标准化、模型正则化等。学习矩阵在图形变换中的应用,包括缩放、旋转、剪切、移动、组合变换、倾斜等。

课程安排:
  1. 1、自然、社会的普适数据分布:正态分布,标准分布
  2. 2、消除量纲差异:归一化如何让特征工程更高效?
  3. 3、不同算法需要怎样的输入?标准化处理打通模型适配瓶颈
  4. 4、正则化又是什么东西
  5. 5、常见数据处理方式练习
  6. 6、图像尺寸调整:缩放矩阵如何改变像素坐标?
  7. 7、二维图像的旋转矩阵
  8. 8、剪切矩阵实现图像变形
  9. 9、平移矩阵控制图形位置偏移
  10. 10、在一个矩阵中实现旋转剪切和平移
  11. 11、倾斜矩阵模拟结构变形
  12. 12、齐次坐标:如何整合所有变换参数‌
  13. 13、Python图像处理库Pillow简介
  14. 14、矩阵图形变换的复习
阶段三: 微积分:研究数据变化的规律与模型优化
3门课    ·   课程总时长:8小时
  • 第8周
  • 第9周
  • 第10周
微积分入门,微积分核心基础

介绍微积分的基本概念,包括斜率、切线、极限、导数、穷竭法、曲线下面积等,学习极限、连续性、斜率和导数的基本概念和计算方法。

课程安排:
  1. 1、为什么人工智能要学微积分?数学工具的革命性力量
  2. 2、如何描述数据变化及趋势:斜率,切线,极限,导数,穷竭法,曲线下面积
  3. 3、从牛顿到莱布尼茨:微积分如何重塑现代科学世界观?
  4. 4、远不止是自动优化和梯度下降,微积分在人工智能中的用处
  5. 5、练习:理解极限
  6. 6、函数的连续性是什么--直观理解
  7. 7、用极限的思维重新认识世界
  8. 8、常用函数的极限特性
  9. 9、Python的Sympy库如何处理复杂极限问题
  10. 10、极限的运算规则
  11. 11、嵌套函数的极限
  12. 12、有理化技巧处理根号型极限问题
  13. 13、变化率的研究:导数的直观理解
  14. 14、符号计算库sympy简介
  15. 15、微积分基础知识练习
微积分进阶与多元微积分

学习常见函数的导数、微分公式、链式规则、高阶导数、不定式和洛必达法则等。学习多元微积分的基本概念,包括偏导数、偏导数规则、梯度向量、高阶偏导数等。

课程安排:
  1. 1、导数公式帮助求解复杂函数导数
  2. 2、导数规则:四则运算与隐函数求导
  3. 3、二阶导数的物理意义与曲线凹凸性判断
  4. 4、不定式和洛必达法则,求解0/0型极限
  5. 5、多元函数求导的核心工具,模型优化的算法基础:复合函数与链式法则
  6. 6、链式法则在神经网络中的作用:反向传播算法如何实现参数优化?
  7. 7、微积分进阶的练习
  8. 8、从多元函数到多元微积分
  9. 9、多元函数的变化率的研究:偏导数
  10. 10、偏导数的运算规则
  11. 11、梯度向量以及可视化
  12. 12、机器学习参数调优:梯度下降如何借助偏导数寻找最优解?
  13. 13、高阶偏导数与机器学习模型优化的重要应用
  14. 14、高阶偏导数的练习
积分基础

学习积分的基本概念,包括积分的直观理解、不定积分与定积分、积分的性质等。

课程安排:
  1. 1、量化数据变化的总量:微积分--从几何图形到现实累积的直观分析
  2. 2、不定积分与定积分:函数家族vs具体数值
  3. 3、积分的线性性与区间可加性:积分的性质
  4. 4、如何从不定积分计算定积分
  5. 5、用Scipy玩转数值积分:Python中如何快速获得近似解?
  6. 6、Sympy解析积分:符号运算如何实现精确的数学推导?
  7. 7、积分构建概率世界:从概率密度到累积分布函数是怎样炼成的?
  8. 8、练习:积分基础
阶段四: 微积分实战和进阶
5门课    ·   课程总时长:10小时
  • 第11周
  • 第12周
  • 第13周
  • 第14周
  • 第15周
用微积分知识实现一个神经网络

实现多分类问题的神经网络,学习回归问题与分类问题、神经网络结构、激活函数、损失函数等。

课程安排:
  1. 1、从回归到分类的问题建模
  2. 2、神经网络结构
  3. 3、S型曲线转化为二分类概率:sigmoid激活函数
  4. 4、将神经元输出压缩为概率的激活函数:softmax
  5. 5、如何量化预测结果与真实标签的差距的损失函数:交叉熵 cross-entropy
  6. 6、反向传播核心:Softmax与交叉熵联合求导的数学技巧
  7. 7、数据标准化:为什么特征缩放能加速神经网络收敛?
  8. 8、从微积分推导到Python代码的完整实现
  9. 9、练习:实现分类神经网络
ROC曲线与分类性能评估

学习分类问题与回归问题的区别,ROC曲线的定义和应用,混淆矩阵等。

课程安排:
  1. 1、如何区分预测类型:连续值输出与类别判断的本质差异?
  2. 2、概率阈值调整:如何平衡漏判与误判的风险?
  3. 3、混淆矩阵:分类模型效果化验单
  4. 4、实战可视化:用Sklearn一键生成混淆矩阵热力图
  5. 5、四大核心指标拆解:准确率、召回率如何反映模型短板?
  6. 6、ROC曲线解剖:为什么TPR与FPR的博弈能评估模型?
  7. 7、AUC值密码破译:用Python代码实现模型效果量化评分
  8. 8、分类问题与ROC练习
神经网络梯度问题

研究神经网络的梯度消失和梯度爆炸问题,学习ReLU激活函数、正则化技术等。

课程安排:
  1. 1、神经网络的梯度消失问题,代码复现梯度消失
  2. 2、分析神经网络梯度消失的原因
  3. 3、ReLU激活函数和其它办法来应对梯度消失问题
  4. 4、深入研究RELU和它的变形
  5. 5、神经网络的梯度爆炸问题以及成因
  6. 6、代码演示一个梯度爆炸问题的应对方式:梯度缩放和梯度剪裁
  7. 7、神经网络过拟合与欠拟合以及成因
  8. 8、L1正则化和L2正则化技术的直观理解
  9. 9、应对过拟合与欠拟合的技术:dropout
  10. 10、神经网络梯度问题练习
神经网络自动微分

学习自动微分的原理和实现,包括计算图、前向传导、后向传导等。

课程安排:
  1. 1、为什么要用自动微分
  2. 2、自动微分的原理:计算图,前向传导
  3. 3、自动微分之后向传导
  4. 4、代码实现softmax + 交叉熵的自动微分
  5. 5、将实现的自动微分应用到神经网络中
  6. 6、pytorch和它的自动微分工具:autograd
  7. 7、练习:实现自动微分功能
偏导数与模型优化与支持向量机SVM

学习偏导数的链式法则、雅可比矩阵、神经网络中的偏导数、黑塞矩阵、牛顿法优化器等。学习支持向量机SVM的基本概念,包括超平面、硬间隔、软间隔、Hinge Loss损失函数、核函数等。

课程安排:
  1. 1、链式法则如何传递参数误差
  2. 2、捕捉多变量函数的梯度变化方向--雅可比矩阵
  3. 3、神经网络优化核心:偏导数如何指导参数调整方向?
  4. 4、黑塞矩阵:用二阶导数分析损失函数曲面曲率
  5. 5、牛顿法优化器利用二阶导数加速优化模型参数
  6. 6、图像边缘检测利器:拉普拉斯算子简介
  7. 7、偏导数练习
  8. 8、支持向量机SVM:间隔最大化的数学魔法
  9. 9、SVM的超平面,超越传统平面的分类边界
  10. 10、超平面硬间隔,软间隔:完美分割与噪声容忍的平衡术
  11. 11、SVM最大化间隔:拉格朗日乘子优化最大分类间隔
  12. 12、SVM的Hinge Loss损失函数
  13. 13、用高维的眼光看数据 – SVM核函数的直观理解
  14. 14、SVM的多项式核函数:用多项式组合求解复杂分类边界
  15. 15、SVM的RBF核函数:高斯核的惊人魔力
  16. 16、sklearn调用SVM解决分类问题
  17. 17、练习:SVM支持向量机
阶段五: 概率论:应对现实世界中不确定性、神经网络的理论基础
4门课    ·   课程总时长:8小时
  • 第16周
  • 第17周
  • 第18周
  • 第19周
概率基础与离散概率分布

学习概率的基本概念,包括机器学习中的不确定性、概率的直观理解、频率派与贝叶斯派、随机变量等。学习离散概率分布,包括伯努利分布、二项分布、多项伯努利分布、多项分布等。

课程安排:
  1. 1、为什么机器学习模型需要处理不确定性?概率论的现实意义
  2. 2、概率的直观理解,几个概率的概念
  3. 3、两种概率学派:频率派与贝叶斯派
  4. 4、随机变量:如何用数学语言描述掷骰子的结果分布?
  5. 5、多随机变量:联合概率,边际概率,条件概率,独立性,排他性
  6. 6、蒙提霍尔问题及其它,概率论教你最优决策!
  7. 7、概率论入门练习
  8. 8、离散概率模型在机器学习分类任务中的应用解析
  9. 9、随机变量基础:定义、期望与方差在风险预测中的核心作用
  10. 10、离散与连续概率分布对比:PMF、PDF、CDF在数据建模中的实际应用
  11. 11、伯努利分布原理:二分类问题中的成功概率建模方法
  12. 12、二项分布详解:重复试验下的成功次数计算与用户行为预测
  13. 13、多项伯努利分布:多选项独立事件的概率建模及文本分类应用
  14. 14、多项分布应用:多元离散数据分析与推荐系统算法优化
  15. 15、练习:离散概率分布
连续概率分布与概率密度估计

学习连续概率分布,包括正态分布、指数分布、泊松分布、帕累托分布等。学习概率密度估计的基本概念,包括直方图、参数密度估计、核密度估计等。

课程安排:
  1. 1、连续概率分布可视化解析及其在机器学习模型评估中的应用(校准度与锐度)
  2. 2、正态分布与中心极限定理:大数据预测与抽样误差控制的核心工具
  3. 3、指数分布原理:时间间隔建模与设备寿命风险评估方法
  4. 4、泊松分布应用:低概率事件发生率预测与客服需求建模
  5. 5、帕累托分布与二八定律:资源分配优化及商业价值挖掘策略
  6. 6、统计量实战解析:均值/中位数/众数在统计数据数据中的作用
  7. 7、练习:连续概率分布
  8. 8、概率密度估计基础:数据建模与模型评估中的分布解析方法
  9. 9、直方图数据可视化实战:Matplotlib探索性分析数据的可能概率分布
  10. 10、直方图密度总结技巧:统计量提取与数据分布特征发现
  11. 11、参数密度估计方法:估计假设的概率密度函数的参数
  12. 12、核密度估计原理:非参数方法在复杂数据建模中的实现逻辑
  13. 13、核密度估计编程实现
  14. 14、用MISE平均积分平方误差方法评估密度估计的效果
  15. 15、练习:概率密度估计
最大似然估计,贝叶斯概率

学习最大似然估计的基本概念,包括似然、最大似然、正态分布的最大似然函数、逻辑回归等。学习贝叶斯概率的基本概念,包括贝叶斯定理、贝叶斯分类器、朴素贝叶斯分类器等。

课程安排:
  1. 1、似然函数与最大似然估计原理:模型参数优化的数学基础
  2. 2、正态分布的最大似然函数
  3. 3、最大似然估计逻辑回归原理
  4. 4、实现最大似然估计逻辑回归代码
  5. 5、神经网络训练本质:交叉熵损失函数与最大似然估计关系
  6. 6、练习:最大似然估计
  7. 7、贝叶斯定理:直观理解,证明,例子
  8. 8、贝叶斯定理的变形,例子
  9. 9、贝叶斯分类器的直观理解
  10. 10、分类实战:朴素贝叶斯分类器
  11. 11、高斯朴素贝叶斯分类器的直观理解
  12. 12、高斯朴素贝叶斯分类器Python实现
  13. 13、对数似然优化策略:模型训练数值稳定性增强技术
  14. 14、高斯模型参数估计与分类器调优指南(方差计算与过拟合控制)
  15. 15、练习:贝叶斯概率
贝叶斯回归

学习贝叶斯回归的基本概念,包括贝叶斯回归、正则化等。

课程安排:
  1. 1、贝叶斯回归,用概率的眼光和工具来重新认识回归问题
  2. 2、贝叶斯回归数学推导:先验分布选择与后验概率更新机制
  3. 3、贝叶斯回归的代码实现
  4. 5、正则化技术解析:贝叶斯先验分布与L2正则化的数学等价性
  5. 6、练习:贝叶斯回归
阶段六: 综合实战、总结
1门课    ·   课程总时长:10小时
  • 第20周
大语言模型实现:深入大语言模型的核心数学原理

分解大语言模型结构,亲手实现一个大语言模型。综合整个课中所学,理解数学为大语言模型提供的算法和理论基础、优化方法以及在数据分析和处理中的关键作用;直观感受大语言模型的语义逻辑和模型深层的向量脉动

课程安排:
  1. 1、生成式AI预训练与微调的核心骨架Transformer的总体架构析
  2. 2、文本语义建模与序列位置敏感性增强:词嵌入与位置编码
  3. 3、自注意力机制数学推导:权重动态分配与机器翻译对齐优化
  4. 4、解码器核心技术栈:掩码多头注意力与跨层上下文融合的文本生成控制

微信扫码

选课遇到问题?添加指导老师微信,1V1为您解答~
发送“课程名称”至老师微信,还可领取课程专属福利!

就业前景
课程特色
技术体系
项目实战
适合人群
课程大纲
领取福利
返回顶部

学习咨询

选课、学习遇到问题?
扫码添加指导老师 1V1 帮助你!

扫码加顾问老师 立即咨询

微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

在线咨询

领取优惠

免费试听

领取大纲

扫描二维码,添加
你的专属老师