登录
注册
登录
注册
首页
在线实训
师资培训
证书培训
1+X证书
双创工作室
竞赛指导
科普知识
全部分类
业务
课程
班级
公开课
登录
注册
首页
在线实训
师资培训
证书培训
1+X证书
双创工作室
竞赛指导
科普知识
全部分类
业务
课程
班级
公开课
项目前置知识学习
简介
查看课程
任务列表
第1任务: 1.1 自然语言处理概述
第2任务: 2.1 NLP的基本流程
第3任务: 2.2.1 语料字符处理-字符串函数
第4任务: 2.2.2 正则表达式
第5任务: 2.2.3 正则表达式应用
第6任务: 2.3.1 分词:正向最大匹配法
第7任务: 2.3.2 分词:正向最大匹配法实现
第8任务: 2.3.3 分词:逆向最大匹配法
第9任务: 2.4.1 N元语法模型
第10任务: 2.4.2 N元语法模型与分词
第11任务: 2.5.1 隐马尔可夫概述
第12任务: 2.5.2 隐马尔可夫实例
第13任务: 2.5.3 Viterbi算法
第14任务: 2.5.4 Viterbi算法应用
第15任务: 2.6 jieba分词
第16任务: 2.7 去停用词
第17任务: 3.1.1 向量化与独热编码
第18任务: 3.1.2 基于字典的one-hot实现
第19任务: 3.1.3 基于keras的one-hot表示
第20任务: 3.2 词袋模型
第21任务: 3.3 TF-IDF
第22任务: 3.4.1 Word2Vec模型概述
第23任务: 3.4.2 Word2Vec模型训练
第24任务: 3.4.3 Word2Vec模型应用
第25任务: 3.5 Doc2Vec模型
第26任务: 1.1 Python数据可视化概述
第27任务: 1.2 Matplotlib绘图库介绍
第28任务: 1.3 Matplotlib散点图绘制
第29任务: 1.4 Matplotlib绘制折线图
第30任务: 1.5 Matplotlib绘制柱状图
第31任务: 1.6 Matplotlib绘制饼图
第32任务: 2.1 Matplotlib例子的背景介绍
第33任务: 2.2 Matplotlib例子:预处理
第34任务: 2.3 Matplotlib例子:销售额随时间变化的可视化
第35任务: 2.4 Matplotlib例子:星期与销售额关系
第36任务: 2.5 Matplotlib例子:时间销售额与订单量的关系分析
第37任务: 1 PyTorch简介
第38任务: 2.1 创建张量
第39任务: 2.2 张量与数组相互转化
第40任务: 3.1 任务描述:构建一个线性模型
第41任务: 3.2 读取数据
第42任务: 3.3 构建初始模型及损失函数
第43任务: 3.4 test-构建优化器
第44任务: 3.4 构建优化器
第45任务: 3.5 最小化方差(训练)
第46任务: 3.6 执行多轮训练
第47任务: 3.7 训练过程可视化
第48任务: 4.1 案例目标与流程
第49任务: 4.2 加载数据
第50任务: 4.3 加工数据
第51任务: 4.4 模型结构介绍
第52任务: 4.5 构建模型
第53任务: 4.6 模型配置
第54任务: 4.7 模型训练
第55任务: 4.8 执行多轮训练
第56任务: 4.9 模型性能评估
第57任务: 4.10 保存模型
第58任务: 4.11 加载模型
第59任务: 4.12 模型应用
第60任务: 1 引言
第61任务: 2.1 浅层神经网络的局限
第62任务: 2.2 卷积操作
第63任务: 2.3 卷积操作的优势
第64任务: 2.4 池化及全连接
第65任务: 2.5 高维输入及多filter卷积
第66任务: 2.6 实现卷积操作
第67任务: 2.7 将卷积结果可视化
第68任务: 2.8 实现池化操作
第69任务: 3.1 循环神经网络简介
第70任务: 3.2 循环神经网络的常见结构
第71任务: 4.1 LSTM的三个门
第72任务: 4.2 LSTM三个门的计算示例
第73任务: 4.3 实现LSTM操作
第74任务: 4.4 LSTM返回值解读
第75任务: 5.1 加载数据
第76任务: 5.2 数据加工
第77任务: 5.3 搭建循环神经网络
第78任务: 5.4 模型配置
第79任务: 5.5 模型训练
第80任务: 5.6 模型性能验证
第81任务: 1 大模型简介
第82任务: 2.1 Transformer引入
第83任务: 2.2 Transformer整体计算流程-训练阶段
第84任务: 2.3 Transformer整体计算流程-推理阶段
第85任务: 2.4 Input Embedding操作
第86任务: 2.5 注意力机制介绍
第87任务: 2.6 attention层的计算过程01
第88任务: 2.7 attention层的计算过程02
第89任务: 2.8 从单头到多头注意力
第90任务: 2.9 Encoder整体计算流程
第91任务: 2.10 encoder代码实现
第92任务: 2.11 Decoder整体计算过程
第93任务: 2.12 Masked Attention及Decoder输出
第94任务: 2.13 decoder代码实现
第95任务: 2.14 Transformer代码实现
第96任务: 2.15 Transformer的并行计算能力
第97任务: 3.1 生成式预训练模型GPT简介
第98任务: 3.2 GPT预训练流程
第99任务: 3.3 GPT微调流程
第100任务: 4.1 BERT简介
第101任务: 4.2 BERT预训练流程
第102任务: 4.3 BERT微调流程
第103任务: 5.1 HuggingFace简介
第104任务: 5.2 使用pipeline进行情感分析
第105任务: 5.3 将预训练模型下载至本地及调用
第106任务: 5.4 使用pipeline完成其他类型任务
第107任务: 5.5 使用transformers完成机器翻译任务
第108任务: 6 小结
第109任务: 项目前置知识学习配套资料下载.zip
学
习
中
心
TOP
张老师
群1:897428979
群2:642795722
工作时间:9:00 - 18:00
张老师:18927565259
邮箱:
3120701392@qq.com