登录
注册
登录
注册
首页
在线实训
师资培训
证书培训
1+X证书
双创工作室
竞赛指导
科普知识
全部分类
业务
课程
班级
公开课
登录
注册
首页
在线实训
师资培训
证书培训
1+X证书
双创工作室
竞赛指导
科普知识
全部分类
业务
课程
班级
公开课
首页
项目前置知识学习
0
人加入学习
项目前置知识学习
价格
免费
学习有效期
截止:2024-09-30 (随到随学)
已收藏
收藏
分享
扫一扫
扫二维码继续学习 二维码时效为半小时
分享
已收藏
收藏
该课程属于
中文地址要素解析
请加入后再学习
目录
笔记
(0)
介绍
全部任务
全部任务
自然语言处理概述
NLP的基本流程
语料字符处理-字符串函数
正则表达式
正则表达式应用
分词:正向最大匹配法
分词:正向最大匹配法实现
分词:逆向最大匹配法
N元语法模型
N元语法模型与分词
隐马尔可夫概述
隐马尔可夫实例
Viterbi算法
Viterbi算法应用
jieba分词
去停用词
向量化与独热编码
基于字典的one-hot实现
基于keras的one-hot表...
词袋模型
TF-IDF
Word2Vec模型概述
Word2Vec模型训练
Word2Vec模型应用
Doc2Vec模型
PyTorch简介
创建张量
张量与数组相互转化
任务描述:构建一个线性模型
读取数据
构建初始模型及损失函数
test-构建优化器
构建优化器
最小化方差(训练)
执行多轮训练
训练过程可视化
案例目标与流程
加载数据
加工数据
模型结构介绍
构建模型
模型配置
模型训练
执行多轮训练
模型性能评估
保存模型
加载模型
模型应用
引言
浅层神经网络的局限
卷积操作
卷积操作的优势
池化及全连接
高维输入及多filter卷积
实现卷积操作
将卷积结果可视化
实现池化操作
循环神经网络简介
循环神经网络的常见结构
LSTM的三个门
LSTM三个门的计算示例
实现LSTM操作
LSTM返回值解读
加载数据
数据加工
搭建循环神经网络
模型配置
模型训练
模型性能验证
大模型简介
Transformer引入
Transformer整体计算流...
Transformer整体计算流...
Input Embedding操...
注意力机制介绍
attention层的计算过程0...
attention层的计算过程0...
从单头到多头注意力
Encoder整体计算流程
encoder代码实现
Decoder整体计算过程
Masked Attention...
decoder代码实现
Transformer代码实现
Transformer的并行计算...
生成式预训练模型GPT简介
GPT预训练流程
GPT微调流程
BERT简介
BERT预训练流程
BERT微调流程
HuggingFace简介
使用pipeline进行情感分析
将预训练模型下载至本地及调用
使用pipeline完成其他类型...
使用transformers完成...
小结
【下载】项目前置知识学习-配套资...
排序:
最新笔记
最新笔记
点赞最多
暂无笔记
授课教师
张敏
数据挖掘与人工智能金牌讲师
课程特色
视频(97)
下载资料(1)
学员动态
还没有动态
学
习
中
心
TOP
张老师
群1:897428979
群2:642795722
工作时间:9:00 - 18:00
张老师:18927565259
邮箱:
3120701392@qq.com