班级规模及环境--热线:4008699035 手机:15921673576( 微信同号) |
坚持小班授课,为保证培训效果,增加互动环节,每期人数限3到5人。 |
上课时间和地点 |
上课地点:【上海】:同济大学(沪西)/新城金郡商务楼(11号线白银路站) 【深圳分部】:电影大厦(地铁一号线大剧院站)/深圳大学成教院 【北京分部】:北京中山学院/福鑫大楼 【南京分部】:金港大厦(和燕路) 【武汉分部】:佳源大厦(高新二路) 【成都分部】:领馆区1号(中和大道) 【沈阳分部】:沈阳理工大学/六宅臻品 【郑州分部】:郑州大学/锦华大厦 【石家庄分部】:河北科技大学/瑞景大厦 【广州分部】:广粮大厦 【西安分部】:协同大厦
最近开课时间(周末班/连续班/晚班):即将开课,详情请咨询客服! |
实验设备 |
☆资深工程师授课
☆注重质量
☆边讲边练
☆合格学员免费推荐工作
★实验设备请点击这儿查看★ |
质量保障 |
1、培训过程中,如有部分内容理解不透或消化不好,可免费在以后培训班中重听;
2、课程完成后,授课老师留给学员手机和Email,保障培训效果,免费提供半年的技术支持。
3、培训合格学员可享受免费推荐就业机会。 |
课程大纲 |
|
第1章:文本挖掘概述
第2章:磨刀不误砍柴工
第3章:分词
第4章:词云展示
第5章:文档信息的向量化
第6章:关键词提取
第7章:抽取文本主题
第8章:文本相似度
第9章:文档分类
第10章:情感分析
第10章:自动摘要
第11章:自动写作
第1章文本挖掘概述
1-1什么是文本挖掘
1-2文本挖掘的基本流程和任务
1-3文本挖掘的基本思路
1-4语料数据化时需要考虑的工作
第2章磨刀不误砍柴工
2-1Python常用IDE简介
2-2Anaconda的安装与配置
2-3Jupyter Notebook的基本操作
2-4NLTK的安装与配置
2-5什么是语料库
2-6准备《射雕》语料库
第3章分词
3-1分词原理简介
3-2结巴分词的基本用法
3-3使用自定义词典和搜狗细胞词库
3-4去除停用词
3-5词性标注及其他
第4章词云展示
4-1词频统计
4-2词云概述
4-3wordcloud包的安装
4-4绘制词云
4-5设置词云背景模板
4-6修改词云颜色
第5章文本信息的向量化
5-1词袋模型
5-2词袋模型的gensim实现
5-3用Pandas生成文档词条矩阵
5-4用sklearns生成文档-词条矩阵
5-5从词袋模型到N-gram模型
5-6文本信息的分布式表示
5-7共现矩阵
5-8NNLM模型的突破
5-9word2vec一出,满座皆惊
第6章关键词提取
6-1关键词提取的基本思路
6-2TF-IDF 算法
6-3TF-IDF算法的jieba实现
6-4TF-IDF算法的sklearn实现
6-5TF-IDF算法的gensim实现
6-6TextRank算法
第7章抽取文档主题
7-1主题模型概述
7-2主题模型的sklearn实现
7-3主题模型的gensim实现
第8章文档相似度
8-1基本概念
8-2词条相似度:word2vec训练
8-3词条相似度:word2vec应用
8-4文档相似度的词袋模型实现
8-5doc2vec
8-6文档聚类
第9章文本分类
9-1文本分类概述
9-2朴素贝叶斯算法
9-3算法的sklearn实现
9-4算法的NLTK实现
第10章情感分析
10-1情感分析概述
10-2情感分析的词袋模型实现
10-3情感分析的分布式表达实现
第11章自动摘要
11-1自动摘要的基本原理
11-2自动摘要的效果评价
11-3自动摘要的python实现
第12章文本自动写作
12-1RNN的基本原理
12-2LSTM的基本原理
12-3Keras+TensorFlow组合的优势
12-4Keras+TensorFlow组合的安装
12-5案例1:数据准备
12-6案例1:模型拟合
12-7案例2:数据准备
|