为您找到资讯结果约 38
同时Spark属于Hadoop的改进型,适用于流式与交互式数据处理与查询,实时性强且交互性好。还有较为重要的一个环节便是数据挖掘,它的主要任务包括预测建模、关联分析、聚类分析、异常检测等。
大数据部分课程,包括大数据技术入门,海量数据高级分析语言,海量数据存储分布式存储,以及海量数据分析分布式计算等部分,Linux,Hadoop,Scala, HBase, Hive, Spark等等专业课程
本科及以上学历,计算机、数学等相关专业,有C语言基础; 2.有数据库操作经验,熟悉SQL语句,具有数据整理和分析经验; 3.熟悉Unix/Linux系统优先; 4.有Python、Hadoop、Hive、Spark
岗位要求: 1、计算机相关专业,对大数据有一定的研究和实操; 2、熟悉linux系统的shell编程; 3、熟悉分布式运算原理,熟悉Hadoop、Hive、Spark、Elasticsearch等大数据框架