大数据分析师 应该要学什么知识?

2024-12-25 23:09:50
推荐回答(5个)
回答1:

大数据分析师应该要学的知识有,统计概率理论基础,软件操作结合分析模型进行实际运用,数据挖掘或者数据分析方向性选择,数据分析业务应用。

1、统计概率理论基础

这是重中之重,千里之台,起于垒土,最重要的就是最下面的那几层。统计思维,统计方法,这里首先是市场调研数据的获取与整理,然后是最简单的描述性分析,其次是常用的推断性分析,方差分析,到高级的相关,回归等多元统计分析,掌握了这些原理,才能进行下一步。

2、软件操作结合分析模型进行实际运用

关于数据分析主流软件有(从上手度从易到难):Excel,SPSS,Stata,R,SAS等。首先是学会怎样操作这些软件,然后是利用软件从数据的清洗开始一步步进行处理,分析,最后输出结果,检验及解读数据。

3、数据挖掘或者数据分析方向性选择

其实数据分析也包含数据挖掘,但在工作中做到后面会细分到分析方向和挖掘方向,两者已有区别,关于数据挖掘也涉及到许多模型算法,如:关联法则、神经网络、决策树、遗传算法、可视技术等。

4、数据分析业务应用

这一步也是最难学习的一步,行业有别,业务不同,业务的不同所运用的分析方法亦有区分,实际工作是解决业务问题,因此对业务的洞察能力非常重要。

扩展资料

分析工作内容

1、搜索引擎分析师(Search Engine Optimization Strategy Analyst,简称SEO分析师)是一项新兴信息技术职业,主要关注搜索引擎动态,修建网站,拓展网络营销渠道,网站内部优化,流量数据分析,策划外链执行方案,负责竞价推广。

2、SEO分析师需要精通商业搜索引擎相关知识与市场运作。通过编程,HTML,CSS,JavaScript,MicrosoftASP.NET,Perl,PHP,Python等建立网站进行各种以用户体验为主同时带给公司盈利但可能失败的项目尝试。

参考资料来源:百度百科-大数据分析师

回答2:

1、需要有应用数学、统计学、数量经济学专业本科或者工学硕士层次水平的数学知识背景。
2、至少熟练SPSS、STATISTIC、Eviews、SAS等数据分析软件中的一门。
3、至少能够用Acess等进行数据库开发;
4、至少掌握一门数学软件:matalab,mathmatics进行新模型的构建。
5、至少掌握一门编程语言;
6,当然还要其他应用领域方面的知识,比如市场营销、经济统计学等,因为这是数据分析的主要应用领域。

回答3:

数据分析简单分为这几大块:

数据采集、数据清洗、数据分析、数据可视化

1、数据采集

所谓数据采集并不是我们理解的数据爬虫,尤其是我们在工作中遇到的数据很多都是来自系统内的数据,来自数据库的数据来自日志的数据。数据采集常用的手段有:SQL/Python,其中SQL是数据分析的必备技能,Python是加分项。

2、数据清洗

采集来的数据一般是不规整的,字段缺失或者有错误,分析的结果会出现各种异常。在数据清洗这一块就需要用到一些简单的统计学基础。

3、数据分析

商业数据分析来说,数据分析最重要的是行业知识和逻辑思维能力,行业知识往往是通过在行业中的工作经历来获取。逻辑思维能力,需要后天的不断的锻炼。

4、数据可视化

让结论更加的容易理解,目前国内外的数据可视化的产品很多,我常用的有Tableau/Excel/Python等。

回答4:

  • Java :只要了bai解一些基础即可,做大数据不需要很深的Java 技术,学java SE 就相当于有学习大数据。

  • Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。

  • Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。

  • Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。

  • Mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。

  • Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。

  • Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单

  • Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确。

  • Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。

  • Kafka:这是个比较好用的队列工具。

  • Spark:它是用来弥补基于MapReduce处理数据速度上的缺点。

19_spark体系之分布式计算课程_算子_尚学堂

回答5:

大数据分析师是指基于各种分析手段对大数据进行科学分析、挖掘、展现并用于决策支持的过程,大数据分析师就是从事此项职业的从业人员称呼,国内已有商务部对大数据分析师进行等级认证。