Linux是必须要会的,涉及到集群部署和基本操作问题,不过这个指令多练练就熟悉了。
Hadoop生态圈都是由Java构成的,所以掌握Java是肯定有优势的,建议学学,如果不感兴趣,那也得了解下基础。
Hadoop学习路线基本是:
Linux操作-->Java-->Hadoop生态圈(HDFS,MapReduce、Hive、Hbase、mahout etc.)之后可以学习Scala-->Spark生态圈(SparkStreaming、mlib、graphx....)