- 基于Hadoop與Spark的大數據開發實戰
- 肖睿 丁科 吳剛山
- 250字
- 2019-09-10 13:26:14
第2章 Hadoop分布式文件系統
技能目標
掌握HDFS文件系統的訪問方式
掌握HDFS的體系結構
掌握HDFS數據的讀寫流程
了解HDFS的序列化使用
本章任務
學習本章,需要完成以下4個工作任務。記錄學習過程中遇到的問題,通過自己的努力或訪問kgc.cn解決。
任務1:HDFS入門
了解HDFS的產生背景、HDFS文件系統是什么及其特點和設計目標,掌握HDFS文件系統的架構組成。
任務2:HDFS基本操作
掌握使用HDFS shell和Java API操作HDFS文件系統。
任務3:HDFS運行原理
掌握HDFS文件的讀寫流程、副本擺放策略,認知HDFS數據負載均衡和機架感知。
任務4:HDFS高級知識
了解Hadoop的序列化操作,掌握Sequence File和Map File的常用操作。
推薦閱讀
- PPT,要你好看
- 大數據戰爭:人工智能時代不能不說的事
- Go Machine Learning Projects
- Machine Learning for Cybersecurity Cookbook
- 空間機器人遙操作系統及控制
- 計算機控制技術
- Hands-On Cybersecurity with Blockchain
- Arduino &樂高創意機器人制作教程
- 精通數據科學算法
- 電氣控制與PLC技術應用
- Salesforce Advanced Administrator Certification Guide
- Cloud Security Automation
- SQL Server數據庫應用基礎(第2版)
- 空間機器人
- Spark大數據商業實戰三部曲:內核解密|商業案例|性能調優