## 任务说明 > 大数据行业中一项常见的工作就是数据的采集与清洗,这也是大数据主要的数据来源。常见的数据采集途径主要包括Web数据采集、系统日志采集与物联网设备数据采集。其中Web数据采集是成本最低,也是普通创业者相对来说最容易获取数据的一种手段。 > 完成采集后的数据还不足以作为直接的数据源供大数据系统食用,主要是因为这些数据的格式、编码规则、内容五花八门,都不一样,而各种数据分析工具与框架都需要统一格式、统一标准的更「干净」的数据。在正式应用于数据科学的核心算法和可视化之前,这些数据往往还需要经过抽取、迁移、压缩、清洗、打散、分片以及其他多种转换处理过程。 ## 知识点 - 理解数据采集与清洗的意义和目标,了解常见的文件格式、类型与编码方式 - 能通过所学的编程语言实现自动化的Web访问并保存页面内容 - 能使用至少一种常见Web爬虫工具实现Web页面的批量自动下载 - 掌握XML文件的使用与解析,能熟练的生成与解析XML文件 - 能熟练使用正则表达式,能快速的匹配和处理文本 - 掌握至少一种HTML解析工具(如jsoup,htmlparser等),并从HTML中提取指定的内容 - 能通过编码处理各类文本及文档数据格式,包括但不限于:office文档、pdf、csv、log、rar、zip等 - 熟悉ETL的基本概念,了解常见的ETL工具,如Datastage、Informatica、Kettle等