17370845950

[hadoop3.x系列]Hadoop常用文件存储格式及BigData File Viewer工具的使用(三)

文章目录
前言
历史文章
Hadoop常用文件存储格式
传统系统常见文件存储格式
文件系统块大小
Hadoop中文件存储格式
BigData File Viewer工具介绍
功能清单
后记

前言
历史文章

[hadoop3.x系列]hdfs rest http api的使用(一)webhdfs

[hadoop3.x系列]HDFS REST HTTP API的使用(二)HttpFS

Hadoop常用文件存储格式
传统系统常见文件存储格式
在Windows系统中有多种文件格式,例如:JPEG文件用于存储图片、MP3文件用于存储音乐、DOC文件用于存储WORD文档。每种文件格式用于存储特定类型的数据,例如:我们不会用文本文件来存储音乐或图片。Windows系统支持的存储格式种类繁多。

文件系统块大小
在服务器或电脑上,有多种块设备(Block Device),例如:硬盘、CDROM、软盘等。

每个文件系统都需要将一个分区拆分为多个块,用来存储文件。不同的文件系统块大小各不相同。

代码语言:javascript
代码运行次数:0

运行 复制 ```javascript [root@node1 ~]# stat -f . File: “.” ID: fd0000000000 Namelen: 255 Type: xfs Block size: 4096 Fundamental block size: 4096 Blocks: Total: 15144730 Free: 11924333 Available: 11924333 Inodes: Total: 30304256 Free: 30139006 ```

例如:我们看到该文件系统的块大小为:4096字节 = 4KB。如果我们需要在磁盘中存储5个字节的数据,也会占据4096字节的空间。

Hadoop中文件存储格式
接下来,我们要讲解的是在Hadoop中的数据存储格式。Hadoop上的文件存储格式,肯定不会像Windows这么丰富,因为目前我们用Hadoop来存储、处理数据。我们不会用Hadoop来听歌、看电影、或者打游戏。J

文件格式是定义数据文件系统中存储的一种方式,可以在文件中存储各种数据结构,特别是Row、Map,数组以及字符串,数字等。

在Hadoop中,没有默认的文件格式,格式的选择取决于其用途。而选择一种优秀、适合的数据存储格式是非常重要的。

后续我们要学习的,使用HDFS的应用程序(例如MapReduce或Spark)性能中的最大问题、瓶颈是在特定位置查找数据的时间和写入到另一个位置的时间,而且管理大量数据的处理和存储也很复杂(例如:数据的格式会不断变化,原来一行有12列,后面要存储20列)。

Hadoop文件格式发展了好一段时间,这些文件存储格式可以解决大部分问题。我们在开发大数据中,选择合适的文件格式可能会带来一些明显的好处:

  • 可以保证写入的速度
  • 可以保证读取的速度
  • 文件是可被切分的
  • 对压缩支持友好
  • 支持schema的更改

某些文件格式是为通用设计的(如MapReduce或Spark),而其他文件则是针对更特定的场景,有些在设计时考虑了特定的数据特征。因此,确实有很多选择。

每种格式都有优点和缺点,数据处理的不同阶段可以使用不同的格式才会更有效率。通过选择一种格式,最大程度地发挥该存储格式的优势,最小化劣势。

BigData File Viewer工具介绍
一个跨平台(Windows,MAC,Linux)的桌面应用程序,用于查看常见的大数据二进制格式,例如Parquet,ORC,AVRO等。支持本地文件系统,HDFS,AWS S3等。


github地址:https://www./link/ab5a47d41c51bcd432f515088a070b8b

功能清单

  • 打开并查看本地目录中的Parquet,ORC和AVRO,HDFS,AWS S3等。
  • 将二进制格式的数据转换为文本格式的数据,例如CSV
  • 支持复杂的数据类型,例如数组,映射,结构等
  • 支持Windows,MAC和Linux等多种平台
  • 代码可扩展以涉及其他数据格式

后记
博客主页:https://www./link/fe93fd567b9aafe3cc3372a19309fc6a
本文由 manor 原创,首发于 CSDN博客