做网站必须要买服务器吗,wordpress 文章首标点,用wordpress建立的网站,一灯wordpress主题Hadoop权威指南-读书笔记
记录一下读这本书的时候觉得有意思或者重要的点~ 还是老样子~挑重点记录哈#x1f601;有兴趣的小伙伴可以去看看原著#x1f60a; 第三章 Hadoop分布式文件系统 当数据集的大小超过一台独立的物理计算机的存储能力时#xff0c;就有必要对它进行分…Hadoop权威指南-读书笔记
记录一下读这本书的时候觉得有意思或者重要的点~ 还是老样子~挑重点记录哈有兴趣的小伙伴可以去看看原著 第三章 Hadoop分布式文件系统 当数据集的大小超过一台独立的物理计算机的存储能力时就有必要对它进行分区(partition)并存储到若干台单独的计算机上。 管理网络中跨多台计算机存储的文件系统称为分布式文件系统(distributed file system)。 该系统架构于网络之上势必会引人网络编程的复杂性因此分布式文件系统比普通磁盘文件系统更为复杂。例如使文件系统能够容忍节点故障且不丢失任何数据就是一个极大的挑战。 3.1 HDFS的设计 HDFS以流式数据访问模式来存储超大文件运行于商用硬件集群上。
超大文件目前已经有PB级数据的Hadoop集群了。 流式数据访问 HDFS的构建思路是这样的:一次写入、多次读取是最高效的访问模式。数据集通常由数据源生成或从数据源复制而来接着长时间在此数据集上进行各种分析。每次分析都将涉及该数据集的大部分数据甚至全部因此读取整个数据集的时间延迟比读取第一条记录的时间延迟更重要。 商用硬件 Hadoop并不需要运行在昂贵且高可靠的硬件上。它是设计运行在商用硬件(在各种零售店都能买到的普通硬件)的集群上的。因此至少对于庞大的集群来说节点故障的几率还是非常高的。HDFS遇到上述故障时被设计成能够继续运行且不让用户察觉到明显的中断。 低时间延迟的数据访问 要求低时间延迟数据访问的应用例如几十毫秒范围不适合在HDFS上运行。记住HDFS是为高数据吞量应用优化的这可能会以提高时间延迟为代价。目前对于低延迟的访问需求HBase(参见第 20 章)是更好的选择。 大量的小文件 由于namenode将文件系统的元数据存储在内存中因此该文件系统所能存储的文件总数受限于namenode的内存容量。 多用户写入任意修改文件 HDFS中的文件写入只支持单个写入者而且写操作总是以“只添加”方式在文件末尾写数据。它不支持多个写入者的操作也不支持在文件的任意位置进行修改。 3.2 数据块
每个磁盘都有默认的数据块大小这是磁盘进行数据读/写的最小单位。
构建于单个磁盘之上的文件系统通过磁盘块来管理该文件系统中的块该文件系统块的大小可以是磁盘块的整数倍。
文件系统块一般为几千字节而磁盘块一般为512字节。这些信息(文件系统块大小)对于需要读/写文件的文件系统用户来说是透明的。 HDFS 同样也有块(block)的概念但是大得多默认为128MB。与单一磁盘上的文件系统相似HDFS上的文件也被划分为块大小的多个分块(chunk)作为独立的存储单元。 但与面向单一磁盘的文件系统不同的是HDFS中小于一个块大小的文件不会占据整个块的空间(例如当一个1MB的文件存储在一个128MB的块中时文件只使用1MB的磁盘空间而不是128MB)。
为什么HDFS中的块这么大
HDFS的块比磁盘的块大其目的是为了最小化寻址开销。如果块足够大从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。因而传输一个由多个块组成的大文件的时间取决于磁盘传输速率。 我们来做一个速算如果寻址时间约为10ms传输速率为100MB/s为了使寻址时间仅占传输时间的1%我们要将块大小设置约为100MB。默认的块大小实际为 128 MB但是很多情况下 HDFS 安装时使用更大的块。以后随着新一代磁盘驱动器传输速率的提升块的大小会被设置得更大。
但是这个参数也不会设置得过大。MapReduce中的map任务通常一次只处理一个块中的数据因此如果任务数太少(少于集群中的节点数量)作业的运行速度就会比较慢。 对分布式文件系统中的块进行抽象会带来很多好处。
第一个最明显的好处是一个文件的大小可以大于网络中任意一个磁盘的容量。 文件的所有块并不需要存储在同一个磁盘上因此它们可以利用集群上的任意一个磁盘进行存储。 第二个好处是使用抽象块而非整个文件作为存储单元大大简化了存储子系统的设计。 简化是所有系统的目标但是这对于故障种类繁多的分布式系统来说尤为重要。将存储子系统的处理对象设置为块可简化存储管理(由于块的大小是固定的因此计算单个磁盘能存储多少个块就相对容易)。同时也消除了对元数据的顾虑(块只是要存储的大块数据而文件的元数据如权限信息并不需要与块一同存储这样一来其他系统就可以单独管理这些元数据)。 不仅如此块还非常适合用于数据备份进而提供数据容错能力和提高可用性。 将每个块复制到少数几个物理上相互独立的机器上(默认为3个)可以确保在块、磁盘或机器发生故障后数据不会丢失。 如果发现一个块不可用系统会从其他地方读取另一个复本而这个过程对用户是透明的。一个因损坏或机器故障而丢失的块可以从其他候选地点复制到另一台可以正常运行的机器上以保证复本的数量回到正常水平。 同样有些应用程序可能选择为一些常用的文件块设置更高的复本数量进而分散集群中的读取负载。 3.3 namenode 和 datanode HDFS 集群有两类节点以管理节点-工作节点模式运行即一个namenode(管理节点)和多个 datanode(工作节点)。 namenode 管理文件系统的命名空间。 它维护着文件系统树及整棵树内所有的文件和目录。这些信息以两个文件形式永久保存在本地磁盘上:命名空间镜像文件和编辑日志文件。namenode也记录着每个文件中各个块所在的数据节点信息但它并不永久保存块的位置信息因为这些信息会在系统启动时根据数据节点信息重建。 客户端(client)代表用户通过与namenode和 datanode 交互来访问整个文件系统。 客户端提供一个类似于POSIX(可移植操作系统界面)的文件系统接口因此用户在编程时无需知道namenode和datanode 也可实现其功能。 datanode是文件系统的工作节点。 它们根据需要存储并检索数据块(受客户端或namenode 调度)并且定期向namenode发送它们所存储的块的列表。没有namenode文件系统将无法使用。事实上如果运行namenode服务的机器毁坏文件系统上所有的文件将会丢失因为我们不知道如何根据datanode的块重建文件。 因此对namenode实现容错非常重要Hadoop为此提供两种机制。
第一种机制是备份那些组成文件系统元数据持久状态的文件。 Hadoop可以通过配置使namenode在多个文件系统上保存元数据的持久状态。这些写操作是实时同步的且是原子操作。一般的配置是将持久状态写入本地磁盘的同时写入一个远程挂载的网络文件系统(NFS)。 另一种可行的方法是运行一个辅助namenode但它不能被用作namenode。 这个辅助namenode的重要作用是定期合并编辑日志与命名空间镜像以防止编辑日志过大。这个辅助namenode 一般在另一台单独的物理计算机上运行因为它需要占用大量CPU时间并且需要与namenode一样多的内存来执行合并操作。它会保存合并后的命名空间镜像的副本并在namenode发生故障时启用。但是辅助namenode保存的状态总是滞后于主节点所以在主节点全部失效时难免会丢失部分数据。 在这种情况下一般把存储在NFS上的namenode元数据复制到辅助namenode 并作为新的主 namenode 运行。(注意也可以运行热备份namenode 代替运行辅助namenode具体参见3.2.5节对HDFS高可用性的讨论。) 块缓存
通常datanode从磁盘中读取块但对于访问频繁的文件其对应的块可能被显式地缓存在 datanode的内存中以堆外块缓存(off-heapblock cache)的形式存在。默认情况下一个块仅缓存在一个datanode的内存中当然可以针每个文件配置datanode 的数量。作业调度器(用于MapReduce、Spark 和其他框架的)通过在缓存块的 datanode上运行任务可以利用块缓存的优势提高读操作的性能。例如连接(join)操作中使用的一个小的查询表就是块缓存的一个很好的候选。用户或应用通过在缓存池(cache pool)中增加一个cache directive 来告诉 namenode需要缓存哪些文件及存多久。缓存池是一个用于管理缓存权限和资源使用的管理性分组。 联邦HDFS
这个是我看这本书第一次听说的之前都没听过联邦HDFS。
namenode在内存中保存文件系统中每个文件和每个数据块的引用关系这意味着对于一个拥有大量文件的超大集群来说内存将成为限制系统横向扩展的瓶颈。 在2.x发行版本系列中引入的联邦HDFS允许系统通过添加namenode 实现扩展其中每个namenode管理文件系统命名空间中的一部分。例如一个namenode 可能管理/user目录下的所有文件而另一个namenode 可能管理/share 目录下的所有文件。在联邦环境下每个namenode维护一个命名空间卷(namespace volume)由命名空间的元数据和一个数据块池(blockpool)组成数据块池包含该命名空间下文件的所有数据块。命名空间卷之间是相互独立的两两之间并不相互通信甚至其中一个namenode的失效也不会影响由其他namenode 维护的命名空间的可用性。数据块池不再进行切分因此集群中的datanode需要注册到每个namenode并且存储着来自多个数据块池中的数据块。 故障切换与规避
系统中有一个称为故障转移控制器(failover controller)的新实体管理着将活动namenode转移为备用namenode的转换过程。 有多种故障转移控制器但默认的一种是使用了 ZooKeeper 来确保有且仅有一个活动namenode。每一个namenode运行着一个轻量级的故障转移控制器其工作就是监视宿主namenode是否失效(通过一个简单的心跳机制实现)并在namenode失效时进行故障切换。 管理员也可以手动发起故障转移例如在进行日常维护时。这称为“平稳的故障转移”(graceful failover)因为故障转移控制器可以组织两个namenode 有序地切换角色。 但在非平稳故障转移的情况下无法确切知道失效namenode是否已经停止运行。 例如在网速非常慢或者网络被分割的情况下同样也可能激发故障转移但是先前的活动namenode依然运行着并且依旧是活动amenode。 高可用实现做了更进一步的优化以确保先前活动的namenode不会执行危害系统并导致系统崩溃的操作该方法称为“规避”(fencing)。 同一时间QJM 仅允许一个namenode 向编辑日志中写入数据。然而对于先前的活动namenode而言仍有可能响应并处理客户过时的读请求因此设置一个SSH规避命令用于杀死namenode的进程是一个好主意。当使用NFS过滤器实现共享编辑日志时由于不可能同一时间只允许一个namenode写入数据(这也是为什么推荐QJM的原因)因此需要更有力的规避方法。 规避机制包括:撤销namenode访问共享存储目录的权限(通常使用供应商指定的NFS命令)、通过远程管理命令屏蔽相应的网络端口。诉诸的最后手段是先前活动namenode可以通过一个相当形象的称为“一枪爆头”STONITH,shoot the other node in the head)的技术进行规避该方法主要通过一个特定的供电单元对相应主机进行断电操作,客户端的故障转移通过客户端类库实现透明处理。最简单的实现是通过客户端的配置文件实现故障转移的控制。HDFSURI使用一个逻辑主机名该主机名映射到一对namenode地址(在配置文件中设置)客户端类库会访问每一个namenode地址直至处理完成。 HDFS中的文件访问权限
针对文件和目录HDFS的权限模式与POSIX的权限模式非常相似。一共提供三类权限模式:只读权限®、写入权限(w)和可执行权限(x)。 读取文件或列出目录内容时需要只读权限。写入一个文件或是在一个目录上新建及删除文件或目录需要写入权限。对于文件而言可执行权限可以忽略因为你不能在 HDFS 中执行文件(与 POSIX 不同)但在访问一个目录的子项时需要该权限。 每个文件和目录都有所属用户(owner)、所属组别(group)及模式(mode)。 这个模式是由所属用户的权限、组内成员的权限及其他用户的权限组成的。 在默认情况下Hadoop 运行时安全措施处于停用模式意味着客户端身份是没有经过认证的。 由于客户端是远程的一个客户端可以在远程系统上通过创建和任一个合法用户同名的账号来进行访问。 当然如果安全设施处于启用模式这些都是不可能的。无论怎样为防止用户或自动工具及程序意外修改或删除文件系统的重要部分启用权限控制还是很重要的(这也是默认的配置参见dfs.permissions.enabled属性)。
如果启用权限检查就会检查所属用户权限以确认客户端的用户名与所属用户是否匹配另外也将检查所属组别权限以确认该客户端是否是该用户组的成员:若不符则检查其他权限。
这里有一个超级用户(super-user)的概念超级用户是namenode 进程的标识。对于超级用户系统不会执行任何权限检查。 3.4HDFS数据流
读取文件
本节讲了一下HDFS的文件读取~ 客户端通过调用Filesyste对象的open()方法来打开希望读取的文件对于HDFS 来说这个对象是DistributedFileSystem的一个实例(图 3-2 中的步骤1)。 DistributedFileSystem 通过使用远程过程调用(RPC)来调用namenode以确定文件起始块的位置(步骤2)。 对于每一个块namenode返回存有该块副本的datanode 地址。此外这些datanode根据它们与客户端的距离来排序(根据集群的网络拓扑)。 如果该客户端本身就是一个datanode(比如在一个MapReduce任务中)那么该客户端将会从保存有相应数据块复本的本地 datanode 读取数据。 在读取数据的时候如果DFSInputstream在与datanode 通信时遇到错误会尝试从这个块的另外一个最邻近datanode读取数据。它也记住那个故障datanode以保证以后不会反复读取该节点上后续的块。DFSInputstream也会通过校验和确认从 datanode 发来的数据是否完整。如果发现有损坏的块DFSInputStream会试图从其他 datanode 读取其复本也会将被损坏的块通知给namenode。 这个设计的一个重点是客户端可以直接连接到datanode检索数据且namenode告知客户端每个块所在的最佳datanode。由于数据流分散在集群中的所有datanode所以这种设计能使 HDFS 扩展到大量的并发客户端。同时namenode只需要响应块位置的请求(这些信息存储在内存中因而非常高效)无需响应数据请求否则随着客户端数量的增长namenode会很快成为瓶颈。 网络拓扑与Hadoop
在本地网络中两个节点被称为“彼此近邻”是什么意思?在海量数据处理中其主要限制因素是节点之间数据的传输速率–带宽很稀缺。这里的想法是将两个节点间的带宽作为距离的衡量标准。不用衡量节点之间的带宽实际上很难实现(它需要一个稳定的集群并且在集群中两两节点对数量是节点数量的平方)Hadoop为此采用一个简单的方法:把网络看作一棵树两个节点间的距离是它们到最近共同祖先的距离总和。 该树中的层次是没有预先设定的但是相对于数据中心、机架和正在运行的节点通常可以设定等级。具体想法是针对以下每个场景可用带宽依次递减: 示例 文件写入
接下来我们看看文件是如何写入HDFS的。
我们要考虑的情况是如何新建一个文件把数据写入该文件最后关闭该文件如图 3-4所示。 步骤一
客户端通过对 Distributed FileSystem对象调用create()来新建文件(图 3-4中的步骤1)。
步骤二
Distributed FileSystem对namenode 创建一个RPC调用在文件系统的命名空间中新建一个文件此时该文件中还没有相应的数据块(步骤2)。
namenode执行各种不同的检查以确保这个文件不存在以及客户端有新建该文件的权限。
如果这些检查均通过namenode就会为创建新文件记录一条记录;否则文件创建失败并向客户端抛出一个 IOException异常。
Distributed FileSystem 向客户端返回一个 FSData 0utputstream对象由此客户端可以开始写入数据。
就像读取事件一样FSData0utputstream封装一个DFSoutPutstream对象该对象负责处理 datanode 和 namenode 之间的通信。 步骤三
在客户端写入数据时(步骤3)DFSOutputstream将它分成一个个的数据包并写人内部队列称为“数据队列”(data queue)。
Datastreamer处理数据队列它的责任是挑选出适合存储数据复本的一组datanode并据此来要求namenode分配新的数据块。
这一组datanode构成一个管线–我们假设复本数为3所以管线中有3个节点。
步骤四
Datastreamer将数据包流式传输到管线中第1个datanode该datanode存储数据包并将它发送到管线中的第2个datanode。同样第2个datanode存储该数据包并且发送给管线中的第3个(也是最后一个)datanode(步骤 4)。
DFSOutputStream也维护着一个内部数据包队列来等待datanode的收到确认回执称为“确认队列”(ack queue)。 步骤五
收到管道中所有datanode 确认信息后该数据包才会从确认队列删除(步骤 5)。 如果任何datanode在数据写入期间发生故障则执行以下操作(对写入数据的客户端是透明的)。 首先关闭管线确认把队列中的所有数据包都添加回数据队列的最前端以确保故障节点下游的datanode不会漏掉任何一个数据包。为存储在另一正常 datanode 的当前数据块指定一个新的标识并将该标识传送给namenode以便故障datanode在恢复后可以删除存储的部分数据块。从管线中删除故障datanode基于两个正常datanode 构建一条新管线。余下的数据块写入管线中正常的 datanode。namenode 注意到块复本量不足时会在另一个节点上创建一个新的复本。后续的数据块继续正常接受处理。在一个块被写入期间可能会有多个datanode 同时发生故障但非常少见。只要写入了dfs.namenode.replication.min 的复本数(默认为 1)写操作就会成功并且这个块可以在集群中异步复制直到达到其目标复本数(dfs.replication的默认值为 3)。 步骤六、七
客户端完成数据的写入后对数据流调用cose()方法(步6)。 该操作将剩余的所有数据包写入datanode管线并在联系到namenode告知其文件写入完成之前等待确认(步骤 7)。 副本怎么存放
namenode 如何选择在哪个 datanode 存储复本(replica)?
这里需要对可靠性、写入带宽和读取带宽进行权衡。例如把所有复本都存储在一个节点损失的写入带宽最小(因为复制管线都是在同一节点上运行)但这并不提供真实的冗余(如果节点发生故障那么该块中的数据会丢失)。同时同一机架上服务器间的读取带宽是很高的。另一个极端把复本放在不同的数据中心可以最大限度地提高冗余但带宽的损耗非常大。 即使在同一数据中心(到目前为止所有Hadoop 集群均运行在同一数据中心内)也有多种可能的数据布局策略。 Hadoop 的默认布局策略是在运行客户端的节点上放第1个复本(如果客户端运行在集群之外就随机选择一个节点不过系统会避免挑选那些存储太满或太忙的节点)。 第2个复本放在与第一个不同且随机另外选择的机架中节点上(离架)。 第3个复本与第2个复本放在同一个机架上且随机选择另一个节点。 其他复本放在集群中随机选择的节点上不过系统会尽量避免在同一个的机架上放太多复本。