博客
关于我
《大数据: Hadoop(HDFS) 读写数据流程分析》
阅读量:256 次
发布时间:2019-03-01

本文共 445 字,大约阅读时间需要 1 分钟。

HDFS数据写入流程概述

Hadoop Distributed File System (HDFS) 作为一种分布式存储系统,其数据写入流程涉及多个关键组件和步骤。以下将从客户端和服务端两个维度详细阐述HDFS的数据写入过程。

  • 1. 服务端启动HDFS组件
  • a. NameNode (NN) 和 DataNode (DN) 的启动
  • b. NameNode 处理高级功能
  • 2. 客户端初始化文件系统客户端
  • a. 客户端与 NameNode 连接
  • b. 客户端获取文件系统信息
  • 3. 数据上传前的准备工作
  • a. 文件路径校验
  • b. 权限检查
  • 4. 数据块大小和副本数配置
  • a. 客户端设置默认块大小(0-128M)
  • b. 自定义副本数(默认为3)
  • 5. 数据块上传过程
  • a. NameNode 返回目标 DataNode 节点列表
  • b. 客户端选择最近网络的 DataNode 进行数据传输
  • 6. 数据块传输与写入
  • a. DataNode 接收并存储数据块
  • b. 数据块校验与复制(根据副本数)

转载地址:http://lkut.baihongyu.com/

你可能感兴趣的文章
org.springframework.beans.factory.BeanDefinitionStoreException
查看>>
org.springframework.boot.context.properties.ConfigurationBeanFactoryMetadata
查看>>
org.springframework.boot:spring boot maven plugin丢失---SpringCloud Alibaba_若依微服务框架改造_--工作笔记012
查看>>
SQL-CLR 类型映射 (LINQ to SQL)
查看>>
org.springframework.orm.hibernate3.support.OpenSessionInViewFilter
查看>>
org.springframework.orm.hibernate3.support.OpenSessionInViewFilter
查看>>
org.springframework.web.multipart.MaxUploadSizeExceededException: Maximum upload size exceeded
查看>>
org.tinygroup.serviceprocessor-服务处理器
查看>>
org/eclipse/jetty/server/Connector : Unsupported major.minor version 52.0
查看>>
org/hibernate/validator/internal/engine
查看>>
Orleans框架------基于Actor模型生成分布式Id
查看>>
SQL-36 创建一个actor_name表,将actor表中的所有first_name以及last_name导入改表。
查看>>
ORM sqlachemy学习
查看>>
Ormlite数据库
查看>>
orm总结
查看>>
ORM框架 和 面向对象编程
查看>>
OS X Yosemite中VMware Fusion实验环境的虚拟机文件位置备忘
查看>>
os.environ 没有设置环境变量
查看>>
os.path.join、dirname、splitext、split、makedirs、getcwd、listdir、sep等的用法
查看>>
os.removexattr 的 Python 文档——‘*‘(星号)参数是什么意思?
查看>>