博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop更换硬盘
阅读量:5884 次
发布时间:2019-06-19

本文共 989 字,大约阅读时间需要 3 分钟。

hadoop服务器更换硬盘操作步骤(datanode hadoop目录${HADOOP_HOME}/bin    日志位置:/var/log/hadoop)

1.登陆服务器,切换到mapred用户,执行jps命令,查看是否有TaskTracker进程。如果有,执行hadoop-daemon.sh stop tasktracker,停止TaskTracker进程。
2.切换到hdfs用户,执行jps命令,查看是否有DataNode进程。如果有,执行hadoop-daemon.sh stop datanode,停止DataNode进程。
3.卸载硬盘umount /dataX.

4.格式化新硬盘成ext4格式(分区/fdisk或者parted格式化)

fdisk -l /dev/sdX

n

p

默然选择1分区.其他的都保持默认

最后w,保存

格式化为ext4: mkfs.ext4 /dev/sdX1

挂载:mount /dev/sdX1 /dataX

然后blkid /dev/sdX1  把获取到的UUID替换对应的坏掉的硬盘的UUID,位置(/etc/fstab)

5.创建DataNode,TaskTracker使用目录。mkdir -p /dataX/dfs; mkdir -p /dataX/mapred;   mkdir -p /dataX/tmp;  (或者直接cd /dataX; mkdir {dfs,mapred,tmp} )
6.为DataNode,TaskTracker使用目录赋予正确权限(mapreduce运行程序的用户为mapred)。chown -R /dataX/dfs;chown -R /dataX/mapred ;chown -R mapred:hadoop /dataX/tmp ;chown hdfs:hadoop /dataX
7.切换到hdfs用户,执行hadoop-daemon.sh start datanode,启动DataNode进程。
8.切换到mapred用户,执行hadoop-daemon.sh start tasktracker,启动TaskTracker进程。
9.查看启动日志,观察一段时间判断服务是否正常。

转载于:https://www.cnblogs.com/dailidong/p/7571210.html

你可能感兴趣的文章
Spring中 @Autowired注解与@Resource注解的区别
查看>>
PHP ob系列函数详解
查看>>
解决Ckeditor编辑器不显示html实体,自动过滤html的问题
查看>>
spring bean加载顺序指定方式之一
查看>>
SEO 相关知识
查看>>
为什么springMVC和Mybatis逐渐流行起来了?
查看>>
NTVS:把Visual Studio变成Node.js IDE 的工具
查看>>
GoogLeNet学习心得
查看>>
C#终于支持可选参数了!
查看>>
git常用命令总结
查看>>
使用Topshelf创建Windows 服务
查看>>
Intellij IDEA 安装 Mybatis插件
查看>>
Windows Service 之 Bug 记录
查看>>
expect实现无交互操作
查看>>
出现二个奇葩bug
查看>>
【GMT43智能液晶模块】例程七:定时器PWM实验——简易电子琴
查看>>
CentOS7 yum安装、配置PostgreSQL 9.5
查看>>
js cookie介绍和实例(用于自动登录,记住用户名等)
查看>>
CSS魔法堂:display:none与visibility:hidden的恩怨情仇
查看>>
git 放弃本地修改(转)
查看>>