搭建Hadoop集群,一个月6T的数量需要几台服务器

作者&投稿:歹肥 (若有异议请与网页底部的电邮联系)
学习hadoop 要多少台服务器~

这个要看你自己的条件了
条件好的,弄几台旧的PC,比如3台或以上,一个nanenode两个datanode
条件一般的,就弄台好点的机子,装2-3个虚拟机,至少也得8G内存
条件差的,就用一台机,既做namenode又做datanode,不过,这样很多效果没法验证

如果是集群的话,我考虑需要流畅运行的话,2核4G配置是可以满足的。因为这个集群形式,用于适用于物联网、车联网、监控、安全风控、即时通讯、消息存储等行业场景,所以数据量是比较大的,所以配置太低了跑不动,会卡死的。
因为hadoop是海量数据的处理能力,所以服务器一定不能太小配置了,跑不动了就没实际用途了。最好使用4核8G内存及以上配置。
因为这方面内容较多,这里也写不开那么多内容,所以你可以留言或到我的博客上搜索相关内容,老魏有写过教程,还不止一篇,都挺详细的内容,可以帮助你入门。

最好是两个做成HA
关于硬盘:
6T的数据容量,看你副本数量设置是多少,一般默认为3,那么仅这些就需要18T硬盘,稍微大一点20T吧;这仅仅是HDFS存储;(这里我说的是一个月的,你数据保存几个月,就乘几倍)
如果你集群上面要跑计算,MR计算出来的数据要保存HDFS的,所以,还是要根据你的结果数据来做判断,大小就看你计算任务了.
一般是这样计算硬盘大小

(原始数据+中间数据+结果数据)*副本数量=总硬盘大小

关于内存:
namenode不用说了,主要就是用内存保存block和node之间对应关系的,也是要根据数据大小计算的,6T/Block大小(默认为128M)=有多少block-->M个

一个block占多少内存: 保守地设置每一百万数据块需要1000MB内存
namenode总内存(兆M)=M*1000MB/100万

datanode的内存: 一般问题不大,一般都是用于mr的计算,这个东西根据你性能的需要设置

关于多少台机器?
根据Task任务的数量和你的性能指标来做决定

一个Block对应一个Mapper任务,上面算出来M个Block了,mapper任务也是那么多

实际测试一下,一定数据量在x台机器上运行时间,根据你的指标去评定要多少台机器

hadoop集群的性能和节点个数近似成正向关系


hadoop集群是什么意思?
Hadoop集群指的是一组相互连接的计算机集群,用于存储和处理大规模数据集。它可以自动将大数据集分成多个小数据块,分配到不同的节点中进行处理,从而实现并行处理的目的。Hadoop集群通常包括存储节点和计算节点两种类型的机器,其中存储节点用于存储数据,计算节点用于处理数据,并且可以同时进行多项任务,从而大...

如何基于Docker快速搭建多节点Hadoop集群
直接用机器搭建Hadoop集群是一个相当痛苦的过程,尤其对初学者来说。他们还没开始跑wordcount,可能就被这个问题折腾的体无完肤了。而且也不是每个人都有好几台机器对吧。你可以尝试用多个虚拟机搭建,前提是你有个性能杠杠的机器。我的目标是将Hadoop集群运行在Docker容器中,使Hadoop开发者能够快速便捷地...

问句门外汉的话,一台电脑能配置hadoop集群环境吗
可以,在电脑上安装虚拟机,虚拟出3个节点,就可以搭建一个完全分布式的Hadoop集群了。虚拟机建议选VirtualBox,安装完比较小(相比于VMWare )。关于虚拟机的安装请百度教程。其中一个虚拟机Ubuntu或其他linux安装完成后,可以通过复制功能安装其他两个,其中包括JDK的安装配置,Hadoop的安装(其实就是解压,...

如何构建最优化的Hadoop集群
利用alternatives来管理链接•使用配置管理系统(Yum、Permission、sudoers等)•减少内核交换•撤销一般用户访问这些云计算机的权限•不要使用虚拟化•至少需要以下Linux命令:\/etc\/alternativesln、chmod、chown、chgrp、mount、umount、kill、rm、yum、mkdir硬件要求由于Hadoop集群中...

怎么搭建两个hadoop集群的测试环境
8.向hadoop集群系统提交第一个mapreduce任务(wordcount) 进入本地hadoop目录(\/usr\/hadoop) 1、 bin\/hdfs dfs -mkdir -p \/data\/input在虚拟分布式文件系统上创建一个测试目录\/data\/input 2、 hdfs dfs -put README.txt \/data\/input 将当前目录下的README.txt 文件复制到虚拟分布式文件系统中 3、 bin\/hdfs df...

安装hadoop高可用集群难吗
安装hadoop高可用集群难吗:不难 一、Hadoop系统应用之安装准备(一)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)一、Hadoop系统应用之安装准备(二)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

如何搭建hadoop集群 桥接
本文通过在vmware workstation上建立三台虚拟机来搭建hadoop集群环境,其中一台作为namenode,两台作为datanode。一、安装vmware workstation(10.0.0)(一路下一步即可)二、创建3个虚拟机 每个虚拟机安装Ubuntu 桌面版(我用的11.10,但是有点老了,建议用12.04或更高版本)namenode建议多给写内存...

vmware搭建hadoop集群需要多大空间
前段时间用3台虚拟机搭了,20G的存储1G的内存。01装master,上面起个namenode;02,03装slave,各自起datanode,zk集群最小部署要3台,每台机器都装。

如何搭建50t的hadoop集群
先决条件 确保在你集群中的每个节点上都安装了所有必需软件。获取Hadoop软件包。安装 安装Hadoop集群通常要将安装软件解压到集群内的所有机器上。通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker。这些机器是masters。余下的机器即作为DataNode也作为TaskTracker。这些机器是...

如何为大数据处理构建高性能Hadoop集群
越来越多的企业开始使用Hadoop来对大数据进行处理分析,但Hadoop集群的整体性能却取决于CPU、内存、网络以及存储之间的性能平衡。而在这篇文章中,我们将探讨如何为Hadoop集群构建高性能网络,这是对大数据进行处理分析的关键所在。关于Hadoop “大数据”是松散的数据集合,海量数据的不断增长迫使企业需要通过一...

平凉市19428999027: 搭建Hadoop集群,一个月6T的数量需要几台服务器 -
移凝依利: 最好是两个做成HA 关于硬盘:6T的数据容量,看你副本数量设置是多少,一般默认为3,那么仅这些就需要18T硬盘,稍微大一点20T吧;这仅仅是HDFS存储;(这里我说的是一个月的,你数据保存几个月,就乘几倍) 如果你集群上面要跑计...

平凉市19428999027: 如何搭建50t的hadoop集群 -
移凝依利: 先决条件 确保在你集群中的每个节点上都安装了所有必需软件. 获取Hadoop软件包. 安装 安装Hadoop集群通常要将安装软件解压到集群内的所有机器上.通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker...

平凉市19428999027: 一个Hadoop集群的机器数量最少要几个 -
移凝依利: ZooKeeper是一个独立的组件,它可以和HDFS配合使用,但没有非得部署在一起的要求,只要网络通就可以.另外,ZooKeeper建议最少安装在3个节点上,且数目为奇数.

平凉市19428999027: 怎么在服务器上搭建hadoop集群 -
移凝依利: 前期准备 l 两台linux虚拟机(本文使用redhat5,IP分别为 IP1、IP2) l JDK环境(本文使用jdk1.6,网上很多配置方法,本文省略) l Hadoop安装包(本文使用Hadoop1.0.4) 搭建目标 210作为主机和节点机,211作为节点机. 搭建步骤 1修改hosts文...

平凉市19428999027: 一天的数据量应该在1t左右,大概hadoop集群要存15左右的数据,数据主要经过hbase来操作 -
移凝依利: 一天1T,15天是15T,hadoop集群存储的时候安全备份数是3份这样就是45T,构架一个安全的hadoop集群最少要3台机器吧,如果用戴尔的PowerEdge C2100 ,单节点存储可达26TB,三台即可

平凉市19428999027: 如何基于Docker快速搭建多节点Hadoop集群 -
移凝依利: Docker最核心的特性之一,就是能够将任何应用包括Hadoop打包到Docker镜像中.这篇教程介绍了利用Docker在单机上快速搭 建多节点 Hadoop集群的详细步骤.作者在发现目前的Hadoop on Docker项目所存在的问题之后,开发了接近最小...

平凉市19428999027: vmware搭建hadoop集群需要多大空间 -
移凝依利: 前段时间用3台虚拟机搭了,20G的存储1G的内存. 01装master,上面起个namenode;02,03装slave,各自起datanode,zk集群最小部署要3台,每台机器都装.

平凉市19428999027: 怎么为大数据处理构建高性能Hadoop集群 -
移凝依利: 越来越多的企业开始使用Hadoop来对大数据进行处理分析,但Hadoop集群的整体性能却取决于CPU、内存、网络以及存储之间的性能平衡.而在这篇文章中,我们将探讨如何为Hadoop集群构建高性能网络,这是对大数据进行处理分析的关键...

平凉市19428999027: 新手指导:怎么快速部署大型hadoop集群呢?比如有1000台slave节点的话 -
移凝依利: bg4.png 用shell scp也就是远程复制,配好一台机器,用shell传播 或则使用集群管理工具使用puppet或者chef

平凉市19428999027: 部署30个节点的hadoop集群,用什么工具
移凝依利: 1. 一个HDFS集群是由一个NameNode和若干个DataNode组成的. 2. 其中NameNode作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的DataNode管理存储的数据. 3. MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点的TaskTracker共同组成的. 4. 主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上.

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网