导航:首页 > 数据处理 > 浙江移动大数据集群有多少服务器

浙江移动大数据集群有多少服务器

发布时间:2023-02-02 06:01:31

Ⅰ 前置采集服务器跟大数据平台集群服务器是一个东西吗

前置采集服务器跟大数据平台集群服务器是一个东西。项目前置服务器其实就是数据采集服务器,因为核心业务服务器承担对外提供服务和计算的作用,数据采集来之后比较多比较快,IO会吃不住,而造成服务器死机或者网络堵塞,因此诞生了这么个东西,配置足够强大,内存很大,多核CPU,或者多网口接入,这个前置服务器不要。

Ⅱ 服务器有哪几种

撇开拗口的专业术语,根据我的学习和理解,试着回答一下。根据服务器的分类,大致有独立服务器(即所谓的物理服务器)、虚拟主机、虚拟专用服务器VPS、云服务器这几种。

1、物理服务器。这个就是真实看得见的,是一台独立而完整的电脑,有CPU、内存、硬盘等,就好比你自己的家,有客厅、卧室、卫生间等,你拥有独立的自主权,别人是无法使用的。
2、虚拟主机。这本身也是一台独立的服务器,不同的是用虚拟软件虚拟出多个看似独立的空间供你使用,但CPU、内存这些核心还是共用的,每一个虚拟用户的行为会影响整个服务器的性能,你也无法控制服务器。这就好比集体寝室,虽然你有自己的床位,但是卫生间是公用的,门锁由寝室管理员控制,他一锁门你就无法进寝室。这样的集体宿舍一来你没有隐私权,二来容易造成拥挤和互相干扰,三来你的控制权限很低。
3、虚拟专用服务器(VPS)。这个也是一台独立 的服务器,它是对虚拟主机的一种改进,虽然CPU、内存这些核心的东西表面上来看还是独立的,但应用更先进的虚拟技术把这些东西分成独立的小部分供你使用。这就好比集体宿舍的床位,现在给每个床位都用墙围起来分成一个个小的单位,大卫生间也进行造成,把原来数量众多的蹲位分成一个个独立的蹲位分派给每个人,供独立使用,别人无法使用。这样改造后你自己独立的空间可以随你的想法布置,你的门锁也由你自己控制,卫生间也不允许别人使用,人与人之间也不互相干扰。——虽然集体宿舍的整体空间并未发生变化,但你的自主权增强了,干你自己想干的事,比如安装操作系统(个性布置)等。
4、云服务器。这个是一个个独立服务器的集群,不是单个的物理服务器,它们之间通过网络技术连起来形成一台超级计算机,但这时候这些独立的服务器就有了具体的分工,比如有的是存储服务器,有的是计算服务器,有的是网络管理服务器,有的是内容分发服务器等等,也就是把一台物理服务器要完成的计算、处理、分发按照功能分成不同的物理器,你搞计算的只负责计算,我搞存储的只负责存储,我们之间是连通的,你处理需要数据从我这里来拿。还有,云服务器的备份功能相当强大,因为是集群。再打个比喻:把连片的所有大楼连通起来,但每栋大楼的功能不同,比如可以建一个只有宿舍的宿舍楼,再建一个只有卫生间的卫生楼,你从享有独立自主权的宿舍通过大楼之间的通道去上你自己的卫生间。但假如你的卫生间出现问题怎么办,很简单,把所有楼层都搞成活动的,通道还是那些通道,但是这个通道的尽头已经移动到另一个卫生间了,里面还保持着你原来的物品,你自己感觉不到变化。(这个比喻不太恰当,如果比成上飞机时的登机口和廊桥以及相同型号的飞机可能更容易理)
综上所述,可以看出它们是递进关系,技术先进程度也是递进的。

Ⅲ java搭建分布式集群项目大概需要多少台服务器

超过一台都可以叫集群,只有一台也可以算分布式,需要多少台服务器,主要看你的项目有多少模块,需要多高的性能。没有什么硬性要求,不用纠结

Ⅳ 中国十大IDC数据机房有哪些

要说机房设施,环境,还是北京的机房好,但大城市资源紧张,价格贵。还是郑州双线机房这边的性价比比较好,带宽也充足。

Ⅳ 技术落地性成大数据竞争赛点,鲲鹏大数据解决方案凭何领先

文 | 曾响铃

来源 | 科技 向令说(xiangling0815)

新基建浪潮下,作为底层支撑力量的数据与计算正变得越来越重要。

最近,由中国大数据与智能计算产业联盟主办,以“新算力 新基建 新经济”为主题的第二届中国超级算力大会ChinaSC在北京召开,包括国内外院士、知名学者和产业大咖在内的600多人参加,探讨了超级计算、新基建、云计算、大数据、人工智能、区块链等前沿技术进展。

这个奖项的颁出,官方给出的标准是,“能够把当前的各种技术有机的整合在一起,以满足不同应用场景下的各种综合的软硬件及系统方案,集科学性、先进性、稳定性、经济性等众多实际指标于一身,是技术转变为实际应用的关键环节。”

显然,这个权威奖项最关心的,是大数据解决方案在推动技术向实际应用转变的能力,而这也正是当下市场环境对大数据的核心需求。笔者尝试拆解鲲鹏大数据解决方案从宏观到操作层面的布局,希望能给予相关从业者这方面的行业借鉴。

技术竞赛不停, 但大数据需求转向应用落地

数据的价值越来越明显,更好地释放数据价值的技术在不断演化,但是,随着更多政企组织开始着手利用大数据能力帮助现实业务提升,其需求也开始更多倾向于技术能否更好地实现应用落地,大数据解决方案正是为此而生。

以鲲鹏为案例,在推动技术落地的过程中,其大数据解决方案表现出符合时代需要的三大特征,让它在新趋势下占据领先优势,受到客户广泛欢迎并获得ChinaSC权威认可。

1、超高性能仍然是应用落地的最有力支撑

大数据解决方案要推动技术实现各种场景的落地,其前提和支撑,是底层软硬件性能本身要足够强悍,否则,再完善和深度的解决方案,没有性能支撑也只能是空中楼阁。

而也只有性能足够强悍,在应用落地阶段才能够尽可能去满足客户各类数据价值需求。

得益于底层软硬件能力的深度开发,鲲鹏大数据解决方案就拥有超高性能,为应用做好了充分的准备以及支撑。

例如,硬件方面,采用自主研发高性能鲲鹏920处理器,软件方面,则拥有在大数据场景下获得倍级性能提升的独创IO智能预取和Spark机器学习&图增强算法。

以鲲鹏与浙江移动的合作为例,2019年,浙江移动相继完成了IT云鲲鹏服务器测试,营业厅前台系统、CRM、计费、大数据、CDN等系统的验证及上线商用。这其中,浙江移动的CRM&BOSS系统在鲲鹏大数据方案支撑下,整体得到了较大提升,在规模承载网络运营支撑业务的情况下,该系统现在已经稳定运行一年。

目前,浙江移动围绕网络云,IT云和移动云,已经打造了全球首个运营商领域ICT全场景样板点。

2、全栈方案才能推动技术全面落地

解决方案本身并不是一种具体的技术,其价值在于各种技术的有效融汇,作为统一的输出方式面向政企客户。而在政企客户需求日益加深的情况下,尽可能满足多种场景、多种技术诉求的解决方案,就必须建立一套尽可能完善的全栈体系,将各种技术有机地、系统地、全面地整合在一起。

这正是华为鲲鹏大数据解决方案的体系构成,其基于鲲鹏处理器,构建了端到端打通硬件、操作系统、中间件、大数据软件的全栈体系,并对应进行了全栈性能优化,推动各类技术汇聚成高性能解决方案:

可以看到,这套全栈体系,一方面通过有机整合,能够较为容易地同时满足科学性、先进性、稳定性、经济性等需求(例如,加速特性和大数据组件能够帮助方案更有效率同时成本更低);另一方面,作为全面、完整、一体化的信息化解决方案,也更容易去适应政府、金融、电信、互联网、大企业等不同行业应用需求。

从技术到应用落地,“全栈”成为重要的中间转换环节,不但“无损”,而且“增益”。

3、符合政企个性化需求让技术落地更具现实价值

在最终面向单个客户落地时,大数据解决方案还需要真正贴合这个客户的实际需要,这是从技术到应用落地的“临门一脚”,毕竟,不论性能如何强悍,全栈体系如何完善灵活,落实到客户头上,最终还是需要符合业务实际,产生现实价值。

既要有能力,更需要契合,鲲鹏大数据解决方案就是这么做的。

2019年,江苏省基于鲲鹏架构打造了全国首个省区市县三级政务大数据,未来将有越来越多的政务系统可以由自主可靠的鲲鹏计算平台来承载;

在广西,区内首个鲲鹏产业生态云项目——“壮美广西·玉林政务云(鲲鹏云)”已于不久前上线,这是该市全面推广应用广西数字政务一体化平台的体现,而其推出的广西首个市级公共数据开放管理办法,就与鲲鹏的大数据解决方案紧密相关;

目光转到浙江,在鲲鹏生态落子浙江的过程中,浙江推动形成“用鲲鹏”的共识,城市被当成鲲鹏生态的“试验场”,杭州市政务云已经选用鲲鹏作为算力底座,基于鲲鹏技术架构的解决方案和应用在政府服务场景中得到广泛应用。

总得看来,仅有高高在上的技术而无法产生实际价值的大数据玩法已经行不通,鲲鹏大数据解决方案跨越技术与应用的鸿沟,已经在众多行业、场景和企业中实现落地。

电信行业三巨头中,中国移动已实现鲲鹏大数据解决方案规模商用,中国电信则基于鲲鹏打造了天翼云,中国联通则基于鲲鹏构建了天宫IT系统;政务方面,北京、广东、江苏、浙江、广西等政务云都出现鲲鹏身影,当下其已经成为首选技术路线;在金融行业,鲲鹏正在帮助银行系统加速完成国产化。

可以说,鲲鹏大数据解决方案有力推动了中国数字经济发展,尤其是信息技术应用创新的落地。

领先优势下, 鲲鹏三个角度出发为大数据技术落地“铺路”

1、走得更稳——回应数字时代重要的安全关切

因此,鲲鹏大数据解决方案在安全方面一直加大投入,最典型的,是在底层硬件而非软件层面进行安全保障——鲲鹏920处理器内置硬件加速器、业界首创支持国密算法加速,这种CPU内置加速模块的做法,被称作“内生安全”,配合国密算法在技术上更为安全。

而与通常的大数据解决方案为了保证安全不得不让渡较多的性能随时监控系统运行不同,华为鲲鹏大数据解决方案内生安全的做法,做到了加密对业务性能的损耗低于5%——既解决安全痛点问题,也解决“为了安全需要”本身导致的痛点问题。

2、走得更顺——用兼容性保护既有数据软硬件投资

前文提到政务云大数据解决方案中,与现有的服务器的混合部署,这其中有一个十分重要的兼容性做法——由于鲲鹏大数据解决方案建立在鲲鹏处理器基础之上,而很多政企组织原有的软硬件投资都基于X86架构,所以鲲鹏要让技术的应用落地走得更顺,还需要在技术上完成对X86在部署层面的兼容,这样还能保护政企客户现有的数字化投资。

可以看到,当下的鲲鹏方案已经支持大数据组件TaiShan服务器与其他架构服务器混合部署。

以江苏电信为例,去年7月,其宣布成功上线全球首个基于鲲鹏处理器的运营商大数据平台。作为核心的业务系统,该大数据平台基于鲲鹏处理器的华为TaiShan服务器和开源Hadoop软件构建,承载着江苏电信所有生产系统的运行数据、存储及分析:

在项目进行过程中,双方携手完成基于鲲鹏处理器的开源Hadoop源代码编译,让关键的大数据业务组件在华为TaiShan服务器上的成功部署和运行,在原有集群上实现了传统架构服务器和TaiShan服务器融合部署。

这种兼容的做法,有效结合了江苏电信大数据业务特点和未来演进趋势,且充分发挥鲲鹏处理器的性能,提高了数据存储、计算等资源的使用效率。

3、走得更宽——生态开放才能让大数据拥有内生动力

鲲鹏生态的主要推动者华为一直强调的理念是“硬件开放、软件开源、使能合作伙伴”,在大数据解决方案中,这种理念同样得到了应用。

例如,在鲲鹏全栈方案中,顶层大数据平台就支持华为自研的FusionInsight大数据平台以及开源Apache、开源HDP/CDH、星环大数据平台,可以有效对接各类场景需要。今年8月,星环 科技 就发布了基于鲲鹏的大数据平台软硬件联合解决方案,由星环 科技 的TDH大数据平台提供软件层面优异的功能,由鲲鹏芯片提供硬件层面强大的性能,拥有极致性能、平滑迁移、丰富的场景支持以及快速部署多重优势,为行业创造价值。

此外,鲲鹏主导的数据虚拟化引擎openLooKeng开源,就支持跨数据格式、跨数据源、跨数据中心的海量分析,最终帮助方案的性能大幅度提升,典型的如北明数据资产管理平台V4.0就基于openLooKeng技术,解决了数据资产管理数据冗杂、标准不一、难以管理等痛点问题,为企业守护和挖掘数据的价值。

开放的生态,将帮助更多合作伙伴发展服务器和PC等计算产品,帮助构建高质量的基础软件生态,也让更多生态伙伴获得端、边、云的全场景开发能力,最终促进鲲鹏计算生态的繁荣,也加速大数据行业应用创新。

打好基础、做好标杆, 鲲鹏进入“强者恒强”周期

弥合技术与应用落地的鸿沟后,鲲鹏大数据解决方案拥有越来越多的政企实践,它们中大多数都是行业典型客户,本身既是大数据发展过程中的优质案例。

拥有这些客户资源的鲲鹏,实际上已经进入了强者恒强的发展周期,这不仅仅是因为它获得了诸多标杆合作案例、领先于行业,更重要的还在于,技术到应用实践的通路打通后,实践也将不断反馈技术,不断帮助鲲鹏锤炼自身的技术能力,从而形成有效的正反馈循环。

一旦这种循环形成,大数据解决方案就会进入“飞轮”式发展进程,越转越快、越难以停下,也很难以被后进者追赶,逐步成为政企客户最有竞争优势的选择。

更进一步来看,大数据服务从来都不是孤立存在的,在计算需求多样化的时代,鲲鹏计算产业生态的主要推动者华为在物联网、5G、AI等方面的能力和生态布局,无疑将帮助鲲鹏大数据解决方案有更多横向技术连接和融合的想象空间,满足更多政企客户潜在的创新业务需求。

总而言之,在以鲲鹏大数据解决方案为代表的优质案例引领下,数据与计算的时代正在加速到来,最终,“新算力”将推动“新基建”全面落地,带来“新经济”动能,更多政企客户将享受到技术带来的价值红利。

*本文图片均来源于网络

【完】

曾响铃

1钛媒体、品途、人人都是产品经理等多家创投、 科技 网站年度十大作者;

2虎啸奖评委;

3作家:【移动互联网+ 新常态下的商业机会】等畅销书作者;

4《中国经营报》《商界》《商界评论》《销售与市场》等近十家报刊、杂志特约评论员;

5钛媒体、36kr、虎嗅、界面、澎湃新闻等近80家专栏作者;

6“脑艺人”(脑力手艺人)概念提出者,现演变为“自媒体”,成为一个行业;

7腾讯全媒派荣誉导师、多家 科技 智能公司传播顾问。

Ⅵ nacos集群下最多部署多少台服务器

部署了200台服务器。Nacos 能让您从微服务平台建设的视角管理数据中心的所有服务及元数据,包括管理服务的描述、生命周期、服务的静态依赖分析的软件。

Ⅶ 3台服务器集群搭配2台磁盘储柜存可以吗

一、集群的基本概念

有一种常见的方法可以大幅提高服务器的安全性,这就是集群。

Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。

大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。

一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。

Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。

二、集群的硬件配置

镜像服务器双机

集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。

镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。

有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合!

Ⅷ 大数据集群

大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
魔方(大数据模型平台)
大数据模型平台是一款基于服务总线与分布式云计算两大技术架构的一款数据分析、挖掘的工具平台,其采用分布式文件系统对数据进行存储,支持海量数据的处理。采用多种的数据采集技术,支持结构化数据及非结构化数据的采集。通过图形化的模型搭建工具,支持流程化的模型配置。通过第三方插件技术,很容易将其他工具及服务集成到平台中去。数据分析研判平台就是海量信息的采集,数据模型的搭建,数据的挖掘、分析最后形成知识服务于实战、服务于决策的过程,平台主要包括数据采集部分,模型配置部分,模型执行部分及成果展示部分等。
大数据平台数据抽取工具
大数据平台数据抽取工具实现db到hdfs数据导入功能,借助Hadoop提供高效的集群分布式并行处理能力,可以采用数据库分区、按字段分区、分页方式并行批处理抽取db数据到hdfs文件系统中,能有效解决大数据传统抽取导致的作业负载过大抽取时间过长的问题,为大数据仓库提供传输管道。数据处理服务器为每个作业分配独立的作业任务处理工作线程和任务执行队列,作业之间互不干扰灵活的作业任务处理模式:可以增量方式执行作业任务,可配置的任务处理时间策略,根据不同需求定制。采用异步事件驱动模式来管理和分发作业指令、采集作业状态数据。通过管理监控端,可以实时监控作业在各个数据处理节点作业任务的实时运行状态,查看作业的历史执行状态,方便地实现提交新的作业、重新执行作业、停止正在执行的作业等操作。
互联网数据采集工具
网络信息雷达是一款网络信息定向采集产品,它能够对用户设置的网站进行数据采集和更新,实现灵活的网络数据采集目标,为互联网数据分析提供基础。
未至·云(互联网推送服务平台)
云计算数据中心以先进的中文数据处理和海量数据支撑为技术基础,并在各个环节辅以人工服务,使得数据中心能够安全、高效运行。根据云计算数据中心的不同环节,我们专门配备了系统管理和维护人员、数据加工和编撰人员、数据采集维护人员、平台系统管理员、机构管理员、舆情监测和分析人员等,满足各个环节的需要。面向用户我们提供面向政府和面向企业的解决方案。
显微镜(大数据文本挖掘工具)
文本挖掘是指从文本数据中抽取有价值的信息和知识的计算机处理技术, 包括文本分类、文本聚类、信息抽取、实体识别、关键词标引、摘要等。基于Hadoop MapRece的文本挖掘软件能够实现海量文本的挖掘分析。CKM的一个重要应用领域为智能比对, 在专利新颖性评价、科技查新、文档查重、版权保护、稿件溯源等领域都有着广泛的应用。
数据立方(可视化关系挖掘)
大数据可视化关系挖掘的展现方式包括关系图、时间轴、分析图表、列表等多种表达方式,为使用者提供全方位的信息展现方式。

Ⅸ 两台服务器手动部署大数据平台

两台服务器手动部署大数据平台

##### 初始服务器数量

- 2台centos7

##### 建议配置

- 32G(RAM)

- 24cpu

- 10t(SATA)

### 1.环境

- 系统centos7

- jdk:1.8.0_171(64位)

- zookeeper:3.4.8

- spark-2.1.0-bin-hadoop2.6

- kafka_2.10-0.10.2.1

- hadoop-2.7.0

- hbase-1.2.6

- elasticsearch-6.3.0

### 2.系统准备

对应的安装包文件:

elasticsearch-6.3.0.tar.gz

hadoop-2.7.0.tar.gz

hbase-1.2.6-bin.tar.gz

jdk-8u171-linux-x64.tar.gz

kafka_2.10-0.10.2.1.tgz

mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar

spark2.1.0hadoop2.6.tgz.gz

zookeeper-3.4.8.tar.gz

一、 配置好hosts

```

两台设备的host

ip1 hello1

ip2 hello2

关闭防火墙

systemctl stop firewalld

systemctl disable firewalld

二、机器之间做好免密

1. 在hello1服务器中,cd /root/

2. ssh-keygen -trsa  (全部按回车,走默认配置)

3. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

4. chmod 600 ~/.ssh/authorized_keys

5. scp ~/.ssh/authorized_keys root@hello2:~/.ssh/

到此处时可以实现hello1机器上通过root账户登录到hello2中,但从hello2中无法通过免密码登录到hello1服务器。

6. 在hello2服务器中,cd /root/

7. ssh-keygen -trsa  (全部按回车,走默认配置)

8. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

9. scp ~/.ssh/authorized_keys root@hello1:~/.ssh/

到此处时可以实现hello1机器与hello2机器之间免密码互通

三、建立一个用户操作elasticsearch用户,后期所有安装软件放在该目录下(当前使用root账户安装)

1.添加用户:

useradd -m -s /bin/bash es

2.为该用户设置密码:

password es

四、安装JDK

如果系统自带openjdk,先将其卸载掉!

1.创建jdk安装路径(hello1、hello2都执行)

执行: mkdir /usr/java

2.解压缩jdk到安装目录

执行: tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/java/

3.添加环境变量

vi /etc/profile,添加以下语句

export JAVA_HOME=/usr/java/jdk1.8.0_171

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

执行:source /etc/profile

4.复制安装包和数据目录到hello2

scp  -r /usr/java/jdk1.8.0_171 hello2:/usr/java/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: source /etc/profile

5、验证:

两台服务器上分别执行: java -version,查看输出的版本是否与安装的版本一致。

五、安装mysql

1.如果centos系统中自带mariadb,先卸载mariadb。

2.解压mysql安装包程序

执行:tar -xvf  mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar

3.依次安装里面rpm包组建

rpm -ivh mysql-community-common-5.7.23-1.el7.x86_64.rpm

rpm -ivh mysql-community-libs-5.7.23-1.el7.x86_64.rpm

rpm -ivh mysql-community-client-5.7.23-1.el7.x86_64.rpm

rpm -ivh mysql-community-server-5.7.23-1.el7.x86_64.rpm

rpm -ivh mysql-community-devel-5.7.23-1.el7.x86_64.rpm

4.启动MySQL

执行: systemctl start mysqld

5.登录mysql服务器

这种方式安装好后,会再my.cnf文件中自动生成一个密码,

执行:cat /var/log/mysqld.log | grep password, 出现如下记录:

2017-09-15T01:58:11.863301Z 1 [Note] A temporary password is generated for root@localhost: m-NdrSG4ipuO

其中“m-NdrSG4ipuO”为mysql root账户的初始密码。

登录:

执行: mysql -uroot -p

输入密码: m-NdrSG4ipuO,即可进入mysql服务器。

后续可自行修改root密码,创建新账户等操作。

六、安装zookeeper

1.解压zookeeper安装包到指定目录(/home/es)

tar -zxvf zookeeper-3.4.8.tar.gz -C /home/es

2.创建程序软连接

cd /home/es/

ln -s zookeeper-3.4.8 zookeeper

3.添加执行路径环境

vi /etc/profile

添加

export ZOOKEEPER_HOME=/home/es/zookeeper

export PATH=$PATH:$ZOOKEEPER_HOME/bin

执行

source /etc/profile

4.修改配置文件

cd /home/es/zookeeper

cp conf/zoo_sample.cfg conf/zoo.cfg

在/home/data下创建对应的zookeeper数据存储目录

mkdir /home/data/zookeeper

mkdir /home/data/zookeeper/data

mkdir /home/data/zookeeper/log

修改配置文件:conf/zoo.cfg,添加以下语句

dataDir=/home/data/zookeeper/data

dataLogDir=/home/data/zookeeper/log

server.1=hello1:2888:3888

server.2=hello2:2888:3888

5.创建server表示符文件

touch /home/data/zookeeper/data/myid

echo echo 1>/home/data/zookeeper/data/myid

6.复制安装包和数据目录到hello2

scp -r /home/es/zookeeper-3.4.8 es@hello2:/home/es

scp -r /home/data/zookeeper es@hello2:/home/data

scp  /etc/profile es@hello2:/etc

登录到hello2上

cd /home/es

ln -s zookeeper-3.4.8 zookeeper

echo echo 2>/home/data/zookeeper/data/myid

执行

source /etc/profile

7.两台机器上分别执行

zkServer.sh start

8.验证

jps | grep QuorumPeerMain,查看是否有该进程

zkServer.sh status,查看服务状态

六、安装kafka

1.解压kafka安装包到指定目录(/home/es)

tar -zxvf kafka_2.10-0.10.2.1.tgz -C /home/es

2.创建程序软连接

cd /home/es/

ln -s kafka_2.10-0.10.2.1 kafka

3.修改配置文件

备份:

cp config/server.properties config/server.properties.bak

创建kafka日志目录:

mkdir /home/data/kafka

mkdir /home/data/kafka/kafka-logs

修改:config/server.properties,具体对应字段如下:

broker.id=0

delete.topic.enable=true

num.network.threads=10

num.io.threads=32

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

log.dirs=/home/data/kafka/kafka-logs

num.partitions=1

num.recovery.threads.per.data.dir=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

zookeeper.connect=hello1:2181,hello2:2181

zookeeper.connection.timeout.ms=6000

6.复制安装包和数据目录到hello2

scp -r /home/es/kafka_2.10-0.10.2.1 es@hello2:/home/es

scp -r /home/data/kafka es@hello2:/home/data

修改hello2中的配置

登录到hello2上,cd /home/es/kafka,修改config/server.properties中broker.id值为2.

7.启动kafka

在两台机器的/home/es/kafka中,创建一个日志存放目录:mkdir start_log,执行以下命令:

nohup bin/kafka-server-start.sh config/server.properties > start_log/kafka_start_log 2>&1 &

8.验证运行情况

jps | grep Kafka,查看进程

通过kafka命令查看topic。

七、安装hadoop

1.解压hadoop安装包到指定目录(/home/es)

tar -zxvf hadoop-2.7.0.tar.gz -C /home/es

2.创建程序软连接

cd /home/es/

ln -s hadoop-2.7.0 hadoop

3.创建数据存放目录

mkdir /home/data/hadoop

mkdir /home/data/hadoop/tmp

mkdir /home/data/hadoop/dfs

mkdir /home/data/hadoop/dfs/data

mkdir /home/data/hadoop/dfs/name

4.修改配置文件

修改/home/es/hadoop/etc/hadoop/core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hello1:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/data/hadoop/tmp</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131702</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/data/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/home/data/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hello1:9001</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/mapred-site.xml

<configuration>

<property>

<name>maprece.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>maprece.jobhistory.address</name>

<value>hello1:10020</value>

</property>

<property>

<name>maprece.jobhistory.webapp.address</name>

<value>hello1:19888</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>maprece_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.auxservices.maprece.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>hello1:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheler.address</name>

<value>hello1:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>hello1:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>hello1:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>hello1:8088</value>

</property>

<property>

<name>yarn.nodemanager.resource.memory-mb</name>

<value>768</value>

</property>

</configuration>

配置/home/es/hadoop/etc/hadoop目录下hadoop-env.sh、yarn-env.sh的JAVA_HOME(不设置的话,启动不了)

export JAVA_HOME=/usr/java/jdk1.8.0_171

配置/home/es/hadoop/etc/hadoop目录下的slaves,删除默认的localhost,增加2个从节点,

hello1

hello2

5、将配置好的Hadoop复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hadoop-2.7.0 hello2:/home/es/

scp  -r /home/data/hadoop hello2:/home/data/

登录到hello2上,进入/home/es目录

执行: ln -s hadoop-2.7.0 hadoop

6、格式化nameNode及启动hadoop

在主服务器启动hadoop,从节点会自动启动,进入/home/es/hadoop目录

初始化,输入命令,bin/hdfs namenode -format

全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.sh、sbin/start-yarn.sh

输入命令,jps,可以看到相关信息

7、验证hadoop运行情况

浏览器打开http://hello1:8088/

浏览器打开http://hello1:50070/

8、添加hadoop环境变量到/etc/profile

export HADOOP_HOME=/home/es/hadoop export PATH=$PATH:$HADOOP_HOME/sbin

export PATH=$PATH:$HADOOP_HOME/bin

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

执行: source /etc/profile

八、安装Hbase

1.解压hbase安装包到指定目录(/home/es)

tar -zxvf hbase-1.2.6-bin.tar.gz -C /home/es

2.创建程序软连接

cd /home/es/

ln -s hbase-1.2.6 hbase

3.添加hbase环境变量到/etc/profile

export  HBASE_HOME=/home/es/hbase

export  PATH=$HBASE_HOME/bin:$PATH

执行:source /etc/profile

4.修改HBASE配置文件

vi /home/es/hbase/conf/hbase-env.sh

增加: export JAVA_HOME=/usr/java/jdk1.8.0_171

修改: export HBASE_MANAGES_ZK=false

vi /home/es/hbase/conf/hbase-site.xml

修改类容:

<configuration>

<property>

<name>hbase.rootdir</name> <!-- hbase存放数据目录 -->

<value>hdfs://hello1:9000/hbase/hbase_db</value>

<!-- 端口要和Hadoop的fs.defaultFS端口一致-->

</property>

<property>

<name>hbase.cluster.distributed</name> <!-- 是否分布式部署 -->

<value>true</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name> <!-- list of  zookooper -->

<value>hello1,hello2</value>

</property>

<property><!--zookooper配置、日志等的存储位置 -->

<name>hbase.zookeeper.property.dataDir</name>

<value>/home/es/hbase/zookeeper</value>

</property>

</configuration>

配置regionservers,vi /home/es/hbase/conf/regionservers

去掉默认的localhost,加入hello1、hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hbase-1.2.6 hello2:/home/es/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: ln -s hbase-1.2.6 hbase

source /etc/profile

6、hbase的启动

hello1中执行: start-hbase.sh

7、验证hbase运行情况

输入jps命令查看进程是否启动成功,若 hello1上出现HMaster、HRegionServer、HQuormPeer,hello2上出现HRegionServer、HQuorumPeer,就是启动成功了。

输入hbase shell 命令 进入hbase命令模式,输入status命令,查看运行状态。

在浏览器中输入http://hello1:16010就可以在界面上看到hbase的配置

注意事项:

正常安装后,创建普通不带压缩表可以正常读写,当使用snappy进行压缩创建表时,该表无法再regionServer中启动!

解决方法:

1.在hbase-site.xml文件中添加一下属性

<property>

                <name>hbase.regionserver.codecs</name>

                <value>snappy</value>

        </property>

2.每台机器中将hadoop_native.zip解压缩到hbase安装目录的lib下,执行 unzip hadoop_native.zip $HBASE_HOME/lib/

3.在$HBASE_HOME/conf/hbase-env.sh 中添加:export HBASE_LIBRARY_PATH=/home/es/hbase/lib/native

4.重启Hbase服务即可

九、Spark安装

1.解压hbase安装包到指定目录(/home/es)

tar -zxvf spark2.1.0hadoop2.6.tgz.gz -C /home/es

2.创建程序软连接

cd /home/es/

ln -s spark2.1.0hadoop2.6 spark

3.修改配置文件

mv /home/es/spark/conf/spark-env.sh.template  /home/es/spark/conf/spark-env.sh

vi /home/es/spark/conf/spark-env.sh

修改对应配置:

export JAVA_HOME=/usr/java/jdk1.8.0_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello1

修改slaves文件

mv /home/es/spark/conf/slaves.template  /home/es/spark/conf/slaves

vi /home/es/spark/conf/slaves

将localhost修改成:

hello1

hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/spark2.1.0hadoop2.6 hello2:/home/es/

登录到hello2上,进入/home/es目录

执行: ln -s spark2.1.0hadoop2.6 spark

在hello2中修改/home/es/spark/conf/spark-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello2

6、启动spark

cd /home/es/spark

执行: sbin/start-all.sh

7、检测执行结果

jps | grep Worker,看是否有相应的进程。

十、安装elasticsearch

由于elasticsearch,用root账户无法启动,故该组件用es账户安装

1、切换到es账户: su es

2、解压hbase安装包到指定目录(/home/es)

tar -zxvf elasticsearch-6.3.0.tar.gz -C /home/es/

创建程序软连接

cd /home/es/

ln -s elasticsearch-6.3.0 elasticsearch

3、修改配置文件

vi /home/es/elasticsearch/config/elasticsearch.yml

# 集群的名字 

cluster.name: crrc-health

# 节点名字 

node.name: node-1 

# 数据存储目录(多个路径用逗号分隔) 

path.data: /home/data1/elasticsearch/data

# 日志目录 

path.logs: /home/data1/elasticsearch/logs

#本机的ip地址

network.host: hello1 

#设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点

discovery.zen.ping.unicast.hosts: ["hello1", "hello2"]

# 设置节点间交互的tcp端口(集群),(默认9300) 

transport.tcp.port: 9300

# 监听端口(默认) 

http.port: 9200

# 增加参数,使head插件可以访问es 

http.cors.enabled: true

http.cors.allow-origin: "*"

4、创建elasticsearch数据和存储目录

mkdir /home/data1/elasticsearch

mkdir /home/data1/elasticsearch/data

mkdir /home/data1/elasticsearch/logs

5、修改linux系统的默认硬限制参数

切换至root用户: su root

vim /etc/security/limits.conf

添加:

es soft nofile 65536

es hard nofile 65536

退出es登录,重新用es账户登录,使用命令:ulimit -Hn查看硬限制参数。

vi /etc/sysctl.conf

添加:

vm.max_map_count=655360

执行:

sysctl -p

6、将配置好的elasticsearch复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/elasticsearch-6.3.0 hello2:/home/es/

scp  -r /home/data1/elasticsearch hello2:/home/data1/

登录到hello2上,进入/home/es目录

执行: ln -s elasticsearch-6.3.0 elasticsearch-6.3.0

在hello2中修改/home/es/elasticsearch/config/elasticsearch.yml

修改: network.host: hello2

7、启动elasticsearch

使用es账户

执行:

/home/es/elasticsearch/bin/elasticsearch -d

8、验证

控制台中输入:curl http://hello1:9200

Ⅹ 做一个信息平台 然后并发性要求5000户 做一个 数据库集群 咨询一下需要多少服务器 和什么配置

这样的话,对服务器性能要求非常高了。推荐你看看国产品牌正睿的这款双路四核服务器。标配一颗至强E5645六核十二线程处理器(2.4GHz/5.86GT/12M缓存),英特尔5500服务器芯片组主板,4G DDR3 REG ECC 1333MHz内存,SAS 300G企业级硬盘,4个热插拔盘位,双千兆网卡,性能可以说是非常不错。如果以后随着业务量的增长,觉得性能不够用了,还可以扩展到两颗处理器,达成12颗处理核心,24条处理线程(在任务管理器处能看到24个处理核心的格子- -~很NB),最大支持96GB内存。
产品型号:I2696184S-E
产品类型:双路六核机架式服务器
处 理 器:Xeon E5645
内 存:4G DDR3 REG ECC
硬 盘:SAS 300G
机 构:1U机架式
价 格:¥14990
银牌服务
重庆五年免费上门服务,全国三年免费上门服务,关键部件三年以上免费质保。

建议把处理器扩展到2个,达成物理12核心,24条计算线程,跑数据库非常快,然后把内存升级到12G DDR3 REG ECC,总价也就在22000不到。性能就非常强悍了。。。如果需要做集群,就再增加这种服务器就可以了。支持5000并发信息系统,没问题。

给你推荐的是国产品牌正睿的服务器产品,他们的产品性价比很高,做工很专业,兼容性,质量之类的都有保障,售后也很完善,3年免费质保,3年免费上门服务,在业界口碑很不错。

阅读全文

与浙江移动大数据集群有多少服务器相关的资料

热点内容
苹果数据3g不卡4g很卡为什么 浏览:727
微信小程序保护师傅怎么卡bug 浏览:12
世达工具重庆总代理在哪里 浏览:28
卖房程序多久房主能拿到钱 浏览:904
胶纸粘产品如何快速撕掉 浏览:438
如何搭建tb大数据 浏览:570
期货市场赚钱逻辑是什么 浏览:770
保险经纪人如何管理客户信息保单 浏览:529
儿童打新冠疫苗的信息在哪里查看 浏览:114
贵州珍酒代理商的条件是什么 浏览:126
企业技术环境分析包括哪些内容 浏览:581
去王顶堤水产批发市场坐什么车 浏览:517
poriot什么时候上交易所 浏览:312
化妆品的备案信息日期能用多久 浏览:187
南宁工业职业技术学院有哪些 浏览:77
吃货团如何招代理 浏览:201
时空猎人猫怎么交易 浏览:85
如何开启网络爬虫获取线上数据 浏览:484
季后赛数据是什么 浏览:793
乍浦镇古玩市场在哪里 浏览:259