搜档网
当前位置:搜档网 › Hadoop2.4、Hbase0.98、Hive集群安装配置手册

Hadoop2.4、Hbase0.98、Hive集群安装配置手册

Hadoop2.4、Hbase0.98、Hive集群安装配置手册
Hadoop2.4、Hbase0.98、Hive集群安装配置手册

Hadoop、Zookeeper、Hbase、Hive 集群安装配置手册?

运行环境?
? 机器配置 虚机 CPU?E5504*2?(4 核心)、内存 4G、硬盘 25G ? 进程说明 QuorumPeerMain DFSZKFailoverController JournalNode ZooKeeper?ensemble?member Hadoop?HA 进程,维持 NameNode 高可用 Hadoop HA 进程,JournalNode 存储 EditLog, 每次写数据操作有大多数(>=N+1)返回成功时 即认为该次写成功,保证数据高可用 Hadoop?HDFS 进程,名字节点 HadoopHDFS 进程, serves?blocks Hadoop YARN 进程,负责 Container 状态的 维护,并向 RM 保持心跳。 Hadoop?YARN 进程,资源管理 Hadoop?MR1 进程, 管理哪些程序应该跑在哪 些机器上,需要管理所有 job 失败、重启等 操作。 Hadoop?MR1 进程,manages?the?local?Childs Hive 进程 HBase 主节点 HBase?RegionServer,?serves?regions 可以通过该服务查看已经运行完的 mapreduce 作业记录?
NameNode DataNode NodeManager ResourceManager JobTracker?
TaskTracker RunJar HMaster HRegionServer JobHistoryServer 主机/hostname 10.12.34.14/https://www.sodocs.net/doc/5313186145.html, 系统版 本 Centos 5.8?
应用 mysql mysqld?
服务进程?

10.12.34.15/h15?
Centos 5.8?
Hadoop Zookeeper Hbase Hive?
QuorumPeerMain DFSZKFailoverController NameNode NodeManager RunJar HMaster JournalNode JobHistoryServer ResourceManager DataNode HRegionServer DFSZKFailoverController QuorumPeerMain HMaster JournalNode NameNode ResourceManager DataNode HRegionServer NodeManager NodeManager DataNode QuorumPeerMain JournalNode HRegionServer?
10.12.34.16/h16?
Centos 5.8?
Hadoop Zookeeper Hbase Hive?
10.12.34.17/h17?
Centos 5.8?
Hadoop Zookeeper Hbase Hive?
环境准备?
1. 关闭防火墙 15、16、17 主机: #?service?iptables?stop 2. 配置主机名 a) 15、16、17 主机: #?vi?/etc/hosts 添加如下内容: 10.12.34.15?h15 10.12.34.16?h16 10.12.34.17?h17 b) 立即生效 15 主机: # /bin/hostname h15 16 主机: # /bin/hostname h16

17 主机: # /bin/hostname h17 3. 创建用户 15、16、17 主机: # useraddhduser 密码为 hduser # chown -R hduser:hduser /usr/local/ 4. 配置 SSH 无密码登录 a) 修改 SSH 配置文件 15、16、17 主机: #?vi?/etc/ssh/sshd_config 打开以下注释内容: #RSAAuthentication?yes #PubkeyAuthentication?yes #AuthorizedKeysFile .ssh/authorized_keys b) 重启 SSHD 服务 15、16、17 主机: #?service?sshd?restart c) 切换用户 15、16、17 主机: #?su?hduser d) 生成证书公私钥 15、16、17 主机: $?ssh‐keygen?‐t?rsa e) 拷贝公钥到文件(先把各主机上生成的 SSHD 公钥拷贝到 15 上的 authorized_keys 文 件,再把包含所有主机的 SSHD 公钥文件 authorized_keys 拷贝到其它主机上) 15 主机: $cat?~/.ssh/id_rsa.pub?>>?~/.ssh/authorized_keys 16 主机: $cat?~/.ssh/id_rsa.pub?|?ssh?hduser@h15?'cat?>>?~/.ssh/authorized_keys' 17 主机: $cat?~/.ssh/id_rsa.pub?|?ssh?hduser@h15?'cat?>>?~/.ssh/authorized_keys' 15 主机: #?cat?~/.ssh/authorized_keys?|?ssh?hduser@h16?'cat?>>?~/.ssh/authorized_keys' #?cat?~/.ssh/authorized_keys?|?ssh?hduser@h17?'cat?>>?~/.ssh/authorized_keys' 5. Mysql a) Host 10.12.34.14:3306 b) username、password hduser@hduser?

Zookeeper?
使用 hduser 用户 #?su?hduser?
安装(在 15 主机上)?
1. 下载 https://www.sodocs.net/doc/5313186145.html,/apache/zookeeper/ 2. 解压缩 $?tar?‐zxvf?/zookeeper‐3.4.6.tar.gz?‐C?/usr/local/?
配置(在 15 主机上)?
1. 将 zoo_sample.cfg 重命名为 zoo.cfg $ mv /usr/local/zookeeper‐3.4.6/conf/zoo_sample.cfg /usr/local/zookeeper‐3.4.6/conf/zoo.cfg 2. 编辑配置文件 $?vi?/usr/local/zookeeper‐3.4.6/conf/zoo.cfg a) 修改数据目录 dataDir=/tmp/zookeeper 修改为 dataDir=/usr/local/zookeeper‐3.4.6/data b) 配置 server 添加如下内容: server.1=h15:2888:3888 server.2=h16:2888:3888 server.3=h17:2888:3888 server.X=A:B:C 说明: X:表示这是第几号 server A:该 server?hostname/所在 IP 地址 B:该 server 和集群中的 leader 交换消息时所使用的端口 C:配置选举 leader 时所使用的端口 3. 创建数据目录 $?mkdir?/usr/local/zookeeper‐3.4.6/data 4. 创建、编辑文件 $?vi?/usr/local/zookeeper‐3.4.6/data/myid 添加内容(与 zoo.cfg 中 server 号码对应) : 1?
在 16、17 主机上安装、配置?
1. 拷贝目录?

15 主机: $?scp?‐r?/usr/local/zookeeper‐3.4.6/?hduser@10.12.34.16:/usr/local/ $?scp?‐r?/usr/local/zookeeper‐3.4.6/?hduser@10.12.34.17:/usr/local/ 2. 修改 myid a) 16 主机 $?vi?/usr/local/zookeeper‐3.4.6/data/myid 1 修改为 2 b) 17 主机 $?vi?/usr/local/zookeeper‐3.4.6/data/myid 1 修改为 3?
启动?
$?cd?/usr/local/zookeeper‐3.4.6/ $./bin/zkServer.sh?start 查看状态: $./bin/zkServer.sh?status?
Hadoop?
使用 hduser 用户 #?su?hduser?
安装(在 15 主机上)?
一、安装 Hadoop 1. 下载 https://www.sodocs.net/doc/5313186145.html,/apache/hadoop/common/ 2. 解压缩 $?tar?‐zxvf?/hadoop‐2.4.0.tar.gz?‐C?/usr/local/?
二、
编译本地库,主机必须可以访问 internet。官网下载的 hadoop‐2.4.0.tar.gz 所带的本 地库为 32 位 (使用#?file?/usr/local/hadoop‐2.4.0/lib/native/libhadoop.so 查看, 如内容为:
/usr/local/hadoop-2.4.0/lib/native/libhadoop.so: ELF 32-bit LSB s hared object, Intel 80386, version 1 (SYSV), not stripped) ,导致无
法使用本地库 (WARN?util.NativeCodeLoader:?Unable?to?load?native‐hadoop?library?for?your platform...?using?builtin‐java?classes?where?applicable) ,需要自行编译 64 位本地库,也可 以直接使用随文档附件 native.zip,使用方法参见替换 32 位本地库,该本地库是在 centos5.8 环境下编译的,因此需注意实际环境。 1. 使用 root 用户 $?su?root 2. 安装 zlib?

3.
4.
5.
6.
a) 下载 https://www.sodocs.net/doc/5313186145.html,/ b) 解压缩 #?tar?‐zxvf?/zlib‐1.2.8.tar.gz?‐C?/ c) 进入目录 #?cd?/zlib‐1.2.8 d) 安装 #?./configure #?make #?make?install 安装 openssl a) 下载 https://www.sodocs.net/doc/5313186145.html,/source/ b) 解压缩 #?tar?‐zxvf?openssl‐1.0.1i.tar.gz c) 进入目录 #?cd?openssl‐1.0.1i d) 安装 #?./config #?make #?make?install e) 使用当前 ssl #?ln?‐s?/usr/local/ssl/include/openssl/?/usr/include/openssl 安装 JDK a) 下载 https://www.sodocs.net/doc/5313186145.html,/technetwork/java/javase/downloads b) 解压缩 #?tar?‐zxvf?/jdk‐6u25‐linux‐x64.tar.gz?‐C?/usr/local/ c) 配置环境变量 #?vi?/etc/profile 添加以下内容: JAVA_HOME=/usr/local/jdk1.6.0_25 CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/jre/lib/rt.jar PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$JAVA_HOME/jre/bin 立即生效: #?source?/etc/profile 安装 ant a) 下载 https://www.sodocs.net/doc/5313186145.html,/bindownload.cgi b) 解压缩 #?tar?‐zxvf?/usr/local/apache‐ant‐1.9.4‐bin.tar.gz?‐C?/usr/local/ 安装 maven a) 下载 https://www.sodocs.net/doc/5313186145.html,/download.cgi?

b) 解压缩 #?tar?‐zxvf?apache‐maven‐3.2.3‐bin.tar.gz?‐C?/usr/local/ 7. 添加 ant、maven 环境变量 a) 添加到 profile #?vi?/etc/profile 添加内容如下: export?ANT_HOME=/usr/local/apache‐ant‐1.9.4 export?MAVEN_HOME=/usr/local/apache‐maven‐3.2.3 export?PATH=$PATH:$ANT_HOME/bin:$MAVEN_HOME/bin b) 立即生效: #?source?/etc/profile 8. 安装 protobuf a) 下载 https://https://www.sodocs.net/doc/5313186145.html,/p/protobuf/downloads/list b) 解压缩 #?tar?‐zxvf?/protobuf‐2.5.0.tar.gz?‐C?/ c) 进入目录 #?cd?/protobuf‐2.5.0 d) 安装 #?./configure #?make #?make?install 9. 验证 ant、maven、protobuf a) ant #?ant?‐version?
b) maven #?mvn?‐v?
c) protobuf #?protoc?‐‐version?
10. 安装 cmake a) 下载 https://www.sodocs.net/doc/5313186145.html,/download/ b) 解压缩?

#?tar?‐zxvf?/cmake‐3.0.2.tar.gz?‐C?/ c) 进入目录 #?cd?/cmake‐3.0.2 d) 安装 #?./bootstrap #?make #?make?install 11. hadoop 源码包 a) 下载 https://www.sodocs.net/doc/5313186145.html,/apache/hadoop/common/hadoop‐2.4.0/ b) 解压缩 #?tar?‐zxvf?/hadoop‐2.4.0‐src.tar.gz?‐C?/ 12. 编译本地库 a) 进入 hadoop 源码目录 #?cd?/hadoop‐2.4.0‐src b) 下载所需资源 #?mvn?clean?install?‐DskipTests c) 编译 #?mvn?package?‐Pdist,native?‐DskipTests?‐Dtar?
编译成功 d) 替换 32 位本地库 用/hadoop‐2.4.0‐src/hadoop‐dist/target/hadoop‐2.4.0/lib/下的 native 目录替换掉 /usr/local/hadoop‐2.4.0/lib 下的 native 目录 e) 重新生成快捷方式 #?rm?‐rf?/usr/local/hadoop‐2.4.0/lib/native/libhadoop.so #?rm?‐rf?/usr/local/hadoop‐2.4.0/lib/native/libhdfs.so # ln ‐s /usr/local/hadoop‐2.4.0/lib/native/libhadoop.so.1.0.0 /usr/local/hadoop‐2.4.0/lib/native/libhadoop.so # ln ‐s /usr/local/hadoop‐2.4.0/lib/native/libhdfs.so.0.0.0 /usr/local/hadoop‐2.4.0/lib/native/libhdfs.so chown -R hduser:hduser /usr/local/ #?chown?‐R?hduser:hduser?/usr/local/hadoop‐2.4.0/lib/native/?

配置(在 15 主机上)?
使用 hduser 用户 #?su?hduser 1. 配置 JDK 环境 a) hadoop‐env.sh $?vi?/usr/local/hadoop‐2.4.0/etc/hadoop/hadoop‐env.sh export?JAVA_HOME=${JAVA_HOME}修改为 export?JAVA_HOME=/usr/local/jdk1.6.0_25 b) yarn‐env.sh $?vi?/usr/local/hadoop‐2.4.0/etc/hadoop/yarn‐env.sh # export JAVA_HOME=/home/y/libexec/jdk1.6.0/ 修 改 为 export JAVA_HOME=/usr/local/jdk1.6.0_25 2. 修改 core‐site.xml $vi?/usr/local/hadoop‐2.4.0/etc/hadoop/core‐site.xml 在之间添加如下内容: fs.defaultFS hdfs://ns1 hadoop.tmp.dir /usr/local/hadoop‐2.4.0/tmp ha.zookeeper.quorum h15:2181,h16:2181,h17:2181 io.native.lib.available true Should?native?hadoop?libraries,?if?present,?be?used. 3. 修改 hdfs‐site.xml $vi?/usr/local/hadoop‐2.4.0/etc/hadoop/hdfs‐site.xml 在之间添加如下内容: hbase.rootdir hdfs://ns1/hbase https://www.sodocs.net/doc/5313186145.html,services ns1?

https://www.sodocs.net/doc/5313186145.html,nodes.ns1 nn1,nn2 https://www.sodocs.net/doc/5313186145.html,node.rpc‐address.ns1.nn1 h15:9000 https://www.sodocs.net/doc/5313186145.html,node.http‐address.ns1.nn1 h15:50070 https://www.sodocs.net/doc/5313186145.html,node.rpc‐address.ns1.nn2 h16:9000 https://www.sodocs.net/doc/5313186145.html,node.http‐address.ns1.nn2 h16:50070 https://www.sodocs.net/doc/5313186145.html,node.shared.edits.dir qjournal://h15:8485;h16:8485;h17:8485/ns1 dfs.journalnode.edits.dir /usr/local/hadoop‐2.4.0/journal dfs.ha.automatic‐failover.enabled true dfs.client.failover.proxy.provider.ns1 https://www.sodocs.net/doc/5313186145.html,node.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private‐key‐files?

/home/hduser/.ssh/id_rsa 4. 修改 mapred‐site.xml a) 将 mapred‐site.xml.template 重命名为 mapred‐site.xml $mv /usr/local/hadoop‐2.4.0/etc/hadoop/mapred‐site.xml.template /usr/local/hadoop‐2.4.0/etc/hadoop/mapred‐site.xml b) 修改 mapred‐site.xml $vi?/usr/local/hadoop‐2.4.0/etc/hadoop/mapred‐site.xml 在之间添加如下内容: https://www.sodocs.net/doc/5313186145.html, yarn mapreduce.jobhistory.address h15:10020 mapreduce.jobhistory.webapp.address h15:19888 mapreduce.jobhistory.joblist.cache.size 20000 5. 修改 yarn‐site.xml $vi?/usr/local/hadoop‐2.4.0/etc/hadoop/yarn‐site.xml 在之间添加如下内容: yarn.nodemanager.aux‐services mapreduce_shuffle yarn.resourcemanager.connect.retry‐interval.ms 2000 yarn.resourcemanager.ha.enabled true ?

yarn.resourcemanager.ha.automatic‐failover.enabled true yarn.resourcemanager.ha.automatic‐failover.embedded true yarn.resourcemanager.cluster‐id yarn‐cluster yarn.resourcemanager.ha.rm‐ids rm1,rm2 yarn.resourcemanager.scheduler.class org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler yarn.resourcemanager.recovery.enabled true yarn.app.mapreduce.am.scheduler.connection.wait.interval‐ms 5000 yarn.resourcemanager.store.class org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore yarn.resourcemanager.zk‐address h15:2181,h16:2181,h17:2181 yarn.resourcemanager.zk.state‐store.address h15:2181,h16:2181,h17:2181 ?

yarn.resourcemanager.address.rm1 h15:23140 yarn.resourcemanager.address.rm2 h16:23140 yarn.resourcemanager.scheduler.address.rm1 h15:23130 yarn.resourcemanager.scheduler.address.rm2 h16:23130 yarn.resourcemanager.admin.address.rm1 h15:23141 yarn.resourcemanager.admin.address.rm2 h16:23141 yarn.resourcemanager.resource‐tracker.address.rm1 h15:23125 yarn.resourcemanager.resource‐tracker.address.rm2 h16:23125 yarn.resourcemanager.webapp.address.rm1 h15:23188 yarn.resourcemanager.webapp.address.rm2 h16:23188 ?

yarn.resourcemanager.webapp.https.address.rm1 h15:23189 yarn.resourcemanager.webapp.https.address.rm2 h16:23189 6. 修改 slaves $?vi?/usr/local/hadoop‐2.4.0/etc/hadoop/slaves 内容如下: h15 h16 h17?
在 16、17 主机上安装?
1. 拷贝目录: 15 主机: $?scp?‐r?/usr/local/hadoop‐2.4.0/?hduser@10.12.34.16:/usr/local/ $?scp?‐r?/usr/local/hadoop‐2.4.0/?hduser@10.12.34.17:/usr/local/?
初始化?
1. 确保 zookeeper 已经启动 2. 进入目录 $?cd?/usr/local/hadoop‐2.4.0/ 3. 创建命名空间 15 主机: $./bin/hdfs?zkfc?‐formatZK 4. 启动?journalnode 15、16、17 主机: $./sbin/hadoop‐daemon.sh?start?journalnode 5. 格式化 namenode 和 journalnode 目录 15 主机: $./bin/hadoop?namenode?‐format?ns1 6. 启动主 namenode 进程 15 主机: $./sbin/hadoop‐daemon.sh?start?namenode 7. 格式化备 namenode (格式化目录, 而元数据则从主 namenode 拷贝) 并启动备 namenode 进程 16 主机: $./bin/hdfs?namenode?–bootstrapStandby $./sbin/hadoop‐daemon.sh?start?namenode?

8. 启动 ZKFC 15、16 主机: $./sbin/hadoop-daemon.sh start zkfc 9. 启动 datanode 15、16、17 主机: $./sbin/hadoop-daemon.sh start datanode?
启动?
进入目录 $?cd?/usr/local/hadoop‐2.4.0/ 一、启动 HDFS 1. 启动?journalnode 15、16、17 主机: $?./sbin/hadoop‐daemon.sh?start?journalnode 2. 启动 namenode 15、16 主机: $./sbin/hadoop‐daemon.sh?start?namenode 3. 启动 datanode 15、16、17 主机: $ ./sbin/hadoop-daemon.sh start datanode 4. 启动 ZKFC 15、16 主机: $./sbin/hadoop-daemon.sh start zkfc 二、启动 Yarn 1. 启动 resourcemanager 15、16 主机: $./sbin/yarn‐daemon.sh?start?resourcemanager 2. 启动 nodemanager 15、16、17 主机: $?./sbin/yarn‐daemon.sh?start?nodemanager 三、启动 mapreduce?jobhistory 15 主机: $ ./sbin/mr-jobhistory-daemon.sh start historyserver
验证?
一、 HDFS 1. Active 节点,使用浏览器访问 http://10.12.34.15:50070/?

2. StandBy 节点,使用浏览器访问 http://10.12.34.16:50070/?
二、Yarn 1. Active 节点,使用浏览器访问 http://10.12.34.15:23188/cluster/cluster?

2. StandBy 节点 a) 使用浏览器访问 http://10.12.34.16:23188?
b) 使用浏览器访问 http://10.12.34.16:23188/cluster/cluster?

三、Jobhistory 使用浏览器访问 http://10.12.34.15:19888?
?
Hbase?
使用 hduser 用户 #?su?hduser
安装(在 15 主机上)?
1. 下载 https://www.sodocs.net/doc/5313186145.html,/apache‐mirror/hbase/ 2. 解压缩 $?tar?‐zxvf?/hbase‐0.98.5‐hadoop2‐bin.tar.gz?‐C?/usr/local/?

配置(在 15 主机上)?
1. 修改 hbase‐env.sh $?vi?/usr/local/hbase‐0.98.5‐hadoop2/conf/hbase‐env.sh a) 配置 JDK # export JAVA_HOME=/usr/java/jdk1.6.0/ 修 改 为 export JAVA_HOME=/usr/local/jdk1.6.0_25 b) 禁用自带 zookeeper #?export?HBASE_MANAGES_ZK=true 修改为 export?HBASE_MANAGES_ZK=false 2. 修改 hbase‐site.xml $?vi?/usr/local/hbase‐0.98.5‐hadoop2/conf/hbase‐site.xml 在之间添加如下内容: hbase.rootdir hdfs://ns1/hbase hbase.cluster.distributed true hbase.master h15:60000 hbase.master.port 60000 hbase.zookeeper.quorum h15,h16,h17 hbase.zookeeper.property.clientPort 2181 property?from?zookeeper?zoo.cfg. 3. 新增文件 hdfs‐site.xml 拷贝 hadoop 的 hdfs‐site.xml: $ cp /usr/local/hadoop‐2.4.0/etc/hadoop/hdfs‐site.xml /usr/local/hbase‐0.98.5‐hadoop2/conf/ 4. 新增文件 core‐site.xml 拷贝 hadoop 的 core‐site.xml:?

$ cp /usr/local/hadoop‐2.4.0/etc/hadoop/core‐site.xml /usr/local/hbase‐0.98.5‐hadoop2/conf/ 5. 新增文件 backup‐masters $?vi?/usr/local/hbase‐0.98.5‐hadoop2/conf/backup‐masters 内容如下: h16 6. 修改 regionservers $?vi?/usr/local/hbase‐0.98.5‐hadoop2/conf/regionservers 内容如下: h15 h16 h17?
在 16、17 主机上安装?
1. 拷贝目录 15 主机: $?scp?‐r?/usr/local/hbase‐0.98.5‐hadoop2/?hduser@10.12.34.16:/usr/local/ $?scp?‐r?/usr/local/hbase‐0.98.5‐hadoop2/?hduser@10.12.34.17:/usr/local/?
启动?
1. 在 15 主机上 $?cd?/usr/local/hbase‐0.98.5‐hadoop2/ $./bin/start‐hbase.sh?
验证 hadoop?hdfs?
[hduser@h15?hadoop‐2.4.0]$?./bin/hadoop?fs?‐ls?hdfs://10.12.34.15:9000/ Found?4?items drwxr‐xr‐x ‐ hduser supergroup 0 2014‐09‐10 hdfs://10.12.34.15:9000/hbase drwxr‐xr‐x ‐ hduser supergroup 0 2014‐09‐05 hdfs://10.12.34.15:9000/hive drwx‐‐‐‐‐‐ ‐ hduser supergroup 0 2014‐09‐05 hdfs://10.12.34.15:9000/tmp drwxr‐xr‐x ‐ hduser supergroup 0 2014‐09‐05 hdfs://10.12.34.15:9000/user?
16:30 13:31 13:32 11:42?

Amanda安装配置

Amanda安装配置 一关于amanda Amanda本身并不是备份程序,它其实只是管理其他备份软件的封装软件。它使用系统上的dump和restore命令作为底层的备份软件,同时也能够使用tar命令,针对于windows计算机,Amanda还能够使用smbtar命令来实现备份。 Amanda 的整体策略是:在每次周期中完成一次数据的完全备份,并且确保在两次完全转储之间备份所有更改的数据。传统的做法是先执行完全备份,然后在此期间执行增量备份。而Amanda 的工作方式不同的是,每次运行Amanda 都对部分数据进行完全备份,确切地说,就是在一个完整的备份周期内备份全部数据所需备份的其中一部分。例如,如果周期为7 天,且一个周期内进行7次备份,则每天必须备份1/7 的数据,以便在7 天之内完成一次完全备份。除了这个“部分”完全备份外,Amanda 还对自最近一次完全备份后更改的数据进行增量备份。Amanda这种特有的备份策略,可以减少每次备份的数据量 amanda组件 Amanda系统包含如下组件: 1、客户端程序,是amandad 其中最重要的。此后台程序在备份运行时和Amanda 服务器进行通信。在/usr/lib/amanda目录下,还有其它的一些客户端程序:amandad 处理客户机和中央服务器之间的所有通信;运行所有其它的客户端程序;selfcheck 验证本地Amanda 配置;sendsize 估计备份大小;sendbackup 执行备份操作;这些程序是Amanda 客户 端系统的一部分。但是并不能通过手工去执行他们,是由客户端包的其他辅助程序来调用这些程序。 2、执行各阶段实际备份操作的服务器程序。amdump 程序启动Amanda ,并且常常使用cron 定期运行。它控制一些其他程序,包括:planner 决定备份哪些内容;driver 设备接口;dumper 与客户端amandad 进程进行通信;taper 把数据写入媒介;amreport 准 备Amanda 运行的报告; 3、执行相关任务的管理工具,包括:amcheck 验证Amanda 配置的有效性以及此工具是否准备运行;amlabel 在磁带上写入Amanda卷标,用于避免覆盖错磁带;amcleanup 在

整理和总结hive sql

进入hive shell #hive或者hive --service cli Hive 的启动方式: hive 命令行模式,直接输入/hive/bin/hive的执行程序,或者输入hive –service cli hive web界面的启动方式,hive –service hwi hive 远程服务(端口号10000) 启动方式,hive --service hiveserver hive 远程后台启动(关闭终端hive服务不退出): nohup hive -–service hiveserver & 显示所有函数: hive> show functions; 查看函数用法: hive> describe function substr; 查看hive为某个查询使用多少个MapReduce作业 hive> Explain select a.id from tbname a; -------------------------------------------------------------------------- 表结构操作: 托管表和外部表 托管表会将数据移入Hive的warehouse目录;外部表则不会。经验法则是,如果所有处理都由Hive完成, 应该使用托管表;但如果要用Hive和其它工具来处理同一个数据集,则使用外部表。 创建表(通常stored as textfile): hive> create table tbName (id int,name string) stored as textfile; 创建表并且按分割符分割行中的字段值(即导入数据的时候被导入数据是以该分割符划分的,否则导入后为null,缺省列为null); hive> create table tbName (id int,name string) row format delimited fields terminated by ','; 创建外部表: hive>create external table extbName(id int, name string); 创建表并创建单分区字段ds(分区表指的是在创建表时指定的partition的分区空间。): hive> create table tbName2 (id int, name string) partitioned by (ds string); 创建表并创建双分区字段ds: hive> create table tbname3 (id int, content string) partitioned by (day string, hour string); 表添加一列: hive> alter table tbName add columns (new_col int); 添加一列并增加列字段注释: hive> alter table tbName add columns (new_col2 int comment 'a comment'); 更改表名: hive> alter table tbName rename to tbName3; 删除表(删除表的元数据,如果是托管表还会删除表的数据): hive>drop table tbName; 只删除内容(只删除表的内容,而保留元数据,则删除数据文件): hive>dfs –rmr ‘warehouse/my-table’; 删除分区,分区的元数据和数据将被一并删除: hive>alter table tbname2 drop partition (dt='2008-08-08', hour='09'); -------------------------------------------------------------------------- 元数据存储(从HDFS中将数据导入到表中都是瞬时的):

hive自定义函数说明

Hive自定义函数说明函数清单:

用法: getID 通过UUID来生成每一行的唯一ID: select getid() ; oracle_concat hive的concat函数遇到空值的情况下会直接返回空,而在oracle中对于字符串类型空字符串与null是等价对待的 select default.oracle_concat('ff-',null,'','--cc'); Select concat('ff-',null,'','--cc'); getBirthDay 从身份证号码中截取生日信息,返回日期格式为’yyyy-MM-dd’

getGoodsInfo self_date_format 为格式化来自oracle的时间格式,将格式为’yyyy/MM/dd’和’yyyy/MM/dd HH:mm:ss’的日期格式转换为’yyyy-MM-dd’ Select default. self_date_format(‘2012-12-12’); Select default. self_date_format(‘20121212’,’yyyyMMdd’); oracle_months_between 由于当前版本hive不带months_between函数,所以添加 oracle_decode hive中的decode函数为字符编码函数和encode对应。Oracle中decode函数类似case when 函数,添加oracle_decode函数减少sql的改写。与为与oracle功能同步,本函数将null和字符串’’等价对待。 select default.oracle_decode('',null,1,2) r1, default.oracle_decode(null,'',1,2) r2, default.oracle_decode('aaa','','Nnull','aaa','is a*3','aaa') r3, default.oracle_decode('ccc','', 'Nnull','aaa','is a*3','aaa') r4, default.oracle_decode('','', 'Nnull','aaa','is a*3','aaa') r5; BinomialTest _FUNC_(expr1, expr2, p_value, alternativeHypothesis) alternativeHypothesis: 接受指定值的字符串 取值:TWO_SIDED , GREATER_THAN , LESS_THAN 二项分布检测函数。实现oracle中的二项分布检测功能。 计算expr1 等于exper2 的值占数据总数的二项分布检测结果,类型依据alternativeHypothesis 确定

开源自动化配置管理工具Puppet入门教程

开源自动化配置管理工具P u p p e t入门教程 系统管理员经常陷入一系列的重复任务中:如升级软件包、管理配置文件、系统服务、cron任务以及添加新的配置、修复错误等。这些任务通常是重复低效的,解决这类任务的第一反应是让他们自动化,于是出现了定制脚本。由于环境复杂,定制脚本和应用程序一再被重复开发,并且很难适合多种平台,灵活性和功能也很难保证,于是像Puppet这样的 自动化配置管理工具便出现了。 在开源世界里,有很多配置工具可供选择,这个领域一些关键的产品有: Puppet(): Ruby写成的配置管理工具,使用C/S架构,使用declarative language配置客户端。 Cfengine(): 最先发布的开源配置工具之一,1993年发布,同样是C/S架构,通常应用于教育机构。 LCFG(): C/S架构的配置管理工具,使用XML定义配置。 Bcfg2 Python编写的C/S架构的配置管理工具,使用规格书和客户机响应配置目标主机。 本文档致力于描述使用Puppet管理你的主机、应用程序、后台程序和各种服务。 Puppet简介: 1. Puppet的用途 Puppet是开源的基于Ruby的系统配置管理工具,依赖于C/S的部署架构。主要开发者是Luke Kanies,遵循GPLv2版权协议。从1997年开始Kanies参与UNIX的系统管理工作,Puppet的开发源于这些经验。因为对已有的配置工具不甚满意,从2001年到2005年间,Kanies开始在Reductive实验室从事工具的开发。很快,Reductive实验室发布了他们的 旗舰产品——Puppet。 2. Pupput的特性 许多系统配置管理工具工作的方式非常类似,如cfengine。是什么让Puppet与众不同Puppet的语法允许你创建一个单独脚本,用来在你所有的目标主机上建立一个用户。所有的目标主机会依次使用适用于本地系统的语法解释和执行这个模块。举例:如果这个配置是在Red Hat服务器上执行,建立用户使用useradd命令;如果这个配置是在FreeBSD 主机上执行,使用的是adduser命令。 Puppet另一个卓越的地方是它的灵活性。源于开源软件的天性,你可以自由的获得Puppet的源码,如果你遇到问题并且有能力的话,你可以修改或者加强Puppet的代码去适用于你的环境。另外,社区开发者和捐献者还在不断增强Puppet的功能。一个大的开发者和用户社区也致力于提供Puppet的文档和技术支持。 Puppet也是易于扩展的。定制软件包的支持功能和特殊的系统环境配置能够快速简单 的添加进Puppet的安装程序中。

hive函数大全

目录 一、关系运算: (4) 1. 等值比较: = (4) 2. 不等值比较: <> (4) 3. 小于比较: < (4) 4. 小于等于比较: <= (4) 5. 大于比较: > (5) 6. 大于等于比较: >= (5) 7. 空值判断: IS NULL (5) 8. 非空判断: IS NOT NULL (6) 9. LIKE比较: LIKE (6) 10. JAVA的LIKE操作: RLIKE (6) 11. REGEXP操作: REGEXP (7) 二、数学运算: (7) 1. 加法操作: + (7) 2. 减法操作: - (7) 3. 乘法操作: * (8) 4. 除法操作: / (8) 5. 取余操作: % (8) 6. 位与操作: & (9) 7. 位或操作: | (9) 8. 位异或操作: ^ (9) 9.位取反操作: ~ (10) 三、逻辑运算: (10) 1. 逻辑与操作: AND (10) 2. 逻辑或操作: OR (10) 3. 逻辑非操作: NOT (10) 四、数值计算 (11) 1. 取整函数: round (11) 2. 指定精度取整函数: round (11) 3. 向下取整函数: floor (11) 4. 向上取整函数: ceil (12) 5. 向上取整函数: ceiling (12) 6. 取随机数函数: rand (12) 7. 自然指数函数: exp (13) 8. 以10为底对数函数: log10 (13) 9. 以2为底对数函数: log2 (13) 10. 对数函数: log (13) 11. 幂运算函数: pow (14) 12. 幂运算函数: power (14) 13. 开平方函数: sqrt (14) 14. 二进制函数: bin (14)

Puppet利用Nginx多端口实现负载均衡

随着公司应用需求的增加,需要不断的扩展,服务器数量也随之增加,当服务器数量不断增加,我们会发现一台puppetmaster压力大,解析缓慢,而且时不时出现“time out”之类的报错,那这时有什么优化的办法吗?我们在Puppet官网上找寻解决方案,发现puppetmaster可以配置多端口,结合WEB代理(推荐Nginx),这样puppetmaster承受能力至少可以提升数倍以上,相当于在很大程度上优化了puppet的处理能力。 1.遵循前面的环境设定,我们这里的服务器环境及软件版本分别为: 服务器系统:CentOS5.8 x86_64 Ruby版本:ruby-1.8.5 Puppet版本:puppet-2.7.9 Nginx版本:nginx-0.8.46 2.Mongrel安装 要使用puppet多端口配置,需要指定mongrel类型,默认没有安装,需要安装: yum install -y rubygem-mongrel 3.配置puppetmaster 在/etc/sysconfig/puppetmaster文件末尾添加如下两行,分别代表多端口、mongrel类型,内容如下所示: PUPPETMASTER_PORTS=(8141 8142 8143 8144 8145) PUPPETMASTER_EXTRA_OPTS="--servertype=mongrel --ssl_client_header=HTTP _X_SSL_SUBJECT" 4.安装Nginx服务 安装之前请确保系统已经安装pcre-devel正则库,然后再编译安装Nginx,需要添加SSL 模块参数支持,Nginx的安装过程如下所示: yum -y install pcre-devel cd /usr/local/src wget https://www.sodocs.net/doc/5313186145.html,/download/nginx-0.8.46.tar.gz tar zxvf nginx-0.8.46.tar.gz cd nginx-0.8.46 ./configure --prefix=/usr/local/nginx --with-http_ssl_module make && make install && cd ../ 添加www用户组及用户,命令如下所示: groupadd www useradd -g www www 5.我们依据puppet需求来修改配置文件nginx.conf,内容如下所示: user www;

Hadoop试题试题库

1. 以下哪一项不属于Hadoop可以运行的模式___C___。 A. 单机(本地)模式 B. 伪分布式模式 C. 互联模式 D. 分布式模式 2. Hadoop 的作者是下面哪一位__B____。 A. Martin Fowler B. Doug cutting C. Kent Beck D. Grace Hopper 3. 下列哪个程序通常与NameNode 在同一个节点启动__D___。 A. TaskTracker B. DataNode C. SecondaryNameNode D. Jobtracker 4. HDFS 默认Block Size 的大小是___B___。 A.32MB B.64MB C.128MB D.256M 5. 下列哪项通常是集群的最主要瓶颈____C__。 A. CPU B. 网络 C. 磁盘IO D. 内存 6. 下列关于MapReduce说法不正确的是_____C_。 A. MapReduce 是一种计算框架 B. MapReduce 来源于google 的学术论文 C. MapReduce 程序只能用java 语言编写 D. MapReduce 隐藏了并行计算的细节,方便使用 8. HDFS 是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是__D____。 A.一次写入,少次读 B.多次写入,少次读 C.多次写入,多次读 D.一次写入,多次读

7. HBase 依靠__A____存储底层数据。 A. HDFS B. Hadoop C. Memory D. MapReduce 8. HBase 依赖___D___提供强大的计算能力。 A. Zookeeper B. Chubby C. RPC D. MapReduce 9. HBase 依赖___A___提供消息通信机制 A. Zookeeper B. Chubby C. RPC D. Socket 10. 下面与HDFS类似的框架是___C____? A. NTFS B. FAT32 C. GFS D. EXT3 11. 关于SecondaryNameNode 下面哪项是正确的___C___。 A. 它是NameNode 的热备 B. 它对内存没有要求 C. 它的目的是帮助NameNode 合并编辑日志,减少NameNode 启动时间 D. SecondaryNameNode 应与NameNode 部署到一个节点 12. 大数据的特点不包括下面哪一项___D___。 A. 巨大的数据量 B. 多结构化数据 C. 增长速度快 D. 价值密度高 HBase测试题 9. HBase 来源于哪一项? C

openstack部署与管理-fuel介绍

OpenStack部署与管理之 Fuel介绍 成胜 汉柏科技有限公司

内容 Fuel简介 Fuel架构 Fuel功能 Fuel扩展 2

OpenStack部署 OpenStack发展很猛,很多朋友都很认同,为了解决OpenStack部署的问题,让安装,配置变得更加简单易用,很多公司都投入人力去做这个。说到部署,肯定和OS有关,对于OpenStack来说,无非就是Ubuntu还是CentOS,当然也会和OpenStack版本有关。 其实部署工具,最麻烦的地方,不是软件的配置和安装,而是网络。用户的网络情况太多,还有OpenStack本身的网络也很复杂。

部署工具: RDO: REDHAT出品,支持Redhat、CentOS等系统。RDO基于puppet部署各个组件,支持单节点或多节点部署,在Redhat系操作系统上使用非常方便。 devstack: 这个应该是最老的Fuel简介了,可以用来快速部署一个OpenStack测试环境,基于git最新代码部署服务,并将所有服务都起在screen中,不适合生产环境直接使用。 Fuel: Mirantis出品,支持在ubuntu和centos上通过web界面配置并部署OpenStack,应该是目前最为直观的Fuel简介。支持自动发现部署节点,并部署 OpenStackHA,对OpenStack作健康检查等。

Mirantis 一家很牛逼的OpenStack服务集成商,他是社区贡献排名前5名中唯一一个靠软件和服务吃饭的公司(其他分别是Red Hat, HP, IBM, Rackspace)。相对于其他几个社区发行版,Fuel的版本节奏很快,平均每两个月就能提供一个相对稳定的社区版。

HiveQL详解

HiveQL详解 HiveQL是一种类似SQL的语言, 它与大部分的SQL语法兼容, 但是并不完全支持SQL标准, 如HiveQL不支持更新操作, 也不支持索引和事务, 它的子查询和join操作也很局限, 这是因其底层依赖于Hadoop云平台这一特性决定的, 但其有些特点是SQL所无法企及的。例如多表查询、支持create table as select和集成MapReduce脚本等, 本节主要介绍Hive的数据类型和常用的HiveQL操作。 1.hive client命令 a.hive命令参数 -e: 命令行sql语句 -f: SQL文件 -h, --help: 帮助 --hiveconf: 指定配置文件 -i: 初始化文件 -S, --silent: 静态模式(不将错误输出) -v,--verbose: 详细模式 b.交互模式 hive> show tables; #查看所有表名 hive> show tables 'ad*' #查看以'ad'开头的表名 hive>set命令 #设置变量与查看变量; hive>set-v #查看所有的变量 hive>set hive.stats.atomic #查看hive.stats.atomic变量 hive>set hive.stats.atomic=false #设置hive.stats.atomic变量 hive> dfs -ls #查看hadoop所有文件路径 hive> dfs -ls /user/hive/warehouse/ #查看hive所有文件 hive> dfs -ls /user/hive/warehouse/ptest #查看ptest文件 hive> source file #在client里执行一个hive脚本文件 hive> quit #退出交互式shell hive>exit #退出交互式shell hive> reset #重置配置为默认值 hive> !ls #从Hive shell执行一个shell命令 2.操作及函数 查看函数: hive> show functions; 正则查看函数名: show functions 'xpath.*'; 查看具体函数内容:

Hadoop、openstack、nosql虚拟化2048G资源分享

Hadoop、openstack、nos ql、虚拟化云资源资料大全 about云资源汇总指引V1.4 hadoop资料 云端云计算2G基础课程 (Hadoop简介、安装与范例) 炼数成金3G视频分享下载 虚拟机三种网络模式该如何上网指导此为视频 Hadoop传智播客七天hadoop(3800元)视频,持续更新 Hadoop传智播客最新的hadoop学习资料第一季 (1)需要简单了解Linux操作系统(本课程使用CentOS6.4操作系统); (2)需要java基础,因为hadoop是java语言写的,课程中会对hadoop源码进行简析。 第一天资料: 传智播客hadoop教程01-课程介绍以及hadoop的国内外发展状况 传智播客hadoop教程02-hadoop生态圈介绍,介绍hadoop周边的很多框架 传智播客hadoop教程03-hadoop的概念及其发展历程 传智播客hadoop教程04-HDFS和MapReduce的体系结构 传智播客hadoop教程05-hadoop的特点和集群特点 传智播客hadoop教程06-配置Linux的环境,为搭建hadoop做准备 传智播客hadoop教程07-介绍如何使用SSH进行免密码登陆以及如何安装JDK

传智播客hadoop教程08-介绍hadoop的伪分布安装过程 传智播客hadoop教程09-使用eclipse查看hadoop源码 传智播客hadoop教程10-去除hadoop的启动过程中警告信息 第二天资料: 传智播客hadoop教程11-分布式文件系统简介 传智播客hadoop教程12-HDFS的shell操作 传智播客hadoop教程13-NameNode体系结构 传智播客hadoop教程14-DataNode体系结构 传智播客hadoop教程15-使用浏览器查看HDFS目录结构 传智播客hadoop教程16-使用java操作HDFS 传智播客hadoop教程17-Hadoop的RPC通信原理 传智播客hadoop教程18-NameNode的RPC通信过程 ....... Hadoop技术内幕深入解析HADOOP COMMON和HDFS架构设计与实现原理大全1-9章如何进行Hadoop二次开发指导视频下载 hadoop架构40篇文档下载 DaaS for Iaas.pdf IaaS 存储架构分析 Oracle性能优化精髓 OpenShift:从中间件到PaaS云 软件架构趋势 OPenstack建设公有云平台 从企业角度重塑企业IT架构 SAE落地过程中的经验分享 大型企业集团于SaaS的核心业务平台建设 云计算加速企业创新 hadoop平台大数据整合 Cloud Foundry Paas平台对软件开发的影响 专家集成系统开启企业云计算之旅 我们为什么不赞同openstack 基于web标准的移动开发和测试 分布式存储在网盘和在线备份的应用研究 当当在大数据挖掘分析与管理一个性话精准营销方面的探索 高并发环境下数据产品的架构设计 低成本构建有效的云存储运维体系 将企业级软件迁移到共有云平台

puppet安装以及遇到的问题

Puppet安装以及遇到的问题 主机名需要能够解析,相互之间能够解析。 1、puppet master的安装puppet 1)通过源代码安装 2)通过二进制的安装(yum apt-get...) # wget -r ftp://192.168.0.254/notes/softwares/puppet # tar xf puppet-2.7.23.tar.bz2 # cd puppet-2.7.23 # yum -y localinstall puppet-server-2.7.23-1.el6.noarch.rpm puppet-2.7.23-1.el6.noarch.rpm facter-1.6.18-3.el6.x86_64.rpm ruby-augeas-0.4.1-1.el6.x86_64.rpm ruby-shadow-1.4.1-13.el6.x86_64.rpm 2、在两个agnet上安装agent # cd /root/puppet-2.7.23/ # yum -y localinstall puppet-2.7.23-1.el6.noarch.rpm facter-1.6.18-3.el6.x86_64.rpm ruby-augeas-0.4.1-1.el6.x86_64.rpm ruby-shadow-1.4.1-13.el6.x86_64.rpm 3、配置puppet master端 # rpm -ql puppet-server /etc/puppet/fileserver.conf --puppet内置的文件服务器 /etc/puppet/manifests --全局的资源清单所在的目录 /etc/puppet/puppetmasterd.conf --主配置文件

常用函数大全

常用函数大全 mysql_affected_rows
mysql_affected_rows — 取得前一次 MySQL 操作所影响的记录行数 mysql_fetch_array —从结果集中取得一行作为关联数组或数字数组或二者兼 有:
mysql_fetch_array($result, MYSQL_NUM) , MYSQL_NUM 可用 MYSQL_BOTH 或
MYSQL_ASSOC 代替,也可以不写,默认为 MYSQL_BOTH
mysql_fetch_row — 从结果集中取得一行作为枚举数组: mysql_fetch_row($result); mysql_fetch_assoc($result)
mysql_fetch_row()从和指定的结果标识关联的结果集中取得一行数据并作为数组返回。每个结果 的列储存在一个数组的单元中,偏移量从 0 开始。 依次调用 mysql_fetch_row()将返回结果集中的下一行,如果没有更多行则返回 FALSE。 mysql_fetch_assoc — 从结果集中取得一行作为关联数组 :
mysql_fetch_assoc() 和用 mysql_fetch_array() 加上第二个可选参数 MYSQL_ASSOC 完全相同。它 仅仅返回关联数组。这也是 mysql_fetch_array()起初始的工作方式。如果在关联索引之外还需要数字 索引,用 mysql_fetch_array()。 如果结果中的两个或以上的列具有相同字段名,最后一列将优先。要访问同名的其它列,要么用 mysql_fetch_row()来取得数字索引或给该列起个别名。参见 mysql_fetch_array() 例子中有关别名说 明。 有一点很重要必须指出,用 mysql_fetch_assoc()并不明显 比用 mysql_fetch_row()慢,而且还提供了 明显更多的值。
mysql_query()
仅对 SELECT,SHOW,EXPLAIN 或 DESCRIBE 语句返回一个资源标识符,
如果查询执行不正确则返回 FALSE。对于其它类型的 SQL 语句,mysql_query()在执行成功时返回 TRUE,出错时返回 FALSE。非 FALSE 的返回值意味着查询是合法的并能够被服务器执行。这并不说明 任何有关影响到的或返回的行数。 很有可能一条查询执行成功了但并未影响到或并未返回任何行。

Hive函数

关系运算 等值比较: = 语法:A = B 操作类型: 所有基本类型 描述: 如果表达式A与表达式B相等,则为TRUE;否则为FALSE 举例: hive> select 1 from dual where 1=1; 1 不等值比较: <> 语法: A <> B 操作类型: 所有基本类型 描述: 如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A 与表达式B不相等,则为TRUE;否则为FALSE 举例: hive> select 1 from dual where 1 <> 2; 1 小于比较: < 语法: A < B 操作类型: 所有基本类型 描述: 如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A 小于表达式B,则为TRUE;否则为FALSE 举例:

hive> select 1 from dual where 1 < 2; 1 小于等于比较: <= 语法: A <= B 操作类型: 所有基本类型 描述: 如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A 小于或者等于表达式B,则为TRUE;否则为FALSE 举例: hive> select 1 from dual where 1 <= 1; 1 大于比较: > 语法: A > B 操作类型: 所有基本类型 描述: 如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A 大于表达式B,则为TRUE;否则为FALSE 举例: hive> select 1 from dual where 2 > 1; 1 大于等于比较: >= 语法: A >= B 操作类型: 所有基本类型 描述: 如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A 大于或者等于表达式B,则为TRUE;否则为FALSE

NOVA安装手册

NOV A安装手册目录 chapter1 System Requirements chapter2 NOV A手动安装步骤 2.1安装nova 相关软件包 2.2 安装MySQL数据库 2.3 进行网络环境配置 2.4 创建工程并配置环境 2.5 上传镜像并运行一个实例 chapter3 配置Glance镜像服务器chapter4 安装Dashboard远程操作界面chapter5 使用Puppet部署OpenStack环境chapter6 FAQ 常见问题及解决办法

chapter1 System Requirements y硬件: x86系列机器,AMD处理器 y操作系统:: 安装Ubuntu 10.04(LTS)版本 y网络: 官网推荐1000 Mbps,提供nova-network服务的节点需要配置两块网卡。 OpenStack支持以下三种网络架构:flat,DHCP,VLAN&DHCP y数据库: 采用MySQL数据库 y权限: 需要使用root权限进行安装

chapter2 NOV A手动安装步骤 2.1安装nova 相关软件包 y下载python软件包,完成后需要run update: sudo apt-get install python-software-properties sudo add-apt-repository ppa:nova-core/release sudo apt-get update y安装Message Queue Server,Rabbit MQ及python dependencies: sudo apt-get install -y rabbitmq-server sudo apt-get install –y python-greenlet python-mysqldb y根据节点的不同类型,选择安装所需要的nova-packages和dependencies:sudo apt-get install -y nova-common nova-doc python-nova nova-api nova- network nova-objectstore nova-scheduler nova-compute y安装euca2ools 工具包: sudo apt-get install –y euca2ools unzip 2.2 安装MySQL数据库 OpenStack Nova的数据库有多种选择如MySQL 和 PostgreSQL,参照官方手册这里选用 MySQL。另外,数据库需要安装在controller节点上。 y安装mysql-server : bash MYSQL_PASS=nova NOV A_PASS=notnova cat <

Cisco Nexus 9000系列交换机入门级部署

指南Cisco Nexus 9000 系列交换机 在中小型商业数据中心的 入门级部署 Carly Stoughton 2014 年 11 月

目录 简介 (4) 概述 (4) 免责声明 (4) 为什么选择 Cisco Nexus 9000 系列交换机 (4) 关于 Cisco Nexus 9000 系列交换机 (5) 思科 ACI 就绪性 (6) 思科 ACI 是什么? (6) 将 Cisco Nexus 9000 NX-OS 模式转换为 ACI 模式 (7) 数据中心设计演进 (8) 传统数据中心设计 (8) 生成树支持 (9) 商业紧缩设计 (9) 第 2 层与第 3 层影响比较 (10) 思科第 2 层设计演进:虚拟 PortChannel (12) 虚拟重叠 (13) 主干-枝叶数据中心设计 (14) 重叠设计 (15) 其他 Cisco Nexus 9000 功能支持 (17) 服务质量 (17) 组播 (19) SNMP 和支持的 MIB (19) 商业拓扑示例 (20) Cisco Nexus 9500 平台产品系列 (20) Cisco Nexus 9300 平台产品系列 (21) 设计 A:两台交换机 (22) 设计 B:两台汇聚交换机和两台接入交换机 (23) 设计 C:两台汇聚交换机和四台接入交换机 (25) 设计 D:四台汇聚交换机和四台接入交换机(采用主干-枝叶架构) (25) 与现有网络集成 (26) 接入层设备连接 (26) 设计 A 集成 (26) 设计 B 集成 (27) 设计 C 和 D 集成 (28) 交换矩阵扩展器支持 (30) 存储设计 (32) 最终状态拓扑 (35) 示例:Cisco Nexus 9000 系列设计和配置 (36) 硬件和软件规格 (36) 基本网络设置 (37) ECMP 路由设计 (39) 服务器 NIC 组合设计和配置 (40) 重叠设计和配置 (44) 为什么实施 VXLAN? (44) VXLAN 如何工作? (45) 组播考虑事项 (45) 主干(汇聚)组播配置 (46) 枝叶(接入)组播配置 (47) 在商业拓扑中使用 VXLAN (48) 服务设计和配置 (50) 交换矩阵管理和自动化 (52) Cisco UCS Director (52) Cisco Prime 数据中心网络管理器 (53)

puppet自定义facter说明

Puppet之ruby模块说明 1 说明 使用自定义facter分别获取客户端ip地址和网卡名称,不需要在客户端安装脚本 2 配置 管理服务器和被管理服务器都要配置 #vim /etc/puppet/puppet.conf [main] factpath=$vardir/lib/facter pluginsync=true 新建目录 以nrpe模块为例 mkdir -p /etc/puppet/modules/nrpe/lib/facter 3 脚本 #cd /etc/puppet/modules/nrpe/lib/facter 获取外网网卡脚本 vim wannetcard.rb Facter.add(:wanname) do setcode do %x{ /sbin/ifconfig|egrep -v "127\.0\.0\.1\|192\.168\.7\."|grep -B 1 "inet addr:"|grep "eth"|/usr/bin/awk '{print $1}'|grep -v ":" }.chomp end end 获取内网网卡脚本 vim lannetcard.rb Facter.add(:lanname) do setcode do %x{/sbin/ifconfig|grep -B 1 "192\.168\.7\."|grep "eth"|awk '{print $1}'|grep -v ":"}.chomp end end 获取客户端外网IP Facter.add(:getip) do confine :kernel => :linux setcode do ip = nil output = %x{/sbin/ifconfig|egrep -v 'eth0[::]|eth1[:space:]'|grep -A1 "eth"|grep "inet addr:"} # a=output.split(/^\S/) # a.each { |str| print str} output.split(/^\S/).each { |str| if str =~ /inet addr:([0-9]+\.[0-9]+\.[0-9]+\.[0-9]+)/

Cobbler安装配置手册

目录 1.Cobbler的安装 (2) 2.Cobbler的配置 (2) 3.配置Cobbler_web (4) 4.导入光盘及建立Profile (5) 5.配置Kickstart的启动文件 (5) 6.安装系统 (7)

1.Cobbler的安装 1.下载rpmforge的repository RPM # wget https://www.sodocs.net/doc/5313186145.html,/rpmforge-release/rpmforge-release-0.5.2-\ 2.el6.rf.i686.rpm 2.安装rpmforge-release-0.5.2-2.el6.rf.i686.rpm # rpm -ivh rpmforge-release-0.5.2-2.el6.rf.i686.rpm 3.安装semanage命令的包policycoreutils-python # yum -y install policycoreutils-python 4.安装pykickstart #yum -y install pykickstart 5.执行cobbler check # cobbler check 6.如果报下面错误,则先择selinux关闭 # cobbler check httpd does not appear to be running and proxying cobbler # setenforce 0 7.再执行cobbler check,并按照提示下的项进行配置 # cobbler check 2.Cobbler的配置 执行cobbler check,并按照提示下的项进行配置,通常的配置项如下: # cobbler check 1.启动cobbler,httpd,xinetd,dhcpd服务 # service httpd start # service xinetd start # service cobblerd start 2.执行cobbler check并按照提示下的项进行配置,通常的配置项如下从第3项开始: # cobbler check 1 : The 'server' field in /etc/cobbler/settings must be set to something other than localhost, or kickstarting features will not work. This should be a resolvable hostname or IP for the boot server as reachable by all machines that will use it. 2 : For PXE to be functional, the 'next_server' field in /etc/cobbler/settings must be set to something other than 127.0.0.1, and should match the IP of the boot server on the PXE network. 3 : Must enable a selinux boolean to enable vital web services components, run: setsebool -P httpd_can_network_connect true 4 : you need to set some SELinux content rules to ensure cobbler serves content correctly in your SELinux environment, run the following: /usr/sbin/semanage fcontext -a -t public_content_t "/var/lib/tftpboot/.*" && /usr/sbin/semanage fcontext -a -t public_content_t "/var/www/cobbler"/images/.* 5 : you need to set some SELinux rules if you want to use cobbler-web (an optional

相关主题