搜档网
当前位置:搜档网 › Jira&Confluence安装配置说明

Jira&Confluence安装配置说明

Jira&Confluence安装配置说明
Jira&Confluence安装配置说明

Jira安装配置说明

1 安装

1.1 Java的安装

1.1.1 下载JDK

https://www.sodocs.net/doc/59990429.html,/javase/downloads/index.jsp

选择JDK5.0下载

1.1.2 安装JDK

注意:

1. 双击,安装时先会安装JDK,更改安装文件夹为:D:\JDK1.5

2.安装时还会弹出一个Java运行环境的安装路径选择框,默认安装即可

1.1.3 Java环境变量的配置

1. 新建系统变量:

JAVA_HOME : D:\jdk1.5

2. 新建系统变量:

Classpath :.;D:\jdk1.5\lib;D:\jdk1.5\lib\dt.jar;D:\jdk1.5\lib\tools.jar;D:\Jira\atlassi an-jira\WEB-INF\lib\atlassian-extras-0.7.19.jar

添加D:\Jira\atlassian-jira\WEB-INF\lib\atlassian-extras-0.7.19.jar的目的:破解文件的运行1.2 Jica的安装

1.2.1 解压缩Jica

1. 解压缩到: D:\Jira 下

1.2.2 启动Jica

1. 双击 D:\Jira\bin 下的startup.bat文件

启动 Tomcat

1.2.3 破解Jica

1. 将keygen.class拷贝带非根目录下,如: C:\temp,在cmd的Dos窗口中,在 C:\temp下运行:java keygen,会得到序列号,全选拷贝:

C:\temp>java keygen

Keygen for JIRA Enterprise Edition.

brought to you by TEAM ZWT.

Enter your organization name: pentasoft

Your license key is:

OpnPOJLrLARbFXIkFjJDhTDIRPmbBhkCGqQOEoGTWSLEkL

mi2KoKdCp

PMrsvNnnorPQpnNPPQuTONMrPooMMNmrPuTUXTssSUUsos

tUUnnsqqqpnonmmmUUnnsqqqpnonmmmUUmbkqXplcq

1.2.4 Jica配置向导

1.2.4.1配置Jica系统的属性

1. 标题:Pentasoft Jira

2. 模式:选择“Private”,不允许用户随意注册,管理员来注册、分配权限

3. 根网址:http://localhost:8080

4. 索引路径:D:\Jira\indexs

5. 附件路径:D:\Jira\attachments

6. Enable Backups: 选择“是”,启动Jira的自动备份功能

7.备份路径:D:\Jira\backups

8. 授权码:输入评估license,即运行keygen.class后获得的序列号

1.2.4.2配置Jica系统管理员

用户名、密码、全称、邮件

1.2.4.3配置Jica系统的邮件通知参数

1. 网址:https://www.sodocs.net/doc/59990429.html,

1.2.5 Tomcat的端口修改

修改conf/server.xml 中的端口为8081

参考1:

首先是JDK环境的安装(Install a Java Development Kit (JDK) https://www.sodocs.net/doc/59990429.html,/j2se/1.5.0/jdk/download.jsp),然后直接解压到相应的文件路径(后简称为JIRA目录)即可,然后在下级目录bin中运行startup.bat(windows系统下)。实际上它的整个的JIRA目录就是一个完整的TOMCAT的环境,只不过是JIRA提供商将自己的应用系统和TOMCAT完全整合到了一起,少去了用户自己安装Container的时间,同时确保了产品的稳定性。

启动后默认的端口是8080,如果你的环境中有其他的TOMCAT 已经使用了这个端口,可以在conf/server.xml中修改为任何你可以使用的端口。正常启动后在console窗口中应该看到一些启动的提示信息,如果出现错误或者异常则表示配置错误或异常。正常的访问地址是http://localhost:8080。

参考2:

今天启动oracle后再启动tomcat时发现tomcat启动出错.百思不得其解..然后关闭oracle后启动tomcat 后发现一切正常..原来是这两个家伙有矛盾..同时看上了8080端口..那事情就好办拉..

首先导航到Apache Tomcat 4.0\conf\下..打开server.xml找到一下代码部分

port="8080" minProcessors="5" maxProcessors="75"

enableLookups="true" redirectPort="8443"

acceptCount="10" debug="0" connectionTimeout="60000"/>

修改port="8080" 中的8080为你想修改的端口就可以拉...

1.3 Confluence的安装

1.3.1 解压缩Confluence

1. 解压缩到: D:\Confluence 下

1.3.2 破解Confluence

1. 先不启动Confluence

2. 将吴荣给的破解文件解压缩,如在C:\temp\Crack 下

3. 拷贝Page.key到指定的路径下,我安装时是新建文件夹page,放置到它下面,参考原说明:

copy Page.key to

confluence_install_dir\confluence\WEB-INF\classes\com\atlassian\confluence\page\ you may need create it. replace if exist page.key.

than run "jave keygen"

4. 设置CLASSPATH,添加破解文件中的两个jar包:

atlassian-core-2.5.2.jar、atlassian-extras-0.7.19.jar

CLASSPATH=.;D:\jdk1.5\lib;D:\jdk1.5\lib\dt.jar;D:\jdk1.5\lib\tools.jar;C:\temp\Crack\atla ssian-core-2.5.2.jar;C:\temp\Crack\atlassian-extras-0.7.19.jar

5. 运行keygen

在cmd的Dos窗口中,在 C:\temp\Crack下运行:java keygen,会得到序列号,拷贝:C:\temp\Crack>java keygen

产生序列号:

nOQnoLerreTjRJSROIisJJGLopNRsHgGGBTcPWCfJObhBx

mi2KTD

NNWmrNpNnPpPOmPnxMnmnnMnOnqrORtXUuSsxSSuWnoQmQ

rqurUnnsrovsuvosmvUnnsrovsuvosmvUmbkqXplcqUvss

ssss

6. 从CLASSPATH中删除添加的jar包:

C:\temp\Crack\atlassian-core-2.5.2.jar;C:\temp\Crack\atlassian-extras-0.7.19.jar

7. 启动Confluence

1.3.3 启动Confluence

1. 双击 D:\ Confluence\bin 下的startup.bat文件

启动 Tomcat

1.3.4 Confluence配置向导

1.3.4.1配置Confluence

1. 添加序列号,破解成功

1.3.4.2配置Confluence系统管理员

用户名、密码、全称、邮件

1.3.5 Tomcat的端口修改

修改conf/server.xml 中的端口为8082

2 配置

2.1 Jira的配置

参考:

1. JIRA用户使用指南-简化版.pdf

2. JIRA简明使用手册.pdf

3. JIRA使用说明.doc

2.1.1 项目管理

1. 创建新项目

2. 创建项目模块

2.1.2 项目类别管理

1. 创建项目类别:研发部、运营部、市场部、销售部

2. 给项目分配项目类别

2.1.3 用户管理

1.添加用户

2.1.4 组管理

1. 添加组

2. 组的用户加入

2.1.5 问题管理

1. 创建问题

2.2 Confluence的配置

2.2.1 空间

3 如何配置使用SQL Server数据库

3.1 Jira的配置

3.1.1 新建数据库

新建一个空数据库,这里命名为jiradb,在配置的时候要用到。

3.1.2 修改Jira的配置文件

下面要更改两个文件的配置

1.conf/server.xml:

(1)将中的内容,修改为:

username="sa"

password="etier"

driverClassName="net.sourceforge.jtds.jdbc.Driver"

url="jdbc:jtds:sqlserver://localhost:1433/jiradb" />

红色字体为要修改的

(2)删掉minEvictableIdleTimeMillis和timeBetweenEvictionRunsMillis属性,这两个属性只适用于HSQL数据库,否则会影响性能

* 删除了这两个属性

minEvictableIdleTimeMillis="4000"

timeBetweenEvictionRunsMillis="5000"

2.atlassian-jira/WEB-INF/classes/entityengine.xml :

将field-type-name的属性修改为 mssql,如下:field-type-name="mssql"

3.1.3 添加数据库的驱动

下载MS SQLServer数据库的JDBC Driver,推荐使用JTDS(https://www.sodocs.net/doc/59990429.html,/),将jtds-[version].jar文件拷贝到common\lib目录下;运行bin目录下的startup.bat,启动JIRA 如:jtds-1.2.jar

3.1.4 恢复数据库/转换数据库

1.使用XML_Backup 创建一个数据导出

2.在JIRA的配置界面,点击导入你的现有数据,从XML备份中恢复你的现有数据,一旦安装完,请确认索引、附件和备份的路径是否正确

3.2 Confluence的配置

3.2.1 新建数据库

新建一个空数据库,这里命名为wikidb,在配置的时候要用到。

3.2.2 将Confluence导出备份

在设置外部数据前进行Confluence备份

3.2.3 删除data\confluence.cfg.xml 文件

参考一下说明

https://www.sodocs.net/doc/59990429.html,/display/DOC/Database+Setup+for+SQL+Server

(If you're trying to bind to an existing confluence installation, delete your [\Confluence\data\confluence.cfg.xml] file, and restart setup.)

3.2.4 添加数据库的驱动

下载MS SQLServer数据库的JDBC Driver,推荐使用JTDS(https://www.sodocs.net/doc/59990429.html,/),将jtds-[version].jar文件拷贝到common\lib目录下

如:jtds-1.2.jar

3.2.5 重新配置Confluence

1.启动Confluence 配置向导,然后选择定制安装

2.选择使用外部数据库:SQL Server

3.配置正确的参数和填写数据库连接用户名、密码

(1)net.sourceforge.jtds.jdbc.Driver

(2)jdbc:jtds:sqlserver://:/ 我填写的为:

jdbc:jtds:sqlserver://localhost:1433/wikidb

4.将备份好的数据库上传恢复为原来的数据

ceph分布式存储介绍

Ceph分布式存储 1Ceph存储概述 Ceph 最初是一项关于存储系统的PhD 研究项目,由Sage Weil 在University of California, Santa Cruz(UCSC)实施。 Ceph 是开源分布式存储,也是主线Linux 内核(2.6.34)的一部分。1.1Ceph 架构 Ceph 生态系统可以大致划分为四部分(见图1):客户端(数据用户),元数据服务器(缓存和同步分布式元数据),一个对象存储集群(将数据和元数据作为对象存储,执行其他关键职能),以及最后的集群监视器(执行监视功能)。 图1 Ceph 生态系统 如图1 所示,客户使用元数据服务器,执行元数据操作(来确定数据位置)。元数据服务器管理数据位置,以及在何处存储新数据。值得注意的是,元数据存储在一个存储集群(标为―元数据I/O‖)。实际的文件I/O 发生在客户和对象存储集群之间。这样一来,更高层次的POSIX 功能(例如,打开、关闭、重命名)就由元数据服务器管理,不过POSIX 功能(例如读和

写)则直接由对象存储集群管理。 另一个架构视图由图2 提供。一系列服务器通过一个客户界面访问Ceph 生态系统,这就明白了元数据服务器和对象级存储器之间的关系。分布式存储系统可以在一些层中查看,包括一个存储设备的格式(Extent and B-tree-based Object File System [EBOFS] 或者一个备选),还有一个设计用于管理数据复制,故障检测,恢复,以及随后的数据迁移的覆盖管理层,叫做Reliable Autonomic Distributed Object Storage(RADOS)。最后,监视器用于识别组件故障,包括随后的通知。 图2 ceph架构视图 1.2Ceph 组件 了解了Ceph 的概念架构之后,您可以挖掘到另一个层次,了解在Ceph 中实现的主要组件。Ceph 和传统的文件系统之间的重要差异之一就是,它将智能都用在了生态环境而不是文件系统本身。 图3 显示了一个简单的Ceph 生态系统。Ceph Client 是Ceph 文件系统的用户。Ceph Metadata Daemon 提供了元数据服务器,而Ceph Object Storage Daemon 提供了实际存储(对数据和元数据两者)。最后,Ceph Monitor 提供了集群管理。要注意的是,Ceph 客户,对象存储端点,元数据服务器(根据文件系统的容量)可以有许多,而且至少有一对冗余的监视器。那么,这个文件系统是如何分布的呢?

Hadoop集群MYSQL的安装指南

前言 本篇主要介绍在大数据应用中比较常用的一款软件Mysql,我相信这款软件不紧紧在大数据分析的时候会用到,现在作为开源系统中的比较优秀的一款关系型开源数据库已经被很多互联网公司所使用,而且现在正慢慢的壮大中。 在大数据分析的系统中作为离线分析计算中比较普遍的两种处理思路就是:1、写程序利用 mapper-Reducer的算法平台进行分析;2、利用Hive组件进行书写Hive SQL进行分析。 第二种方法用到的Hive组件存储元数据最常用的关系型数据库最常用的就是开源的MySQL了,这也是本篇最主要讲解的。 技术准备 VMware虚拟机、CentOS 6.8 64 bit、SecureCRT、VSFTP、Notepad++ 软件下载 我们需要从Mysql官网上选择相应版本的安装介质,官网地址如下: MySQL下载地址:https://www.sodocs.net/doc/59990429.html,/downloads/

默认进入的页面是企业版,这个是要收费的,这里一般建议选择社区开源版本,土豪公司除外。

然后选择相应的版本,这里我们选择通用的Server版本,点击Download下载按钮,将安装包下载到本地。 下载完成,上传至我们要安装的系统目录。 这里,需要提示下,一般在Linux系统中大型公用的软件安装在/opt目录中,比如上图我已经安装了Sql Server On linux,默认就安装在这个目录中,这里我手动创建了mysql目录。 将我们下载的MySQL安装介质,上传至该目录下。

安装流程 1、首先解压当前压缩包,进入目录 cd /opt/mysql/ tar -xf mysql-5.7.16-1.el7.x86_64.rpm-bundle.tar 这样,我们就完成了这个安装包的解压。 2、创建MySql超级管理用户 这里我们需要单独创建一个mySQL的用户,作为MySQL的超级管理员用户,这里也方便我们以后的管理。 groupaddmysql 添加用户组 useradd -g mysqlmysql 添加用户 id mysql 查看用户信息。

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu_CentOS

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS 本教程讲述如何配置Hadoop 集群,默认读者已经掌握了Hadoop 的单机伪分布式配置,否则请先查看Hadoop安装教程_单机/伪分布式配置或CentOS安装Hadoop_单机/伪分布式配置。 本教程由厦门大学数据库实验室出品,转载请注明。本教程适合于原生Hadoop 2,包括Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,保证按照步骤来,都能顺利安装并运行Hadoop。另外有Hadoop安装配置简略版方便有基础的读者快速完成安装。 为了方便新手入门,我们准备了两篇不同系统的Hadoop 伪分布式配置教程。但其他Hadoop 教程我们将不再区分,可同时适用于Ubuntu 和CentOS/RedHat 系统。例如本教程以Ubuntu 系统为主要演示环境,但对Ubuntu/CentOS 的不同配置之处、CentOS 6.x 与CentOS 7 的操作区别等都会尽量给出注明。 环境 本教程使用Ubuntu 14.04 64位作为系统环境,基于原生Hadoop 2,在Hadoop 2.6.0 (stable)版本下验证通过,可适合任何Hadoop 2.x.y 版本,例如Hadoop 2.7.1,Hadoop 2.4.1 等。 本教程简单的使用两个节点作为集群环境: 一个作为Master 节点,局域网IP 为192.168.1.121;另一个作为Slave 节点,局域网IP 为192.168.1.122。 准备工作 Hadoop 集群的安装配置大致为如下流程: 1.选定一台机器作为Master 2.在Master 节点上配置hadoop 用户、安装SSH server、安装Java 环境 3.在Master 节点上安装Hadoop,并完成配置 4.在其他Slave 节点上配置hadoop 用户、安装SSH server、安装Java 环境 5.将Master 节点上的/usr/local/hadoop 目录复制到其他Slave 节点上 6.在Master 节点上开启Hadoop 配置hadoop 用户、安装SSH server、安装Java 环境、安装Hadoop 等过程已经在Hadoop安装教程_单机/伪分布式配置或CentOS安装Hadoop_单机/伪分布式配置中有详细介绍,请前往查看,不再重复叙述。 继续下一步配置前,请先完成上述流程的前 4 个步骤。 网络配置 假设集群所用的节点都位于同一个局域网。 如果使用的是虚拟机安装的系统,那么需要更改网络连接方式为桥接(Bridge)模式,才能实现多个节点互连,例如在VirturalBox 中的设置如下图。此外,如果节点的系统是在虚拟机中直接复制的,要确保各个节点的Mac 地址不同(可以点右边的按钮随机生成MAC 地址,否则IP 会冲突):

设备管理系统安装配置使用手册

设备管理系统安装配置使用手册 1

设备管理系统使用手册 目录 一:系统简介 .............................. 错误!未定义书签。二.安装配置注册 ......................... 错误!未定义书签。三.操作 ................................. 错误!未定义书签。 一) 界面简介.......................... 错误!未定义书签。 二)基本资料录入....................... 错误!未定义书签。 1.项目登记楼宇登记部门登记 ...... 错误!未定义书签。 2.用户注册........................ 错误!未定义书签。 3.用户权限设置.................... 错误!未定义书签。 4.编码设置........................ 错误!未定义书签。 5.产品登记........................ 错误!未定义书签。 6.设备管理........................ 错误!未定义书签。 7.设备卡.......................... 错误!未定义书签。 8. 缺省选项........................ 错误!未定义书签。 三)管理操作........................... 错误!未定义书签。 1.设备查询........................ 错误!未定义书签。

2.设备管理........................ 错误!未定义书签。 3.维护任务查询.................... 错误!未定义书签。 5.维护记录的添加.................. 错误!未定义书签。 6.打印功能........................ 错误!未定义书签。 7.邮件提示功能.................... 错误!未定义书签。 一:系统简介 一幢高度智能大厦设备投资少则千万多则上亿,这些设备种类繁多,数量庞大,成千上万个设备分布于智能大厦主楼,裙楼和附楼的每一层楼中,对这些设备的管理,需要用科学高效的方式进行。本系统专用于智能化楼宇设备管理。界面直观明了,操作简单方便,管理科学详尽,该系统将成为贵公司的知识库,可让维护人员专业知识更全面的扩充,使维护工作的管理更周到。提高物业公司的管理水平。它有以下功能: 1.该系统将设备分类为几大类并根据管理者的喜好分成不同的子系统,管理明晰,一目了然。主要包括:楼宇智能系统(BAS),给排水

Hadoop-0.20.2详细安装及疑难问题

安装 2011年4月4日 10:13 Hadoop-0.20.2安装使用 1、Cygwin 安装 ssh 2、按照以下的文档配置ssh 在Windows上安装Ha doop教程.pdf 3、几个配置文件的配置 3.1、conf/core-site.xml https://www.sodocs.net/doc/59990429.html, hdfs://localhost:9000 true hadoop.tmp.dir /workspace/temp/hadoop/tmp/hadoop- ${https://www.sodocs.net/doc/59990429.html,} true 3.2、conf/hdfs-site.xml dfs.replication 1 true https://www.sodocs.net/doc/59990429.html,.dir /workspace/temp/hadoop/data/hadoop/name true

dfs.data.dir /workspace/temp/hadoop/data/hadoop/data true 3.3、conf/mapred-site.xml mapred.job.tracker localhost:9001 true 3.4、conf/hadoop-env.sh export JAVA_HOME=D:/workspace/tools/jdk1.6 4、解决启动的时候 ClassNotFound: org.apache.hadoop.util.PlatformName 将 %hadoop_home%\bin\hadoop-config.sh中的第190行 修改为如下: JAVA_PLATFORM=`CLASSPATH=${CLASSPATH} ${JAVA} -Xmx32m -classpath ${HADOOP_COMMON_HOME}/hadoop-common-0.21.0.jar org.apache.hadoop.util.PlatformName | sed -e "s/ /_/g"` 5、命令

Hadoop全分布式安装配置

Hadoop全分布式安装配置 一实验目的: 1、了解Hadoop的体系结构、组成; 2、熟练掌握Hadoop的配置、安装方法; 3、通过安装Hadoop了解Hadoop的原理; 二实验内容: 集群包含三个安装了Linux操作系统的节点。将其中的一个节点作为NameNode,另外两个节点作为DataNode,安装之前先利用ping命令,确认三个节点之间的网络互通,即可以互相ping通。假设三个节点IP地址如下,实际的集群节点IP地址可以不同。 NameNode:192.168.198.2 主机名:master DataNode1:192.168.198.3 主机名:slaver1 DataNode2:192.168.198.4 主机名:slaver2 三实验环境: 在申请的虚拟服务器上安装了VMWare Workstation虚拟3个Ubuntu14.04系统。 四安装配置过程: 1、安装Vmware WorkStation软件 下载安装Vmware WorkStation12.0软件。 2、在虚拟机上安装linux操作系统 在Vmware WorkStation12.0中创建一个Ubuntu14.04系统。拷贝镜像文件复制出三个系统。分别为master、slaver1、slaver2。 3、配置hosts、hostname文件

在三台机器上配置相同的hosts文件 (1)修改hosts sudo gedit /etc/hosts 192.168.198.200 master 192.168.198.199 slave1 192.168.198.198 slave2 (2)修改hostname sudo gedit /etc/hostname 4、配置ip地址 配置ip:sudo gedit /etc/network/interfaces slave2 auto eth0 iface eth0 inet static address 192.168.198.198 gateway 192.168.198.107 netmask 255.255.255.0 slave1 auto eth0 iface eth0 inet static address 192.168.198.199 gateway 192.168.198.107 netmask 255.255.255.0 master auto eth0 iface eth0 inet static address 192.168.198.200 gateway 192.168.198.107 netmask 255.255.255.0

centos下hadoop2.6.0配置

Hadoop-2.6.0配置 前面的部分跟配置Hadoop-1.2.1的一样就可以,什么都不用变,完全参考文档1即可。下面的部分就按照下面的做就可以了。 hadoop-2.6.0的版本用张老师的。 下面的配置Hadoop hadoop-2.6.0的部分 1.修改hadoop- 2.6.0/etc/hadoop/hadoop-env.sh,添加JDK支持: export JAVA_HOME=/usr/java/jdk1.6.0_45 如果不知道你的JDK目录,使用命令echo $JAVA_HOME查看。 2.修改hadoop-2.6.0/etc/hadoop/core-site.xml 注意:必须加在节点内 hadoop.tmp.dir /home/hadoop/hadoop-2.6.0/tmp Abase for other temporary directories. https://www.sodocs.net/doc/59990429.html, hdfs://master:9000 3.修改hadoop-2.6.0/etc/hadoop/hdfs-site.xml https://www.sodocs.net/doc/59990429.html,.dir /home/hadoop/hadoop-2.6.0/dfs/name Path on the local filesystem where the NameNode stores the namespace and transactions logs persistently. dfs.data.dir /home/hadoop/hadoop-2.6.0/dfs/data Comma separated list of paths on the local filesystem of a DataNode where it should store its blocks. dfs.replication 1 4.修改hadoop-2.6.0/etc/hadoop/mapred-site.xml

开发平台安装配置说明书

《客户管理系统》安装配置说明书 一、开发平台安装配置 下面的所有程序的安装都是在Windows XP + SP2或Windows 2000 Advance Server + SP4操作平台上完成。 1、JDK1.4安装与环境配置: (1)、前言 JDK(Java Development Kit )是一切java应用程序的基础,可以说,所有的java应用程序是构建在这个之上的。它是一组API,也可以说是一些java Class。目前已经正式发布的最新版本是JDK1.5。 (2)、下载,安装 下载地址为JA V A官方站点:https://www.sodocs.net/doc/59990429.html,/j2se/1.4.2/download.html,.点击“Download J2SE SDK”: 这时点―Accept‖,继续: 下面列出了各个平台下的JDK版本,其中Windows版有两种安装方式,一种是完全下载后再安装,一种是在线安装,我们选择第一种:

下载完成后,双击图标进行安装,安装过程中可以自定义安装目录等信息,例如我们选择安装目录为D:\jdk1.4。 (3)、配置JDK环境变量: 右击“我的电脑”,点击“属性”: 选择“高级”选项卡,点击“环境变量”:

在“系统变量”中,设置3项属性,JA V A_HOME,PATH,CLASSPATH(大小写无所谓),若已存在则点击“编辑”,不存在则点击“新建”: JA V A_HOME指明JDK安装路径,就是刚才安装时所选择的路径D:\jdk1.4,此路径下包

括lib,bin,jre等文件夹(此变量最好设置,因为以后运行tomcat需要依靠此变量);Path使得系统可以在任何路径下识别java命令,设为: %JA V A_HOME%\bin;%JA V A_HOME%\jre\bin CLASSPATH为java加载类(class or lib)路径,只有类在classpath中,java命令才能识别,设为: .;%JA V A_HOME%\lib;%JA V A_HOME%\lib\tools.jar (要加.表示当前路径) %JA V A_HOME%就是引用前面指定的JA V A_HOME。 “开始”->“运行”,键入“cmd”: 键入命令―java -version‖,出现下图画面,说明环境变量配置成功:

hadoop集群完整配置过程详细笔记

本文为笔者安装配置过程中详细记录的笔记 1.下载hadoop hadoop-2.7.1.tar.gz hadoop-2.7.1-src.tar.gz 64位linux需要重新编译本地库 2.准备环境 Centos6.4 64位,3台 hadoop0 192.168.1.151namenode hadoop1 192.168.1.152 datanode1 Hadoop2 192.168.1.153 datanode2 1)安装虚拟机: vmware WorkStation 10,创建三台虚拟机,创建时,直接建立用户ha,密码111111.同时为root密码。网卡使用桥接方式。 安装盘 、 2). 配置IP.创建完成后,设置IP,可以直接进入桌面,在如下菜单下配置IP,配置好后,PING 确认好用。 3)更改三台机器主机名 切换到root用户,更改主机名。 [ha@hadoop0 ~]$ su - root Password: [root@hadoop0 ~]# hostname hadoop0 [root@hadoop0 ~]# vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=hadoop0 以上两步后重启服务器。三台机器都需要修改。 4)创建hadoop用户 由于在创建虚拟机时,已自动创建,可以省略。否则用命令创建。

5)修改hosts文件 [root@hadoop0 ~]# vi /etc/hosts 127.0.0.1 localhostlocalhost.localdomain localhost4 localhost4.localdomain4 ::1localhostlocalhost.localdomain localhost6 localhost6.localdomain6 192.168.1.151 hadoop0 192.168.1.152 hadoop1 192.168.1.153 hadoop2 此步骤需要三台机器都修改。 3.建立三台机器间,无密码SSH登录。 1)三台机器生成密钥,使用hadoop用户操作 [root@hadoop0 ~]# su– ha [ha@hadoop0 ~]$ ssh -keygen -t rsa 所有选项直接回车,完成。 以上步骤三台机器上都做。 2)在namenode机器上,导入公钥到本机认证文件 [ha@hadoop0 ~]$ cat ~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys 3)将hadoop1和hadoop2打开/home/ha/.ssh/ id_rsa.pub文件中的内容都拷贝到hadoop0的/home/ha /.ssh/authorized_keys文件中。如下: 4)将namenode上的/home/ha /.ssh/authorized_keys文件拷贝到hadoop1和hadoop2的/home/ha/.ssh文件夹下。同时在三台机器上将authorized_keys授予600权限。 [ha@hadoop1 .ssh]$ chmod 600 authorized_keys 5)验证任意两台机器是否可以无密码登录,如下状态说明成功,第一次访问时需要输入密码。此后即不再需要。 [ha@hadoop0 ~]$ ssh hadoop1 Last login: Tue Aug 11 00:58:10 2015 from hadoop2 4.安装JDK1.7 1)下载JDK(32或64位),解压 [ha@hadoop0 tools]$ tar -zxvf jdk-7u67-linux-x64.tar.gz 2)设置环境变量(修改/etx/profile文件), export JAVA_HOME=/usr/jdk1.7.0_67 export CLASSPATH=:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin 3)使环境变量生效,然后验证JDK是否安装成功。

hadoop2.6基于yarn安装配置详解

Hadoop2.6配置详解 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务,仅同步active namenode的状态,以便能够在它失败时快速进行切换。 这里还配置了一个zookeeper集群,用于ZKFC(DFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNode为standby状态hadoop-2.2.0中依然存在一个问题,就是ResourceManager只有一个,存在单点故障,hadoop-2.6解决了这个问题,有两个ResourceManager,一个是Active,一个是Standby,状态由zookeeper进行协调 hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM(由cloudra提出,原理类似zookeeper)。这里我使用QJM完成。主备NameNode之间通过一组JournalNode同步元数据信息,一条数据只要成功写入多数JournalNode即认为写入成功。通常配置奇数个JournalNode 1安装前准备 1.1示例机器 192.168.0.10 hadoop1 192.168.0.20 hadoop2 192.168.0.30 hadoop3 192.168.0.40 hadoop4 每台机器都有一个hadoop用户,密码是hadoop 所有机器上安装jdk1.7。 在hadoop2,hadoop3,hadoop4上安装Zookeeper3.4集群。 1.2配置ip与hostname 用root用户修改每台机器的hosts

(完整版)1、XXX系统安装部署说明书

XXX系统安装部署说明书 修改记录

目录 目录 XXX系统安装部署说明书 (1) 修改记录 (1) 目录 (2) 1 引言 (3) 1.1 编写目的 (3) 1.2 系统背景及介绍 (3) 1.3 适应人群 (3) 1.4 定义 (4) 1.5 参考资料 (4) 2 硬件环境部署 (4) 2.1 硬件拓扑图 (4) 2.2 硬件配置说明 (4) 2.3 网络配置说明 (4) 3 软件环境部署 (5) 3.1 软件清单 (5) 3.2 软件部署顺序 (5) 3.3 操作系统安装 (5) 3.4 数据库安装 (5) 3.5 中间件产品安装 (6) 3.6 其它软件产品安装 (6) 4 应用系统安装配置 (6) 4.1 应用系统结构图 (6) 4.2 应用清单 (6) 4.3 安装准备 (7) 4.4 安装步骤 (7) 4.5 应用配置 (8)

5 系统初始化与确认 (8) 5.1 系统初始化 (8) 5.2 系统部署确认 (8) 6 系统变更记录 (8) 6.1 系统变更列表 (8) 6.2 系统变更记录 (9) 1 引言 1.1 编写目的 系统安装部署说明书主要用于详细描述整个系统的软硬件组成、系统架构,以及各组成部分的安装部署方法、配置方法等信息,通过本文档可以对整体系统进行全新部署,或者针对某个组成部分进行重新部署。 1.2 系统背景及介绍 【简单描述系统的建设背景和系统基本情况介绍。】 1.3 适应人群 本说明书适用于以下人群使用: ?系统建设负责人:组织新建系统/功能的安装部署,以及新建系统/功能的安装部署说明书完善。 ?系统维护负责人:了解系统架构和安装部署方法,负责或组织进行系统重新安装部署,在系统部署变更时及时更新说明书内容。 ?系统开发商:制定新建系统或新建功能的安装部署说明。

hadoop3安装和配置

hadoop3.0.0安装和配置1.安装环境 硬件:虚拟机 操作系统:Centos 7 64位 IP:192.168.0.101 主机名:dbp JDK:jdk-8u144-linux-x64.tar.gz Hadoop:hadoop-3.0.0-beta1.tar.gz 2.关闭防火墙并配置主机名 [root@dbp]#systemctl stop firewalld #临时关闭防火墙 [root@dbp]#systemctl disable firewalld #关闭防火墙开机自启动 [root@dbp]#hostnamectl set-hostname dbp 同时修改/etc/hosts和/etc/sysconfig/network配置信息 3.配置SSH无密码登陆 [root@dbp]# ssh-keygen -t rsa #直接回车 [root@dbp]# ll ~/.ssh [root@dbp .ssh]# cp id_rsa.pub authorized_keys [root@dbp .ssh]# ssh localhost #验证不需要输入密码即可登录

4.安装JDK 1、准备jdk到指定目录 2、解压 [root@dbp software]# tar–xzvf jdk-8u144-linux-x64.tar.gz [root@dbp software]# mv jdk1.8.0_144/usr/local/jdk #重命名4、设置环境变量 [root@dbp software]# vim ~/.bash_profile 5、使环境变量生效并验证 5.安装Hadoop3.0.0 1、准备hadoop到指定目录 2、解压

AVAYA安装配置说明书

AVAYA数字程控调度机安装配置说明书

目录 第一部分硬件连接 (4) 1.1 S8300的硬件安装 (4) 1.1.1 端口介绍 (4) 1.2 G450的安装 (4) G450后视图及电源 (5) G450风扇 (5) 1.3 AES服务器的硬件安装 (5) 1.3.1 8500C端口介绍 (5) 1.3 8500C的硬件连接 (6) 第二部分 S8300的安装配置 (6) 2.1 S8300系统的安装 (6) 2.1.1 需要的工具: (6) 2.1.2设置IP地址: (7) 2.1.3 安装过程 (7) 2.2 系统配置 (9) 2.2.1 初始化配置 (9) 2.2.2 配置服务器 (12) 2.3 上传lic (14) 2.3.1 添加用户 (14) 2.3.2 上传lic (16) 2.4 设置MODEM (17) 3.3.1 安装ASA配置软件 (18) 3.3.2 查看板卡详细信息 list config all (22)

3.3.3 添加拨号方案 change dialpan analysis (23) 3.3.4 设置板卡 add node-names ip (24) 3.3.5 添加C-lana板ip add ip-interface 01a05 (24) 3.3.6 添加数据模式 add data-module 2001 (26) 3.3.7 添加系统功能键 change feature-access-codes (28) 3.3.8 添加录音分机add announcement 2004 (29) 3.3.9 添加中继 add ds1 01a11 (32) 3.3.10 添加ds1的时隙 add signaling-group 1 (32) 3.3.11 添加中继组 add trunk-group 1 (33) 3.3.12 中继与VDN 绑定 add inc-call-handling-trmt trunk-group 1 . 35 3.3.13 添加寻线组add hunt-group 1 (36) 3.3.14 添加VDN add VDN 110 (37) 3.3.15 添加vector add vector 1 (38) 3.3.16 配置出局路由 change ars analysis 1 (40) 3.3.17 设置路由表 change route-pattern 1 (41) 3.3.18 设置送主叫号码 change public-unknown-numbering 1 (43) 3.3.19 添加坐席 add agent-loginID 4001 (43) 3.3.20 添加分机 add sta 8001 (44) 3.3.21 添加line-side 录音号码 (47) 3.3.22 添加模拟中继add trunk-group 2 (48) 3.3.23 添加虚拟号码 add sta 100 (49) 第四部分AES服务器安装配置 (50)

各公司管理系统使用地Ceph存储集群

Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人 Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人对它的抱怨也一直存在。本文试着整理作者了解到的一些使用案例。 1. 携程(Ctrip) 携程所使用的各种存储的现状: ?商业存储: ?SAN(HP/ HPS) , 1+ PB, 数据库 ?NAS (HW) , 800+ TB, 文件共享 开源存储 ?GlusterFS, 1+ PB, 数据库备份 ?FastDFS, 1+ PB, 海量照片 ?HDFS, 10+ PB, 大数据 而在不久的将来,随着公司业务的发展,携程需要的存储容量需要扩大到10倍以上。 携程选择Ceph的理由:低成本 + SDS + Scale-out + 统一存储 + 企业特性

携程目前的Ceph集群的配置: ?CephVersion: 0.94.2,H release ?Object Storage: RGW + Swift API ?SDK: Python/ Java/ C#/ Ruby ?OS: Centos 6.4 ?硬件:CPU(2 channels & 32 Core)、Mem128GB、disk(12*3TB/SATA disk +2*256GB raid1 SSD)、NIC(4*Gigabit LAN, bond 2 in 1 pair) RGW 使用架构:

携程有在数据中心之间的同步数据的需求。在研究了 CRUSHmap、Radosgw-agent、Federate gateway (不稳定、不灵活(只支持Zone 之间同步)、不易扩展)后,其自研了COS方案,它具有稳定、灵活、扩展性等特点:

hadoop安装简要过程和相关配置文件

Hadoop安装简要过程及配置文件 1、机器准备 ①、Linux版操作系统centos 6.x ②、修改主机名,方便配置过程中记忆。修改文件为: /etc/sysconfig/network 修改其中的HOSTNAME即可 ③、配置局域网内,主机名与对应ip,并且其中集群中所有的机器的文件相同,修改文件为 /etc/hosts 格式为: 10.1.20.241 namenode 10.1.20.242 datanode1 10.1.20.243 datanode2 2、环境准备 ①、配置ssh免密码登陆,将集群中master节点生成ssh密码文件。具体方法: 1)、ssh-keygen -t rsa 一直回车即可,将会生成一份 ~/.ssh/ 文件夹,其中id_rsa为私钥文件 id_rsa.pub公钥文件。 2)、将公钥文件追加到authorized_keys中然后再上传到其他slave节点上 追加文件: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 上传文件: scp ~/.ssh/authorized_keys root@dananode:~/.ssh/ 3)、测试是否可以免密码登陆:ssh 主机名或局域网ip ②、配置JDK ③、创建hadoop用户 groupadd hadoop useradd hadoop -g hadoop 4)、同步时间 ntpdate https://www.sodocs.net/doc/59990429.html, 5)、关闭防火墙 service iptables stop 3、安装cdh5 进入目录/data/tools/ (个人习惯的软件存储目录,你可以自己随便选择); wget "https://www.sodocs.net/doc/59990429.html,/cdh5/one-click-install/redhat/ 6/x86_64/cloudera-cdh-5-0.x86_64.rpm" yum --nogpgcheck localinstall cloudera-cdh-5-0.x86_64.rpm 添加cloudera仓库验证: rpm --importhttps://www.sodocs.net/doc/59990429.html,/cdh5/redhat/6/x86_64/cdh/RPM-GPG-KEY-cloudera

软件安装部署说明书.docx

西京学院校园信息化平台安装部署说明书 (过渡版本)

文件修订历史 模板修订历史

1安装规划 (5) 2系统概述 (5) 2.1硬件 (5) 2.2软件 (5) 2.3安装顺序 (5) 3数据库服务器安装设置(1台) (6) 3.1操作系统注意事项 (6) 3.2 安装及设置OraCIe(企业版) (7) 3.3拷贝数据 (7) 3.4创建数据库及数据库用户 (7) 3.5数据库用户授权及创建作业任务 (8) 4应用服务器安装设置(4台) (8) 4.1操作系统注意事项 (8) 4.2安装及设置IIS6.0 (9) 4.3 安装.net framework 2.0 (11) 4.4安装OraCIe客户端 (11) 5数据库接收(同步)程序安装设置 ........................... 错误!未定义书签。 5.1拷贝程序文件 ........................................... 错误!未定义书签。 5.2配置运行参数 ........................................... 错误!未定义书签。 5.3重新启动程序 ................................ 错误!未定义书签。 6信息化平台系统安装设置 .................................. 错误!未定义书签。 6.1拷贝程序文件 ........................................... 错误!未定义书签。 6.2配置运行参数 ........................................... 错误!未定义书签。 6.3重新启动程序 ................................ 错误!未定义书签。 6.4用户管理系统 (12) 7信息化系统安装设置 (19) 7.1拷贝文件 (19) 7.2创建IIS服务 (19)

ceph集群维护手册

Ceph群集维护简明手册 (2) 前言 (2) MON (2) MON节点添加 (3) MON节点删除 (4) MON故障恢复 (4) OSD (6) OSD添加 (6) OSD删除 (6) 日志迁移 (6) 硬盘更换 (7) RBD (7) 块存储的基本操作 (7) 快照 (10) 导入导出 (11) 增量备份与恢复 (12)

Ceph群集维护简明手册 作者: 普通人 前言 本手册针对已部署完成ceph集群进行阐述(通过ceph-deploy工具),部署架构图如下: MON 环境配置 节点 主机名 Public ip address Cluster ip address Admin/ceph ubuntu-ceph-06 192.168.0.24 10.10.0.6 ceph ubuntu-ceph-07 192.168.0.25 10.10.0.7 ceph ubuntu-ceph-06 192.168.0.26 10.10.0.8

在管理节点的配置目录下,使用ceph-depoloy工具添加新的mon节点。 1.更新配置文件,添加新mon的信息 2.推送新的配置文件到所有节点,或者在添加时覆盖(ceph-deploy会提示) 3.使用ceph-deploy工具添加MON新节点 root@ubuntu-ceph-06:/opt/ceph# ceph-deploy mon create ubuntu-ceph-08 [ceph_deploy.cli][INFO ] Invoked (1.4.0): /usr/bin/ceph-deploy mon create ubuntu-ceph-08 [ceph_deploy.mon][DEBUG ] Deploying mon, cluster ceph hosts ubuntu-ceph-08 [ceph_deploy.mon][DEBUG ] detecting platform for host ubuntu-ceph-08 ... [ubuntu-ceph-08][DEBUG ] connected to host: ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] detect platform information from remote host [ubuntu-ceph-08][DEBUG ] detect machine type [ceph_deploy.mon][INFO ] distro info: Ubuntu 14.04 trusty [ubuntu-ceph-08][DEBUG ] determining if provided host has same hostname in remote [ubuntu-ceph-08][DEBUG ] get remote short hostname [ubuntu-ceph-08][DEBUG ] deploying mon to ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] get remote short hostname ………………..] **************************************************************************** [ubuntu-ceph-08][DEBUG ] status for monitor: mon.ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "election_epoch": 0, [ubuntu-ceph-08][DEBUG ] "extra_probe_peers": [ [ubuntu-ceph-08][DEBUG ] "192.168.0.24:6789/0", [ubuntu-ceph-08][DEBUG ] "192.168.0.25:6789/0" [ubuntu-ceph-08][DEBUG ] ], [ubuntu-ceph-08][DEBUG ] "monmap": { [ubuntu-ceph-08][DEBUG ] "created": "0.000000", [ubuntu-ceph-08][DEBUG ] "epoch": 14, [ubuntu-ceph-08][DEBUG ] "fsid": "fc989fb1-eea9-47f4-83e1-999c47df0930", [ubuntu-ceph-08][DEBUG ] "modified": "2015-08-19 02:50:54.480663", [ubuntu-ceph-08][DEBUG ] "mons": [ [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "addr": "192.168.0.24:6789/0", [ubuntu-ceph-08][DEBUG ] "name": "ubuntu-ceph-06", [ubuntu-ceph-08][DEBUG ] "rank": 0 [ubuntu-ceph-08][DEBUG ] }, [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "addr": "192.168.0.25:6789/0", [ubuntu-ceph-08][DEBUG ] "name": "ubuntu-ceph-07", 添加mon节点也可以使用ceph-deploy mon add --address [ADDRESS] hostname

相关主题