Openfire_spark_安装手册
spark+openfire 源代码部署

spark+openfire二次开发(一)文章分类:Java编程1.准备工作:到官网上下载Openfire 3.6.4,并通过svn下载openfire、Spark和SparkWeb 的源代码官网地址如下:/downloads/index.jsp注意官网上最新的Spark版本是2.5.8,其jdk环境最好使用1.6的版本。
2.环境搭建——spark源码安装配置双击openfire_3_6_4.exe进行openfire的安装,安装过程很简单,不介绍了。
本例的开发环境是基于Eclipse的。
1)选择File——New——Project——Java Project。
输入项目工程名sparkContents中选择"Create project from existiing source",然后把spark 文件所在的文件夹加进去..点击Finish。
2)生成Spark:点击Window::Show View::Ant右击Ant面板,选择Add Buildfiles展开spark::build文件夹,选择build.xml,点击"OK"在Ant面板,展开Spark,双击"release",等一段时间,会提示"Build Successful"。
3)运行Spark:点击Run::Open Debug Dialog...,出现"Run"窗口选择"Java Application",右键点击"New"按钮.在"Main"标签页,将New_configuration换成Spark.点击Project::Browse按钮,选择Spark,再点OK.点击Main class::Search按钮,选择main所在的类uncher.Startup再点击OK建议勾选Stop in main.点击Classpath标签页,选择User Entries ,使得Advanced..按钮变的可用.点击Advanced按钮.在弹出来的Advanced Options窗口,选择Add Folders,再点OK,在Folder Selection窗口选择spark::src::resources 文件夹,点击OK 选择Common标签页,勾选Debug,Run前面的框点击Apply,再点击Close4)在run下选择spark,运行成功!spark+openfire二次开发(二)1.openfire源码部署将下来的openfire_src_3_6_4.tar.gz解压后得到openfire_src文件夹,重命名为openfire。
大数据处理平台Spark的安装和配置方法

大数据处理平台Spark的安装和配置方法大数据处理平台Spark是一种快速且可扩展的数据处理框架,具有分布式计算、高速数据处理和灵活性等优势。
为了使用Spark进行大规模数据处理和分析,我们首先需要正确安装和配置Spark。
本文将介绍Spark的安装和配置方法。
一、环境准备在开始安装Spark之前,需要确保我们的系统符合以下要求:1. Java环境:Spark是基于Java开发的,因此需要先安装Java环境。
建议使用Java 8版本。
2. 内存要求:Spark需要一定的内存资源来运行,具体要求取决于你的数据规模和运行需求。
一般情况下,建议至少有8GB的内存。
二、下载Spark1. 打开Spark官方网站(不提供链接,请自行搜索)并选择合适的Spark版本下载。
通常情况下,你应该选择最新的稳定版。
2. 下载完成后,将Spark解压到指定的目录。
三、配置Spark1. 打开Spark的安装目录,找到conf文件夹,在该文件夹中有一份名为spark-defaults.conf.template的示例配置文件。
我们需要将其复制并重命名为spark-defaults.conf,然后修改该文件以配置Spark。
2. 打开spark-defaults.conf文件,你会看到一些示例配置项。
按照需求修改或添加以下配置项:- spark.master:指定Spark的主节点地址,如local表示使用本地模式,提交到集群时需修改为集群地址。
- spark.executor.memory:指定每个Spark执行器的内存大小,默认为1g。
- spark.driver.memory:指定Spark驱动程序的内存大小,默认为1g。
3. 如果需要配置其他参数,可以参考Spark官方文档中的配置指南(不提供链接,请自行搜索)。
4. 保存并退出spark-defaults.conf文件。
四、启动Spark1. 打开命令行终端,进入Spark的安装目录。
OpenFire环境搭建说明文档

OpenFire环境和插件开发说明文档1概述1.1编写目的本文档旨在为在Windows系统下快速构建Openfire开发环境和集成插件环境进行相关说明。
期望读者为Openfire开发人员和Openfire 服务器测试、维护人员。
1.2术语说明Openfire服务器:基于XMPP(jabber)协议的开源实时协作(RTC)服务器,采用Java语言开发。
可快速构建企业级的高效及时通信服务器。
Openfire插件:Openfire的可扩展应用服务模块,单个插件可通过Openfire的后台管理功能进行管理、发布、升级。
2准备资料2.1运行环境1.JDK:jdk 1.5以上,建议采用jdk1.6以上版本。
版本基于操作系统x86/x64确定。
目前服务器采用x86 版本jdk1.6.0_01。
2.Mysql:Mysql5.0以上,建议采用mysql5.5以上版本。
2.2资源文件Openfire源文件:Openfire版本【Openfire3.7.1】3结构说明3.1项目结构服务器部分:a)src/java:Openfire服务器源代码b)src/plugins:Openfire插件源代码c)build:build.xml Openfire服务器编译打包脚本d)documentation:安装开发说明文档和javadoce)resources:国际化资源文件f)src:源文件其它资源g)target:编译后的Openfire服务器h)work:开发环境Openfire工作目录自定义部分:a)ant:plugin-utils.xml 自定义帮助类编译打包脚本b)build:build-utf8.xml utf8格式Openfire服务器编译打包脚本c)plugin-jar:自定义插件存放目录,从target/openfire/plugins/下拷贝,主要为提交到SVN服务器d)src/plugins/rosterservice/src/java:关系服务插件源文件e)src/plugins/accountservice/src/java:账号服务插件源文件f)src/plugins/vcardservice/src/java:VCard服务插件源文件g)src/utils:自定义帮助类源文件3.2插件结构插件都存放在openfire根下的plugins目录下。
spark搭建手册

H a d o o p+S p a r k大数据集群环境1.配置集群的准备,文件包如下图:分布式机器如下:SparkMaster 192.168.35.129 Ubuntu12.xSparkWorker1 192.168.35.130 Ubuntu12.xSparkWorker 2 192.168.35.131 Ubuntu12.x2.配置linux 环境1.1配置linux登录时可以使用root账户1.2配置/etc/hostname,修改主机名SparkMaster,工作机为SparkWorker1、SparkWorker2,重启生效1.3配置/etc/hosts ,如下图1.4配置三台机器SSH无密码登录3.安装java环境,安装到/usr/lib/java目录,配置环境变量,验证成功,如下图4.安装hadoop1.1将hadoop安装到 /usr/local/hadoop目录,配置环境变量1.2在$HADOOP_HOME 下,按照下图操作创建目录,如下图1.3进入$HADOOP_HOME目录,对配置文件进行如下图配置,如下图首先,修改hadoop-env.sh,JAVA_HOME=我们java安装目录,如下图然后,修改yarn-env.sh, JAVA_HOME=我们java安装目录,如下图然后,修改mapred-env.sh, JAVA_HOME=我们java安装目录,如下图然后,修改slaves文件,将客户机填写到文件中,如下图然后,修改core-site.xml,填写如图配置,如下图然后,修改hdfs-site.xml,填写如图配置,如下图然后,复制一份mapred-site.xml.template 为mapred-site.xml,如下图然后,修改yarn-site.xml,填写如图配置,如下图最后,将SparkMaster操作,同步到SparkWorker1和SparkWorker2上1.4启动hadoop首先,收入hadoop namenode –format,如下图然后,启动hdfs文件系统,如下图可以验证是否成功,使用jps命令,master有3个进程,worker2有两个进程,如下图同时登录hdfs文件系统web界面查看配置情况,如下图然后,启动yarn集群,如下图进行验证,使用jps命令,如下图最后,验证hadoop分布式集群在hdfs上,创建两个文件夹,如下图登录,hdfs的web界面,进行查看,如下图5.安装scala安装到 /usr/lib/scala目录下,配置环境变量,验证如下图所有分布式集群都需要安装。
Openfire调试编译开发环境与安装

调试、编译开发环境Openfire与安装自己实践:说明:开发环境(IDE):Eclipse3.3.2+JDK1.6+Ant1.7+Openfire_src_3_5_1.zip1.如果代码中使用了importtestng.xxx语句,就需要导入testng-5.8-jdk15.jar类库;2.对于警告信息,是没有关系的。
因为这些警告信息是使用1.5以上版本JDK时候才出现的,使用JDK1.4是不会出现这些警告信息的。
因为这些代码中的有些是使用JDK1.4编写的,而JDK1.4不支持泛型,而JDK1.5和JDK1.6是支持泛型的。
这些警告信息主要是提示将这些非泛型的代码修改为更加高级的方法——泛型,所以这些警告信息是不影响代码结果的。
如果需要修改为泛型也是可以,使用泛型来处理相关的集合类。
3.在使用ant进行编译的时候,在ant视图中可能会出现警告如下信息:taskdefclasscom.install4j.install4jtaskcannotfound这个主要是要安装用来打包Java应用程序的install4j.exe程序,要安装到其默认的安装路径下。
也就是C:\ProgramFiles\目录下即可。
4.在源码里面有一个文件夹里有个打包的图标,双击那个图标,install4j就会读取你在build.xml文件里的信息、在里面完成做界面等打包工作。
编译调试的环境(IDE):Eclipse3.3.2+JDK1.6+Ant(内置)+openfire_src_2008-06-04.zip 在Windows操作系统下编译、调试openfire之前,需要确保HTTPSSL服务已经启动。
否则,会出现各种错误信息。
1.获取Openfire源代码从官方网站上直接下载官方发布版本的源代码openfire_src_2008-06-04.zip源代码压缩包;2.创建openfire工程将openfire_src_2008-06-04.zip解压后,目录下除了READEME.html、LICENSE.html和changelog.html三个网页文件之外,有下面四个子目录。
openfire环境搭建

Openfire环境搭建Linux:ubuntu 12.10Win:Windows 7版本:Openfire 3.9.1 Spark 2.6.3 Java统一使用6u45这个版本1Openfire服务器部署(非源码)1.1 Win下:1、安装jdk2、在openfire官网igniterealtime中下载win版的openfire,下载完成后,如果你下载的是exe文件,执行你的安装文件,进行安装。
这里我是zip的文件。
解压后,复制openfire目录到C:\Program Files\目录下;一定要在C:\Program Files\目录下的;这样openfire就安装完成了。
3、启动openfire服务器,并配置它。
在C:\Program Files\openfire\bin目录下有一个电灯泡的openfire.exe文件,双击执行,启动完成后可以看到4、点击Launch Admin按钮进入http://127.0.0.1:9090/setup/index.jsp页面,配置openfire服务器5、后面是选择语言,配置服务器域名。
选择数据库,这里可以选择openfire自带的数据库,即嵌入的数据库。
选择特性配置,默认即可。
管理员邮件,可跳过。
完成安装。
6、进入http://127.0.0.1:9090/login.jsp页面后,输入admin、密码admin登陆进入7、进入后可以看到:1.2 Ubuntu下:1、先去甲骨文官网下载安装jdk(选择Linux x64 或者Linux x86对应链接,注意不要选择rpm.bin的,选择.bin,6u45对应的是jdk-6u45-linux-i586.bin),也不要使用ubuntu自带的openjdk2、安装全程需要root权限,首先获取root权限sudo –s5、然后就是要告诉系统,我们使用的sun的JDK,而非OpenJDK了(注意下面的2行命令--install后面一共四个参数分别是链接名称路径优先级,我们只要修改对应的6、openfire官网下载Linux版的openfire:openfire_3.9.1_all.deb(这个直接双击通过ubuntu软件中心安装),经过以上软件已经完成安装,此时需要修改一下openfire的启动文件如果openfire没有启动,可以通过/etc/init.d/openfire start启动服务。
XMPP开源服务器Openfire的安装和配置指南

XMPP开源服务器Openfire的安装和配置指南Openfire 的安装和配置1、下载最新的openfire安装文件官方下载站点:下载地址:Exe:ZIP:我使用的是zip解压版的安装文件。
其中openfire是服务器,下面还有一个spark,这个是一个XMPP协议通信聊天的CS的IM软件,它可以通过openfire进行聊天对话。
2、下载完成后,如果你下载的是exe文件,执行你的安装文件,进行安装。
这里我是zip的文件。
解压后,复制openfire目录到C:\Program Files\目录下;一定要在C:\Program Files\目录下的;这样openfire就安装完成了。
3、下面我们启动openfire服务器,并配置它。
在C:\Program Files\openfire\bin目录下有一个电灯泡的openfire.exe文件,双击执行,启动完成后可以看到4、点击Launch Admin按钮进入页面,配置openfire服务器5、选择语言中文简体点击continue进入6、配置服务器域名如果你是本地访问,那么你可以不修改或是使用localhost、127.0.0.1的方式如果你用于外网或局域网访问,那么你的地址配置成外网或局域网地址7、选择数据库选择openfire自带的,当然你也可以选择你的数据库类型。
如Oracle、SQLServer、MySQL等。
如果openfire没有带jdbc的连接驱动,你需要添加连接数据库的jdbc驱动;驱动放在C:\Program Files\openfire\lib目录下8、选择特性配置,默认即可9、管理员邮件,可以跳过这步10、安装完成进入管理员控制台页面11、进入页面后,输入admin、密码admin登陆进入12、进入后可以看到服务器名称就是jwchat的连接地址;你可以使用Spark、jwchat 链接这个地址进行IM通信聊天……至此,openfire的安装和配置已经完成。
Openfire安装配置

一、环境操作系统:Windows XP SP3Web服务器:Tomcat 6.0.18.0Java Version:1.6.0_21Jvm Version:1.6.0_21-b07Openfire服务器:Openfire 3.7.0 Openfire Plugin:Fastpath Service 4.2.0Fastpath Webchat 4.0.0二、Opernfire环境安装配置1. Openfire下载目前最新版为3.7.0下载地址:/downloads/index.jsp分为两个版本,一个是包含了JRE的安装版本,另外一个是不包含JRE的版本。
也可以分别通过下面两个链接直接下载。
/downloadServlet?filename=openfire/openfire_3_7_0.exe/downloadServlet?filename=openfire/openfire_3_7_0.zip2. Openfire安装将下载的openfire_3_7_0.zip解压。
Openfire的全路径中不能有中文字符,最好主机名也是标准点的英文名称。
3. 运行Openfire服务器直接运行服务器文件。
安装目录\Openfire\bin\openfire.exe。
出现启动界面点击“Launch Admin”,或者在浏览器地址栏输入http://127.0.0.1:9000,进入Opernfire 管理控制台。
初次会进入Openfire设置界面,对Openfire进行初始设置。
3. Openfire初始设置3.1 语言选择:中文(简体)3.2 服务器设置:设置域及服务器管理端口3.3 数据库设置:有两个选项,分别是标准数据库连接和嵌入的数据库。
3.3.1 标准数据库连接,可以使用其他外部的数据库,目前支持5种外部数据库(MySQL、Oracle、Microsoft SQLServer、PostgreSQL、IBM DB2)3.3.2 嵌入的数据库,使用Openfire自带的嵌入式的数据库设置管理员账户的电子邮箱以及管理员登录管理控制台时的密码。
学习笔记——spark安装配置

学习笔记——spark安装配置今天安装配置了spark,主要是按照林⼦⾬⽼师的教程安装的。
其中在下载sbt和⽤sbt将程序进⾏打包时花费了⼤量的时间(可能是因为⽹络不佳吧)。
⼀.安装1.从选择版本进⾏下载。
若已装有hadoop则第⼆项选择如图所⽰。
2.解压安装后,还需要修改Spark的配置⽂件spark-env.shcd /usr/local/sparkcp ./conf/spark-env.sh.template ./conf/spark-env.sh编辑spark-env.sh⽂件(vim ./conf/spark-env.sh),在第⼀⾏添加以下配置信息:export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)3.通过运⾏Spark⾃带的⽰例,验证Spark是否安装成功。
cd /usr/local/sparkbin/run-example SparkPi执⾏时会输出⾮常多的运⾏信息,输出结果不容易找到,可以通过 grep 命令进⾏过滤(命令中的 2>&1 可以将所有的信息都输出到 stdout 中,否则由于输出⽇志的性质,还是会输出到屏幕中):bin/run-example SparkPi 2>&1 | grep "Pi is"验证结果:⼆.在spark shell中运⾏代码使⽤命令进⼊spark-shell环境,可以通过下⾯命令启动spark-shell环境cd /usr/local/sparkbin/spark-shell启动spark-shell后,就会进⼊“scala>”命令提⽰符状态,如下图所⽰可以使⽤命令“:quit”退出Spark Shell,或者,也可以直接使⽤“Ctrl+D”组合键,退出Spark Shell。
Spark环境搭建(下)——Spark安装

Spark环境搭建(下)——Spark安装1. 下载Spark1.1 官⽹下载Spark打开上述链接,进⼊到下图,点击红框下载Spark-2.2.0-bin-hadoop2.7.tgz,如下图所⽰:2. 安装SparkSpark安装,分为:准备,包括上传到主节点,解压缩并迁移到/opt/app/⽬录;Spark配置集群,配置/etc/profile、conf/slaves以及confg/spark-env.sh,共3个⽂件,配置完成需要向集群其他机器节点分发spark程序,直接启动验证,通过jps和宿主机浏览器验证启动spark-shell客户端,通过宿主机浏览器验证2.1 上传并解压Spark安装包1. 把spark-2.2.0-bin-hadoop2.7.tgz通过Xftp⼯具上传到主节点的/opt/uploads⽬录下2. 在主节点上解压缩# cd /opt/uploads/# tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz有时解压出来的⽂件夹,使⽤命令 ll 查看⽤户和⽤户组有可能不是hadoop时,即上图绿框显⽰,则需要使⽤如下命令更换为hadoop⽤户和⽤户组:# sudo chown hadoop:hadoop spark-2.2.0-bin-hadoop2.73. 把spark-2.2.0-bin-hadoop2.7移到/opt/app/⽬录下# mv spark-2.2.0-bin-hadoop2.7 /opt/app/# cd /opt/app && ll2.2 配置⽂件与分发程序2.2.1 配置/etc/profile1. 以hadoop⽤户打开配置⽂件/etc/profile# sudo vi /etc/profile2. 定义SPARK_HOME并把spark路径加⼊到PATH参数中export SPARK_HOME=/opt/app/spark-2.2.0-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin2.2.2 配置conf/slaves1. 打开配置⽂件conf/slaves,默认情况下没有slaves,需要使⽤cp命令复制slaves.template# cd /opt/app/spark-2.2.0-bin-hadoop2.7/conf 如果不在/opt/app/spark-2.2.0-bin-hadoop2.7⽬录下,则使⽤该命令# cp slaves.template slaves# sudo vi slaves2. 加⼊slaves配置节点hadoop1hadoop2hadoop32.2.3 配置conf/spark-env.sh1. 以hadoop⽤户,使⽤如下命令,打开配置⽂件spark-env.sh# cd /opt/app/spark-2.2.0-bin-hadoop2.7 如果不在/opt/app/spark-2.2.0-bin-hadoop2.7⽬录下,则使⽤该命令# cp spark-env.sh.template spark-env.sh# vi spark-env.sh2. 加⼊如下环境配置内容,设置hadoop1为Master节点:export JAVA_HOME=/usr/lib/java/jdk1.8.0_151export SPARK_MASTER_IP=hadoop1export SPARK_MASTER_PORT=7077export SPARK_WORKER_CORES=1export SPARK_WORKER_INSTANCES=1export SPARK_WORKER_MEMORY=900M【注意】:SPARK_WORKER_MEMORY为计算时使⽤的内存,设置的值越低,计算越慢,反之亦然。
Openfire+Spark+Spark Web安装配置

Openfire+Spark+Spark Web安装配置一.安装环境操作系统:Windows XP Prefessional SP2服务器软件:Openfire 3.4.2Openfire Enterprise 3.4.2客户端软件:Spark 2.5.7Spark Fastpath Webchat 3.4.1JDK:J2SE 5.0 (1.5.0_03)二.安装Jabber服务器软件2.1 软件下载Jabber官网地址:/常用Jabber服务器软件:/software/servers.shtml本文以Openfire(Wildfire)为服务器,一款基于GPL协议开源软件,支持各种操作系统,软件需要java环境支持,不过软件本身自带了环境包,你可以根据你的需要下载不同的版本。
下载地址:/downloads/index.jsp#openfire Windows无java环境版本地址:/downloadServlet?filename=openfire/openfire_3_4_ 2.zip最新版本:Openfire 3.4.22.2Windows版本安装将openfire_3_2_2.zip解压缩到D:\。
特别要注意,openfire的全路径中不能有中文字符,最好主机名也是标准点的英文名称。
直接运行安装文件,D:\Openfire\bin\openfire.exe2.3openfire服务器配置浏览器地址栏中输入http://localhost:9090/即可开始即时通讯服务器配置。
(1)语言选择:中文简体(2)服务器设置:选择域及端口,建议默认(3)数据库设置:选“标准数据库”(4)标准数据库设置:将oracle驱动放在openfire的lib目录下。
在数据库驱动选项栏选择Oracle。
数据库URL填入你的数据库地址,端口和数据库名称,以及用户名和密码(需要在安装前创建),最大连接数,最小连接数和连接超时时间可自行调整。
spark安装详细教程

spark安装详细教程1. 首先,确保你已经准备好了安装所需的环境和要求。
Spark要求Java 8或更高版本,所以你需要在你的系统上安装Java并设置好JAVA_HOME环境变量。
2. 下载Spark的安装包。
你可以在Spark的官方网站上找到最新的稳定版本并下载。
3. 在你选择安装Spark的目录下解压下载的安装包。
你可以使用以下命令解压.tar.gz文件:```tar -xzf spark-xxx.tgz```4. 进入解压后的Spark目录:```cd spark-xxx```5. 复制一份Spark的默认配置文件,并根据你的需求进行修改: ```cp ./conf/spark-env.sh.template ./conf/spark-env.sh```然后打开`spark-env.sh`文件并进行配置。
你可以设置Spark的工作目录、内存等参数。
6. 启动Spark集群。
你可以通过以下命令启动一个本地的Spark集群:```./sbin/start-all.sh```这将启动Master和Worker进程。
7. 确认Spark集群已经成功启动。
你可以在浏览器中访问Master节点的Web界面,默认地址是`http://localhost:8080`,来查看集群的状态。
8. 在你的应用程序中使用Spark。
你可以通过以下命令提交一个Spark应用程序:```./bin/spark-submit --class com.example.MyApp --master spark://localhost:7077 ./path/to/your/app.jar```其中`com.example.MyApp`是你的应用程序的入口类,`spark://localhost:7077`是Spark集群的Master地址。
以上是Spark的安装详细教程,按照上述步骤完成后,你就可以开始使用Spark进行大规模数据处理和分析了。
openfire与jachart安装步骤

WebIM即时通讯采用openfire作为服务端,jwchart作为嵌入在页面中的客户端。
另外,spark是一个单独的客户端,与openfire通讯,功能强大。
Sparkweb是spark在页面中一个实现,使用了flex技术,开始时研究了几天,页面已经改成了中文,也实现了自动登录,但是不能输入中文,最终放弃。
1.openfire安装以及配置1)安装#rpm -ivh openfire_3_0_0.rpm默认安装路径位于:/opt/openfire具体见基于开源jabber(XMPP)架设内部即时通讯服务的解决方案.mhtOpenfire使用用户自己的数据库,安装完毕,配置前,需要把存放数据的数据库的jdbc 驱动拷贝到openfire安装目录下的lib目录下。
2) 启动#/opt/openfire/bin/openfire.sh2.客户端jwchart下载jwchart,拷贝到tomcat\webapps\下即可。
通过http://localhost:8080/jwchart/index.html,可以输入用户名和密码登录。
输入http://localhost:8080/jwchart/index.html?jid=用户名&pass=密码,可以自动登录。
3.jwchart配置在config.js文件中,修改var SITENAME = "localhost"; // 此处为openfire所设置的域名var BACKENDS =[{name:"Native Binding",description:"Ejabberd's native HTTP Binding backend",httpbase:"http://localhost:7070/http-bind/", // 此处为openfire所在的IP地址type:"binding",servers_allowed:[SITENAME]},{name:"Open Relay",description:"HTTP Binding backend that allows connecting to any jabber server",httpbase:"/jwchat/JHB/", //此处为修改后的值原值为 /JHB/type:"binding",default_server: SITENAME}];在jsjac.js中找到if(this.has_sasl)行(如果你的编辑器有行号,大概在300多行) 在它前边加上this.has_sasl = false;在OpemFire的管理控制台增加两个服务器属性:xmpp.httpbind.client.requests.polling = 0xmpp.httpbind.client.requests.wait = 10。
linux下安装openfire

ubuntu下安装openfire前两天同事安装openfire+spark,可是我的spark客户端总是掉线(1-2小时左右),我想找到是什么原因(非常急迫想用openfire换掉RTX,每次开个虚拟机就是跑RTX,烦得不行),刚好下午有点时间,于是试验了一下,进展非常顺利。
参考了这篇参考文章2参考文章3参考文章4参考文章5参考文章6openfire数据库结构参考文章7环境准备:(ubuntu server+LAMP)为了避免环境的影响,我没有用ubuntu server 10.04(其实我们的生产环境都是centos),而是用的ubuntu server 8.04(主要是我的桌面一直是ubuntu,懒得再查centos文档),初始安装,选择LAMP包,然后升级打好补丁(我做了一个镜像,在vmware station中,其实没有用到)设置mysql root帐户密码:(如果mysql没有设置密码可以这样设置)1. $ mysql -u root2. mysql> GRANT ALL PRIVILEGES ON *.* TO root@localhost IDENTIFIED BY "123456";∙为了使用方便,我还装了图形桌面$sudo apt-get install ubuntu-desktop$startx开始安装:∙安装java(参考这篇帖子)$ sudo apt-get install sun-java6-bin$ sudo update-alternatives –config java因为是初始安装,系统没有安装java,否则可能需要$ sudo update-alternatives --config java切换java版本∙安装phpmyadmin,建立一个openfire数据库,整理格式选择”utf-8_unicode_ci”(phpmyadmin的使用参见这里)$sudo apt-get install phpmyadmin∙下载安装openfire(openfire 3.6.4 主站deb包)$sudo dpkg -i openfire_3.6.4_all.deb∙配置openfire(参考这里)中文问题:注意在选择数据库的时候将jdbc:mysql://[host-name]:3306/[database-name]改为:jdbc:mysql://localhost:3306/openfire?useUnicode=true&character Encoding=UTF-8&characterSetResults=UTF-8。
openfire+sparkweb在线聊天

openfire+sparkweb在线聊天其中openfire为最为关键的点,但搭建相对来说还是比较简单的网站上有很对例子。
我就简要的说明下吧。
(我是在linux下搭建的openfire)openfire的搭建1.下载地址为:2.在linux端需要解压解压命令为:tar -xzvf openfire_3_8_2.tar.gz3.解压后就可以直接启动 (openfire/bin/openfire start)4.配置管理页面(搭建中,难点在于这里),管理页面为http://域名或ip:9090.如我在ip为192.168.8.2上搭建了openfire那么访问的管理配置页面就应该为:http://192.168.8.2:9090在初始设置中,其中有两个注意点说明下:(1).数据库设置,分为标准数据库连接和嵌入的数据库两种方式,其中"嵌入的数据库"为内置数据,无需过多的设置."标准数据库连接" 是指外置数据库,在数据库中注意应该创建一个名为openfire的database然后在该database中导入解压后的sql(目录为) openfire/resources/database/ openfire_mysql.sql .我建议使用标准数据库连接,方便二次开发和功能扩展(2).在"管理员账户"中的设置就是你以后登录管理配置页面的帐号和密码5.测试,需要在官网下spark() 如果你能创建用户就基本可以说明你openfire搭建成功了sparkweb相关吐槽一番,在网站上有很多资料都有说到red5.war这个字眼,但是当我下载这个war包的时候,总是不对,没错.少了一个文件.下载我自己打了一个war包供大家下载,不过需要大家提供点分数。
下载地址:/detail/shendixiong/6380643在上面的地址中下载了一个red5.war文件,然后将该文件放入到tomcat下的webapps下.启动tomcat 就会自动解压war .也就多了一个red5的目录!如果没有就证明失败了!如下图:然后就可以我访问为:就好了。
spark的安装流程

spark的安装流程下载温馨提示:该文档是我店铺精心编制而成,希望大家下载以后,能够帮助大家解决实际的问题。
文档下载后可定制随意修改,请根据实际需要进行相应的调整和使用,谢谢!并且,本店铺为大家提供各种各样类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,如想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by theeditor. I hope that after you download them,they can help yousolve practical problems. The document can be customized andmodified after downloading,please adjust and use it according toactual needs, thank you!In addition, our shop provides you with various types ofpractical materials,such as educational essays, diaryappreciation,sentence excerpts,ancient poems,classic articles,topic composition,work summary,word parsing,copy excerpts,other materials and so on,want to know different data formats andwriting methods,please pay attention!1. 安装 JavaSpark 是基于 Java 运行的,因此需要先安装 Java。
spark搭建手册

H a d o o p+S p a r k大数据集群环境1.配置集群的准备,文件包如下图:分布式机器如下:SparkMasterSparkWorker1SparkWorker 22.配置linux 环境1.1配置linux登录时可以使用root账户1.2配置/etc/hostname,修改主机名SparkMaster,工作机为SparkWorker1、SparkWorker2,重启生效1.3配置/etc/hosts ,如下图1.4配置三台机器SSH无密码登录3.安装java环境,安装到/usr/lib/java目录,配置环境变量,验证成功,如下图4.安装hadoop1.1将hadoop安装到 /usr/local/hadoop目录,配置环境变量1.2在$HADOOP_HOME 下,按照下图操作创建目录,如下图1.3进入$HADOOP_HOME目录,对配置文件进行如下图配置,如下图首先,修改,JAVA_HOME=我们java安装目录,如下图然后,修改, JAVA_HOME=我们java安装目录,如下图然后,修改, JAVA_HOME=我们java安装目录,如下图然后,修改slaves文件,将客户机填写到文件中,如下图然后,修改,填写如图配置,如下图然后,修改,填写如图配置,如下图然后,复制一份为,如下图然后,修改,填写如图配置,如下图最后,将SparkMaster操作,同步到SparkWorker1和SparkWorker2上1.4启动hadoop首先,收入hadoop namenode –format,如下图然后,启动hdfs文件系统,如下图可以验证是否成功,使用jps命令,master有3个进程,worker2有两个进程,如下图同时登录hdfs文件系统web界面查看配置情况,如下图然后,启动yarn集群,如下图进行验证,使用jps命令,如下图最后,验证hadoop分布式集群在hdfs上,创建两个文件夹,如下图登录,hdfs的web界面,进行查看,如下图5.安装scala安装到 /usr/lib/scala目录下,配置环境变量,验证如下图所有分布式集群都需要安装。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Openfire+Spark安装手册王保政QQ:29803446Msn:baozhengw999@关键字:快速开发平台openjweb 增删改查即时通信2009-8-29目录第一章JA VA领域的IM解决方案 (3)第二章安装OPENFIRE3.6.4 (3)2.1配置机器的域名 (3)2.2安装OPENFIRE (3)2.2.1 安装 (3)2.2.2 运行数据库脚本 (4)2.2.3 数据库驱动jar包 (6)2.2.4 openfire初始化配置 (6)2.3设置用户 (12)第三章安装SPARK客户端 (13)第四章配置MSN网关 (15)4.1服务端配置MSN网关 (15)第五章RED5视频配置 (18)5.1部署RED5.WAR (18)5.2 SPARK客户端配置视频插件 (19)第六章使用SMACK开发即时通信功能 (22)第一章Java领域的IM解决方案Java领域的即时通信的解决方案可以考虑openfire+spark+smack。
当然也有其他的选择。
Openfire是基于Jabber协议(XMPP)实现的即时通信服务器端版本,目前建议使用3.6.4版本,这个版本是当前最新的版本,而且网上可以找到下载的源代码。
即时通信客户端可使用spark2.5.8,这个版本是目前最新的release版本,经过测试发现上一版本在视频支持,msn网关支持上可能有问题,所以选择openfire3.6.4+spark2.5.8是最合适的选择。
Smack是即时通信客户端编程库,目前我已测通通过jsp使用smack的API向openfire 注册用户发送消息,并且可以通过监听器获得此用户的应答消息。
通过smack向msn用户和QQ用户,gtalk用户发送消息应该也可以实现,关于向gtalk 用户发送消息的例子较多。
这个留待以后研究。
至少目前可以通过程序向spark发消息了。
对于局域网内部应用足以解决系统与用户交互的问题,甚至可以做自动应答机器人。
Spark支持聊天,语音,视频,会议,文件收发,截屏,连接msn等功能。
第二章安装openfire3.6.42.1 配置机器的域名使用openfire需要配置机器的域名。
如果局域网内没有安装域服务器,则需要手工为机器配置域名,打开C:\WINDOWS\system32\drivers\etc\hosts文件,增加一新行: (用户根据自己的需要可配置称别的名字,但最好符合带.的域名格式)其他机器使用域名访问openfire,也需要在C:\WINDOWS\system32\drivers\etc\hosts中指定对应的ip地址,假设安装openfire的主机IP为192.168.1.10,则hosts文件中应增加一新行:192.168.1.10 通过这种方式指定主机域名,建议安装openfire的机器配置静态ip地址以免ip发生改变。
2.2 安装openfire2.2.1 安装安装程序为openfire_3_6_4.exe,运行后,语言选择简体中文,见下图:后续按照提示安装,最后出现下面的界面:这时先不要运行openfire,所以不要勾选上面页面的复选框,然后点完成,如果勾选的话,在新出现的窗口中点“stop”停止openfire后续的运行,然会点”quit”退出,因为下面要配置openfire使用的数据库,需要手工将数据库驱动放到openfire的某个目录下,否则openfire 不识别数据库驱动的包名。
2.2.2 运行数据库脚本数据库运行脚本在C:\Program Files\Openfire\resources\database目录下,如果用户安装选择的不是C:\Program Files目录,可以到安装openfire目录下找到database目录,打开此目录后可看到有多种版本的数据库脚本,假定我们现在要把openfire的数据库安装在sqlserver2005中,则使用openfire_sqlserver.sql脚本,假如已经装好了2005数据库,可在Management Studio中执行数据库脚本,见下图:执行后,打开数据库,可看到下面创建的数据库表:2.2.3 数据库驱动jar包如果使用sqlserver2005,则将sqlserver2005驱动jar包sqljdbc.jar复制到C:\Program Files\Openfire\lib下,使用openjweb快速开发平台的用户可直接从D:\project\apache-tomcat-5.5.27\common\lib找到此jar包复制过去,另外此目录还有mysql 的mysql-connector-java-3.1.12-bin.jar和oracle的ojdbc14.jar,如果用户不选择sqlserver则复制对应数据库的驱动jar包。
2.2.4 openfire初始化配置从开始菜单中找到openfire并运行,下面是运行界面:点”Launch Admin”,出现下面的页面,页面连接为http://127.0.0.1:9090/setup/index.jsp语种选择中文(简体),点”Continue”:(下面的页面如果出现英文,请刷新一下页面或者重新点Launch Admin)就是将图中的Domain中的文字换成后,点Continue(继续):这个页面中第一个选项,即标准数据库连接,不要选择嵌入的数据库(Embedded Database,嵌入的数据库是hsqldb数据库,生产环境不要选择此选项),然后点”继续”:这个页面是配置是否使用LDAP,我们现在不配置LDAP,所以选择Default默认即可,点继续:上图是sqlserver2005的配置,jdbc驱动类为:com.microsoft.sqlserver.jdbc.SQLServerDriver数据库URL为:jdbc:sqlserver://192.168.1.222:2324;DatabaseName=dms数据库名和用户名及口令请根据实际环境配置。
配置完成后,点”继续”:如果点继续出现错误提示页面,请检查(1)数据库表是否按前面的步骤已在数据库中创建(2)是否已将对应的数据库jar保复制到openfire的lib目录(3)检查数据库连接参数,端口,数据库名等属性,可使用dos命令行检查数据库端口是否有效,例如telnet 192.168.1.222 2324下面是配置LDAP的页面,选择”初始设置”(默认选项)即可。
点“继续”:下面是配置超级管理员的页面:输入一个邮箱和口令,例如123456设置好后点“继续”:这个时候不要点“登录到管理控制台”,登录肯定失败,需要切换到这个页面:点”stop”,然后点“start”,等重启动成功后点”Launch Admin”,进入登录页面:使用admin 用户名和设置的口令123456登录,下面是登录成功的页面,恭喜!sqlserver2005上安装openfire成功!我们打开ofUser数据库表可以看到admin用户信息:(下面的口令不是用md5加密的)在登录成功页面点“用户/组”标签维护用户信息,可在这里增加新的用户,也可以建组,下面是新建的几个组:下面新建几个测试用户,分别是abao/abao,zhangyu/zhangyu,suqi/suqi,liu/liu说明:当安装了spark客户端后,用户可直接在客户端注册帐号。
第三章安装spark客户端安装程序为spark_2_5_8.exe,安装过程全部默认即可。
下面是登录界面:登录时可使用openfire中创建的帐号,也可以点(A)帐户自己注册新的帐号,服务器需设置为openfire的域名地址即上面安装的,下面是登录成功界面:关于spark客户端的具体功能就不介绍了,下面介绍openfire配置msn网关及spark如何连接msn,以及red5视频的配置方式。
第四章配置msn网关4.1 服务端配置msn网关将gateway.jar插件包(可网上下载)复制到openfire的plugin目录下,如:C:\Program Files\Openfire\plugins,如果openfire安装到别的目录请找到对应的目录,把gateway.jar复制过去。
停止openfire,重新启动并登录后,见下面的页面,多出了一个gateways 的标签页:点Gateways,找到MSN Messagers,勾选,然后点“选项”,见下图:以上默认的配置不用修改,点“测试”,显示:点“测试连接”,显示测试成功。
(右侧将显示绿色背景的文字提示测试成功)4.2 spark客户端设置msn帐号:启动spark,登录后,spark窗口的右上多出一个灰色的蝴蝶,见下图:点这个蝴蝶,然后选择“输入登入资讯”,显示下面的窗口:在这里输入msn的用户和口令,然后保存,稍后片刻,spark将从msn上获取用户列表,最后显示下面的msn好友列表:这时可以选择一个在线用户聊天了,spark还支持文件传输,截屏,语音,视频等。
第五章Red5视频配置5.1 部署red5.war将red5.war复制到C:\Program Files\Openfire\plugins,如果openfire是在运行状态,一会会在这个目录下自动部署red5.war(在此目录下自动生成red5目录)。
安装成功后,openfire的管理页面会多出一个red5标签,见下图:服务端不需要做任何改动。
5.2 spark客户端配置视频插件上一步骤部署了red5后,需要停止openfire并重新启动,启动完成后,访问:7070/red5,显示一个red5的html首页,下拉到页面最下面,找到spark plugin,点”here”,见下图:点”here”会下载red5-plugin.jar,直接保存在C:\Program Files\Spark\plugins目录下,重新启动spark。
在spark中右键点一个人,会出现几个菜单:其中View Destop Screen和Publish Desktop Screen是相关联的,见下图:如果A用户用Publish Desktop Screen发布了自己的桌面,B用户选择A用户,右键选择上一个图中的View Desktop Screen,则B用户可看到A用户的计算机桌面。
在:7070/red5页面上有一个功能和这个类似,见下图:To publish是发布自己的桌面,To Viewer是别人观看自己发布的桌面,多人发布是什么效果没有具体测试。
可以自己发布然后观看自己的桌面(效果有点像两个镜子对照,会出现层层窗口嵌套的现象),下面是自己发布自己的桌面并观看自己的桌面的效果:当选择一个人,右键选择Add/Remove V ideo Roster后,可进行视频聊天,可以加多个人进行视频,每选择一个热人,然后点Add/Remove Video Roster,就可以将这个人加入到视频中或者从视频中移除,下面是视频页面(我没装摄像头),可以看出一个页面中可以显示多人视频,如果其他人也装了spark,估计也能看到多人视频的效果(猜测,没有测试),见下图:第六章使用smack开发即时通信功能可以使用smack开源产品开发与即时通信用户交互的功能,这样我们可以使用系统来模拟一个openfire的用户来向其他用户发送消息,因而可以使应用系统产生的业务消息实时传递给即时通信用户,例如系统向某用户发送“有新的请假单需要您审批”,如果用户开启了spark客户端,则spark客户端会实时接收此消息。