尚硅谷大数据项目之实时项目2(日活需求)

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第1章实时处理模块

1.1 模块搭建

添加scala框架

1.2 代码思路

1)消费kafka中的数据;

2)利用redis过滤当日已经计入的日活设备;

3)把每批次新增的当日日活信息保存到HBASE或ES中;

4)从ES中查询出数据,发布成数据接口,通可视化化工程调用。

1.3 代码开发1 ---消费Kafka

1.3.1 配置

1)config.properties

# Kafka配置

kafka.broker.list=hadoop102:9092,hadoop103:9092,hadoop104:9092

# Redis配置

redis.host=hadoop102

rdis.port=6379

2)pom.xml

com.atguigu.gmall2019.dw

dw-common

1.0-SNAPSHOT

org.apache.spark

spark-core_2.11

org.apache.spark

spark-streaming_2.11

org.apache.kafka

kafka-clients

0.11.0.2

org.apache.spark

spark-streaming-kafka-0-8_2.11

redis.clients

jedis

2.9.0

io.searchbox

5.3.3

net.java.dev.jna

jna

4.5.2

org.codehaus.janino

commons-compiler

2.7.8

net.alchim31.maven

scala-maven-plugin

3.2.2

compile

testCompile

1.3.2 工具类

1)MykafkaUtil

package com.atguigu.utils

import java.util.Properties

import kafka.serializer.StringDecoder

import org.apache.spark.streaming.StreamingContext

import org.apache.spark.streaming.dstream.InputDStream

import org.apache.spark.streaming.kafka.KafkaUtils

object MyKafkaUtil {

def getKafkaStream(ssc: StreamingContext, topics: Set[String]): InputDStream[(String, String)] = {

相关文档
最新文档