自慰套教室~女子全员妊娠,精品无码国产自产拍在线观看蜜桃,亚洲国产精品成人精品无码区,久别的草原在线看视频免费

集團站切換校區

驗證碼已發送,請查收短信

復制成功
微信號:togogoi
添加微信好友, 詳細了解課程
已復制成功,如果自動跳轉微信失敗,請前往微信添加好友
打開微信
圖標

學習文章

當前位置:首頁 > >學習文章 > >

{大數據}Kafka Java API

發布時間: 2018-01-19 17:16:19

1. Kafka生產者Java API:

package net.togogo.kafkaproject;

import java.util.Properties;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.ProducerRecord;

public class KafkaProducerSimple {

   public static void main(String[] args) {

       Properties props = new Properties();

       props.put("bootstrap.servers",

               "hdp08:9092,hdp09:9092,hdp10:9092");//該地址是集群的子集,用來探測集群。

       props.put("acks", "all");// 記錄完整提交,最慢的但是較大可能的持久化

       props.put("retries", 3);// 請求失敗重試的次數

       props.put("batch.size", 16384);// batch的大小

       props.put("linger.ms", 1);// 默認情況即使緩沖區有剩余的空間,也會立即發送請求,設置一段時間用來等待從而將緩沖區填的更多,單位為毫秒,producer發送數據會延遲1ms,可以減少發送到kafka服務器的請求數據

       props.put("buffer.memory", 33554432);// 提供給生產者緩沖內存總量

       props.put("key.serializer",

               "org.apache.kafka.common.serialization.StringSerializer");// 序列化的方式,

                                                                           // ByteArraySerializer或者StringSerializer

       props.put("value.serializer",

               "org.apache.kafka.common.serialization.StringSerializer");

       KafkaProducer<String, String> producer = new KafkaProducer<>(props);

       for (int i = 0; i < 10000; i++) {

           // 三個參數分別為topic, key,value,send()是異步的,添加到緩沖區立即返回,更高效。

           producer.send(new ProducerRecord<String, String>("mytopic",

                   "key"+i, "value"+i));

       }

       producer.close();

   }

}


2. Kafka消費者Java API?:

package net.togogo.kafkaproject;

import java.util.Arrays;

import java.util.Properties;

import org.apache.kafka.clients.consumer.ConsumerRecord;

import org.apache.kafka.clients.consumer.ConsumerRecords;

import org.apache.kafka.clients.consumer.KafkaConsumer;

public class KafkaConsumerSimple {

public static void main(String[] args) {

       Properties props = new Properties();

       props.put("bootstrap.servers",

               "hdp08:9092,hdp09:9092,hdp10:9092");// 該地址是集群的子集,用來探測集群。

       props.put("group.id", "test");// cousumer的分組id

       props.put("enable.auto.commit", "true");// 自動提交offsets

       props.put("auto.commit.interval.ms", "1000");// 每隔1s,自動提交offsets

       props.put("session.timeout.ms", "30000");// Consumer向集群發送自己的心跳,超時則認為Consumer已經死了,kafka會把它的分區分配給其他進程

       props.put("key.deserializer",

               "org.apache.kafka.common.serialization.StringDeserializer");// 反序列化器

       props.put("value.deserializer",

               "org.apache.kafka.common.serialization.StringDeserializer");

       KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);

       consumer.subscribe(Arrays.asList("mytopic"));// 訂閱的topic,可以多個

       while (true) {

           ConsumerRecords<String, String> records = consumer.poll(100);

           for (ConsumerRecord<String, String> record : records) {

               System.out.printf("offset = %d, key = %s, value = %s",

                       record.offset(), record.key(), record.value());

               System.out.println();

           }

       }

   }

}

?

一、 Kafka架構

?1. Kafka整體結構圖

?

    Producer :消息生產者,就是向kafka broker發消息的客戶端。

    Consumer :消息消費者,向kafka broker取消息的客戶端

    Topic :可以理解為一個隊列。

    Consumer Group (CG):這是kafka用來實現一個topic消息的廣播(發給所有的consumer)和單播(發給任意一個consumer)的手段。一個topic可以有多個CG。topic的消息會復制(不是真的復制,是概念上的)到所有的CG,但每個partion只會把消息發給該CG中的一個consumer。如果需要實現廣播,只要每個consumer有一個獨立的CG就可以了。要實現單播只要所有的consumer在同一個CG。用CG還可以將consumer進行自由的分組而不需要多次發送消息到不同的topic。

    Broker :一臺kafka服務器就是一個broker。一個集群由多個broker組成。一個broker可以容納多個topic。

    Partition:為了實現擴展性,一個非常大的topic可以分布到多個broker(即服務器)上,一個topic可以分為多個partition,每個 partition是一個有序的隊列。partition中的每條消息都會被分配一個有序的id(offset)。kafka只保證按一個partition中的順序將消息發給consumer,不保證一個topic的整體(多個partition間)的順序。

    Offset:kafka的存儲文件都是按照offset.kafka來命名,用offset做名字的好處是方便查找。例如你想找位于2049的位置,只要找到2048.kafka的文件即可。當然the first offset就是00000000000.kafka

?

2.Consumer與topic關系?

本質上kafka只支持Topic;

    每個group中可以有多個consumer,每個consumer屬于一個consumer group;

通常情況下,一個group中會包含多個consumer,這樣不僅可以提高topic中消息的并發消費能力,而且還能提高"故障容錯"性,如果group中的某個consumer失效那么其消費的partitions將會有其他consumer自動接管。

    對于Topic中的一條特定的消息,只會被訂閱此Topic的每個group中的其中一個consumer消費,此消息不會發送給一個group的多個consumer;

那么一個group中所有的consumer將會交錯的消費整個Topic,每個group中consumer消息消費互相獨立,我們可以認為一個group是一個"訂閱"者。

    在kafka中,一個partition中的消息只會被group中的一個consumer消費(同一時刻);

一個Topic中的每個partions,只會被一個"訂閱者"中的一個consumer消費,不過一個consumer可以同時消費多個partitions中的消息。

    kafka的設計原理決定,對于一個topic,同一個group中不能有多于partitions個數的consumer同時消費,否則將意味著某些consumer將無法得到消息。

kafka只能保證一個partition中的消息被某個consumer消費時是順序的;事實上,從Topic角度來說,當有多個partitions時,消息仍不是全局有序的。

?

3. Kafka消息的分發 Producer客戶端負責消息的分發

l kafka集群中的任何一個broker都可以向producer提供metadata信息,這些metadata中包含"集群中存活的servers列表"/"partitions leader列表"等信息;

l 當producer獲取到metadata信息之后, producer將會和Topic下所有partition leader保持socket連接;

l 消息由producer直接通過socket發送到broker,中間不會經過任何"路由層",事實上,消息被路由到哪個partition上由producer客戶端決定;

比如可以采用"random""key-hash""輪詢"等,如果一個topic中有多個partitions,那么在producer端實現"消息均衡分發"是必要的。

l 在producer端的配置文件中,開發者可以指定partition路由的方式。


Producer消息發送的應答機制

設置發送數據是否需要服務端的反饋,有三個值0,1,-1

0: producer不會等待broker發送ack

1: 當leader接收到消息之后發送ack

-1: 當所有的follower都同步消息成功后發送ack

request.required.acks=0

?

4. Consumer的負載均衡當一個group中,有consumer加入或者離開時,會觸發partitions均衡.均衡的最終目的,是提升topic的并發消費能力,步驟如下:

1、 假如topic1,具有如下partitions: P0,P1,P2,P3

2、 加入group中,有如下consumer: C1,C2

3、 首先根據partition索引號對partitions排序: P0,P1,P2,P3

4、 根據consumer.id排序: C0,C1

5、 計算倍數: M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)

6、 然后依次分配partitions: C0 = [P0,P1],C1=[P2,P3],即Ci = [P(i * M),P((i + 1) * M -1)]

?

5. kafka文件存儲機制

1) Kafka文件存儲基本結構l 在Kafka文件存儲中,同一個topic下有多個不同partition,每個partition為一個目錄,partiton命名規則為topic名稱+有序序號,第一個partiton序號從0開始,序號較大值為partitions數量減1。

每個partion(目錄)相當于一個巨型文件被平均分配到多個大小相等segment(段)數據文件中。但每個段segment file消息數量不一定相等,這種特性方便old segment file快速被刪除。默認保留7天的數據。

?

每個partiton只需要支持順序讀寫就行了,segment文件生命周期由服務端配置參數決定。(什么時候創建,什么時候刪除)

?

數據有序的討論?

一個partition的數據是否是有序的? 間隔性有序,不連續

針對一個topic里面的數據,只能做到partition內部有序,不能做到全局有序。

特別加入消費者的場景后,如何保證消費者消費的數據全局有序的?偽命題。

只有一種情況下才能保證全局有序?就是只有一個partition。


?Kafka Partition Segment?

Segment file組成:由2大部分組成,分別為index file和data file,此2個文件一一對應,成對出現,后綴".index"和“.log”分別表示為segment索引文件、數據文件。

?

Segment文件命名規則:partion全局的第一個segment從0開始,后續每個segment文件名為上一個segment文件最后一條消息的offset值。數值較大為64位long大小,19位數字字符長度,沒有數字用0填充。

索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。

?

3,497:當前log文件中的第幾條信息,存放在磁盤上的那個地方

上述圖中索引文件存儲大量元數據,數據文件存儲大量消息,索引文件中元數據指向對應數據文件中message的物理偏移地址。

其中以索引文件中元數據3,497為例,依次在數據文件中表示第3個message(在全局partiton表示第368772個message)、以及該消息的物理偏移地址為497。

?segment data file由許多message組成, qq物理結構如下:

?

3) Kafka 查找message?

讀取offset=368776的message,需要通過下面2個步驟查找。

?

A. 查找segment file

00000000000000000000.index表示最開始的文件,起始偏移量(offset)為0

00000000000000368769.index的消息量起始偏移量為368770 = 368769 + 1

00000000000000737337.index的起始偏移量為737338=737337 + 1

其他后續文件依次類推。

以起始偏移量命名并排序這些文件,只要根據offset **二分查找**文件列表,就可以快速定位到具體文件。當offset=368776時定位到00000000000000368769.index和對應log文件。

B. 通過segment file查找message

當offset=368776時,依次定位到00000000000000368769.index的元數據物理位置和00000000000000368769.log的物理偏移地址

然后再通過00000000000000368769.log順序查找直到offset=368776為止。

6. Kafka自定義Partition



上一篇: {大數據}Hive

下一篇: {大數據}Kafka

十五年老品牌
微信咨詢:togogoi 咨詢電話:18922156670 咨詢網站客服:在線客服

相關課程推薦

在線咨詢 ×

您好,請問有什么可以幫您?我們將竭誠提供最優質服務!

<蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>