Изменения документа Apache Kafka

Редактировал(а) Alexandr Fokin 2024/09/07 11:00

<
От версии < 29.5 >
отредактировано Alexandr Fokin
на 2022/06/27 15:54
К версии < 22.1 >
отредактировано Alexandr Fokin
на 2021/12/25 15:08
>
Изменить комментарий: К данной версии нет комментариев

Комментарий

Подробности

Свойства страницы
Содержимое
... ... @@ -1,45 +2,32 @@
1 -Разработан на языке [[Java>>Разработка.JVM.Java.WebHome]]
2 2  
3 -**Компоненты:**
2 +Apache Kafka
3 +https://kafka.apache.org/
4 4  
5 -* Message - представляет из себя набор Key-Value значений.
6 -* Producer - Производитель сообщений
7 -* Consumer - Потребитель сообщений
8 -* Topic - Отчасти похож на понятие классическую очередь, но отличается по поведению.
9 -При отправке сообщение в топик, для него выбирается одиз из Partition, в который и размещается сообщение.
10 -Содержит внутри себя одну и более Partition. Кол-во Partition определяет максимальную степень параллелизма при потреблении сообщений.
11 -После потребления сообщения оно не удаляется сразу и некоторое время продолжает храниться и доступно для чтения.
12 -* Partition - Представляет из себя очередь, содержащую последовательность экземпляров сообщений, при этом у каждого сообщения есть свой уникальный порядковый номер.
13 -Для каждого читаемого Partition у потребителя храниться значение Offset - смещение, порядковый номер текущего сообщения. После прочтения Offset увеличивается на 1.
14 -*
15 -* CosumerGroup -
16 -Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга (Получают одни и те же сообщения).
17 -В рамках одной ConsumerGroup кол-во активных Consumer не может быть больше чем кол-во Partition в рамках одного Topic.
18 -Каждому активному Consumer назначается 1 и более Partition для чтения данных. Неактивные Consumer выполняет роль резервного и автоматически будут подключены, если один из активных Consumer выйдет из строя. (Или если количество Partition будет увеличино).
19 -* Offset - смещение. Содержит информации о текущей позиции читателя для каждой пары <TopicName>.<PartitionId>.<ConsumerGroupId>.
5 +ПО:
6 +[[bin.view.Разработка.Базы%20данных.NoSQL.Zookeeper]]
20 20  
21 -----
22 -
23 -**Используемое ПО:**
24 -
25 -**[[Apache ZooKeeper>>Разработка.Базы данных.NoSQL.Ключ-значение структура.Apache ZooKeeper.WebHome]]**
26 -
27 -Ранее требовался для запуска.
8 +**Zookeeper**
9 +Ранее требовался для
28 28  Zookeeper выполняет роль хранилища метаданных и координатора. Также именно к zookeeper сперва пойдут producer и consumer, чтобы узнать, на каком брокере какие топики и партиции хранятся.
29 -В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере__
11 +В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере
30 30  
13 +**Apache Kafka**
31 31  
32 -**Материалы:**
15 +* Producer (Отправитель)
16 +* Consumer (Получатель)
17 +* Topic (Отчасти схож с очередью)
18 +* Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
19 +* CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
33 33  
34 -Apache Kafka
35 -https://kafka.apache.org/
36 36  
37 -Книга
38 -[[Understanding Message Brokers | O’Reilly>>doc:Книги.O’Reilly.Understanding Message Brokers | O’Reilly.WebHome]]
22 +**Статьи:**
39 39  
40 40  Kafka и микросервисы: обзор
41 41  https://habr.com/ru/company/avito/blog/465315/
42 42  
27 +ksqlDB Quickstart
28 +https://ksqldb.io/quickstart.html
29 +
43 43  Apache Kafka — Краткое руководство
44 44  https://coderlessons.com/tutorials/bolshie-dannye-i-analitika/vyuchit-apache-kafka/apache-kafka-kratkoe-rukovodstvo
45 45  
... ... @@ -49,7 +49,7 @@
49 49  client.id Property
50 50  https://jaceklaskowski.gitbooks.io/apache-kafka/kafka-properties-client-id.html
51 51  
52 -Kafka Tool / Offset Explorer
39 +Offset Explorer
53 53  Декстоп клиент для работы к Kafka. (Есть функционал просмотра содержимого топиков и отправки сообщений)
54 54  https://kafkatool.com/
55 55  
... ... @@ -56,10 +56,17 @@
56 56  Apache Kafka Use Cases (with Kafka Architecture Diagrams)
57 57  https://medium.com/softkraft/apache-kafka-use-cases-with-kafka-architecture-diagrams-577be32688e5
58 58  
59 -Understanding Kafka partition assignment strategies and how to write your own custom assignor
60 -https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3
61 61  
47 +**Развертывание:**
48 +[[bitnami.com | kafka (Docker, VM)>>https://bitnami.com/stack/kafka]]
49 +https://github.com/wurstmeister/kafka-docker
50 +https://github.com/lensesio/fast-data-dev
51 +https://wiki.denhome.ru/bin/view/Разработка/Брокеры%20сообщений/Apache%20Kafka/Запуск/
62 62  
53 +
63 63  **Клиенты:**
55 +[[confluentinc/confluent-kafka-dotnet>>https://github.com/confluentinc/confluent-kafka-dotnet]]
64 64  
65 -**[[Confluentinc.Confluent-kafka-dotnet>>doc:Разработка.NET.Библиотеки.Провайдеры.Брокеры сообщений.Confluentinc\.Confluent-kafka-dotnet.WebHome]] - c#**
57 +Understanding Kafka partition assignment strategies and how to write your own custom assignor
58 +https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3
59 +
XWiki.XWikiComments[1]
Комментарий
... ... @@ -1,7 +1,2 @@
1 1  Если запросить группу сообщений и выполнить коммит последнего, то смещение установиться на позиции последнего элемента +1.
2 2  Нет возможности закоммитить только определенное [i] сообщение.
3 -
4 -Некоторые другие брокеры устроены иначе: они работают с отдельными сообщениями и позволяют подтверждать их потребление независимо. В Kafke же единственным критерием является Offset.
5 -
6 -Опциально можно реализовать собственную логику работы с сообщениями, в том числе не возлагая на броке обязанности контролировать смещение, а управляя чтением самостоятельно.
7 -Обычно в Kafka не предполагается, что сообщение будет удалено сразу, и к нему можно обращаются по его значению Offset.