Изменения документа Apache Kafka

Редактировал(а) Alexandr Fokin 2024/09/07 11:00

<
От версии < 29.6 >
отредактировано Alexandr Fokin
на 2022/10/28 15:23
К версии < 27.1 >
отредактировано Alexandr Fokin
на 2021/12/25 16:53
>
Изменить комментарий: К данной версии нет комментариев

Комментарий

Подробности

Свойства страницы
Содержимое
... ... @@ -1,32 +1,32 @@
1 -Разработан на языке [[Java>>Разработка.JVM.Java.WebHome]]
1 +Apache Kafka
2 +https://kafka.apache.org/
2 2  
3 -----
4 +ПО:
4 4  
5 -**Используемое ПО:**
6 6  
7 -**[[Apache ZooKeeper>>Разработка.Базы данных.NoSQL.Ключ-значение структура.Apache ZooKeeper.WebHome]]**
7 +Zookeeper
8 +[[Разработка.Базы данных.NoSQL.Zookeeper.WebHome>>doc:Разработка.Базы данных.NoSQL.Zookeeper.WebHome]]
8 8  
9 9  Ранее требовался для запуска.
10 10  Zookeeper выполняет роль хранилища метаданных и координатора. Также именно к zookeeper сперва пойдут producer и consumer, чтобы узнать, на каком брокере какие топики и партиции хранятся.
11 11  В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере__
12 12  
13 -----
14 +**Apache Kafka**
14 14  
15 -{{children/}}
16 +* Producer (Отправитель)
17 +* Consumer (Получатель)
18 +* Topic (Отчасти схож с очередью)
19 +* Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
20 +* CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
16 16  
17 -----
22 +**Статьи:**
18 18  
19 -**Материалы:**
20 -
21 -Apache Kafka
22 -https://kafka.apache.org/
23 -
24 -Книга
25 -[[Understanding Message Brokers | O’Reilly>>doc:Книги.O’Reilly.Understanding Message Brokers | O’Reilly.WebHome]]
26 -
27 27  Kafka и микросервисы: обзор
28 28  https://habr.com/ru/company/avito/blog/465315/
29 29  
27 +ksqlDB Quickstart
28 +https://ksqldb.io/quickstart.html
29 +
30 30  Apache Kafka — Краткое руководство
31 31  https://coderlessons.com/tutorials/bolshie-dannye-i-analitika/vyuchit-apache-kafka/apache-kafka-kratkoe-rukovodstvo
32 32  
... ... @@ -36,7 +36,7 @@
36 36  client.id Property
37 37  https://jaceklaskowski.gitbooks.io/apache-kafka/kafka-properties-client-id.html
38 38  
39 -Kafka Tool / Offset Explorer
39 +Offset Explorer
40 40  Декстоп клиент для работы к Kafka. (Есть функционал просмотра содержимого топиков и отправки сообщений)
41 41  https://kafkatool.com/
42 42  
... ... @@ -43,11 +43,9 @@
43 43  Apache Kafka Use Cases (with Kafka Architecture Diagrams)
44 44  https://medium.com/softkraft/apache-kafka-use-cases-with-kafka-architecture-diagrams-577be32688e5
45 45  
46 -Understanding Kafka partition assignment strategies and how to write your own custom assignor
47 -https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3
48 48  
49 -----
50 -
51 51  **Клиенты:**
48 +https://wiki.denhome.ru/bin/view/Разработка/NET/Библиотеки/Провайдеры/Брокеры%20сообщений/Confluentinc.Confluent-kafka-dotnet/
52 52  
53 -**[[Confluentinc.Confluent-kafka-dotnet>>doc:Разработка.NET.Библиотеки.Провайдеры.Брокеры сообщений.Confluentinc\.Confluent-kafka-dotnet.WebHome]] - c#**
50 +Understanding Kafka partition assignment strategies and how to write your own custom assignor
51 +https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3
XWiki.XWikiComments[1]
Комментарий
... ... @@ -1,7 +1,2 @@
1 1  Если запросить группу сообщений и выполнить коммит последнего, то смещение установиться на позиции последнего элемента +1.
2 2  Нет возможности закоммитить только определенное [i] сообщение.
3 -
4 -Некоторые другие брокеры устроены иначе: они работают с отдельными сообщениями и позволяют подтверждать их потребление независимо. В Kafke же единственным критерием является Offset.
5 -
6 -Опциально можно реализовать собственную логику работы с сообщениями, в том числе не возлагая на броке обязанности контролировать смещение, а управляя чтением самостоятельно.
7 -Обычно в Kafka не предполагается, что сообщение будет удалено сразу, и к нему можно обращаются по его значению Offset.