Изменения документа Apache Kafka
Редактировал(а) Alexandr Fokin 2024/09/07 11:00
<
>
отредактировано Alexandr Fokin
на 2021/12/25 16:53
на 2021/12/25 16:53
отредактировано Alexandr Fokin
на 2022/10/28 15:23
на 2022/10/28 15:23
Изменить комментарий:
К данной версии нет комментариев
Комментарий
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
-
Объекты (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -1,35 +1,32 @@ 1 -Apache Kafka 2 -https://kafka.apache.org/ 1 +Разработан на языке [[Java>>Разработка.JVM.Java.WebHome]] 3 3 4 - ПО:3 +---- 5 5 5 +**Используемое ПО:** 6 6 7 -Zookeeper 8 -https://wiki.denhome.ru/bin/view/Разработка/Базы%20данных/NoSQL/Zookeeper 7 +**[[Apache ZooKeeper>>Разработка.Базы данных.NoSQL.Ключ-значение структура.Apache ZooKeeper.WebHome]]** 9 9 10 -[[введите текст ссылки>>doc:Разработка.Базы данных.NoSQL.Zookeeper.WebHome]] 11 - 12 - 13 13 Ранее требовался для запуска. 14 14 Zookeeper выполняет роль хранилища метаданных и координатора. Также именно к zookeeper сперва пойдут producer и consumer, чтобы узнать, на каком брокере какие топики и партиции хранятся. 15 15 В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере__ 16 16 17 - **Apache Kafka**13 +---- 18 18 19 -* Producer (Отправитель) 20 -* Consumer (Получатель) 21 -* Topic (Отчасти схож с очередью) 22 -* Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга) 23 -* CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя) 15 +{{children/}} 24 24 25 - **Статьи:**17 +---- 26 26 19 +**Материалы:** 20 + 21 +Apache Kafka 22 +https://kafka.apache.org/ 23 + 24 +Книга 25 +[[Understanding Message Brokers | O’Reilly>>doc:Книги.O’Reilly.Understanding Message Brokers | O’Reilly.WebHome]] 26 + 27 27 Kafka и микросервисы: обзор 28 28 https://habr.com/ru/company/avito/blog/465315/ 29 29 30 -ksqlDB Quickstart 31 -https://ksqldb.io/quickstart.html 32 - 33 33 Apache Kafka — Краткое руководство 34 34 https://coderlessons.com/tutorials/bolshie-dannye-i-analitika/vyuchit-apache-kafka/apache-kafka-kratkoe-rukovodstvo 35 35 ... ... @@ -39,7 +39,7 @@ 39 39 client.id Property 40 40 https://jaceklaskowski.gitbooks.io/apache-kafka/kafka-properties-client-id.html 41 41 42 -Offset Explorer 39 +Kafka Tool / Offset Explorer 43 43 Декстоп клиент для работы к Kafka. (Есть функционал просмотра содержимого топиков и отправки сообщений) 44 44 https://kafkatool.com/ 45 45 ... ... @@ -46,9 +46,11 @@ 46 46 Apache Kafka Use Cases (with Kafka Architecture Diagrams) 47 47 https://medium.com/softkraft/apache-kafka-use-cases-with-kafka-architecture-diagrams-577be32688e5 48 48 46 +Understanding Kafka partition assignment strategies and how to write your own custom assignor 47 +https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3 49 49 49 +---- 50 + 50 50 **Клиенты:** 51 -https://wiki.denhome.ru/bin/view/Разработка/NET/Библиотеки/Провайдеры/Брокеры%20сообщений/Confluentinc.Confluent-kafka-dotnet/ 52 52 53 -Understanding Kafka partition assignment strategies and how to write your own custom assignor 54 -https://medium.com/streamthoughts/understanding-kafka-partition-assignment-strategies-and-how-to-write-your-own-custom-assignor-ebeda1fc06f3 53 +**[[Confluentinc.Confluent-kafka-dotnet>>doc:Разработка.NET.Библиотеки.Провайдеры.Брокеры сообщений.Confluentinc\.Confluent-kafka-dotnet.WebHome]] - c#**
- XWiki.XWikiComments[1]
-
- Комментарий
-
... ... @@ -1,2 +1,7 @@ 1 1 Если запросить группу сообщений и выполнить коммит последнего, то смещение установиться на позиции последнего элемента +1. 2 2 Нет возможности закоммитить только определенное [i] сообщение. 3 + 4 +Некоторые другие брокеры устроены иначе: они работают с отдельными сообщениями и позволяют подтверждать их потребление независимо. В Kafke же единственным критерием является Offset. 5 + 6 +Опциально можно реализовать собственную логику работы с сообщениями, в том числе не возлагая на броке обязанности контролировать смещение, а управляя чтением самостоятельно. 7 +Обычно в Kafka не предполагается, что сообщение будет удалено сразу, и к нему можно обращаются по его значению Offset.