Изменения документа Apache Kafka

Редактировал(а) Alexandr Fokin 2024/09/07 11:00

<
От версии < 17.9 >
отредактировано Alexandr Fokin
на 2021/08/18 20:59
К версии < 22.1 >
отредактировано Alexandr Fokin
на 2021/12/25 15:08
>
Изменить комментарий: К данной версии нет комментариев

Комментарий

Подробности

Свойства страницы
Содержимое
... ... @@ -1,31 +1,57 @@
1 1  
2 +Apache Kafka
2 2  https://kafka.apache.org/
3 3  
4 4  ПО:
6 +[[bin.view.Разработка.Базы%20данных.NoSQL.Zookeeper]]
7 +
5 5  **Zookeeper**
9 +Ранее требовался для
6 6  Zookeeper выполняет роль хранилища метаданных и координатора. Также именно к zookeeper сперва пойдут producer и consumer, чтобы узнать, на каком брокере какие топики и партиции хранятся.
7 7  В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере
8 8  
9 9  **Apache Kafka**
10 -Producer (Отправитель)
11 -Consumer (Получатель)
12 -Topic (Отчасти схож с очередью)
13 -Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
14 -CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
15 15  
16 -Статьи:
15 +* Producer (Отправитель)
16 +* Consumer (Получатель)
17 +* Topic (Отчасти схож с очередью)
18 +* Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
19 +* CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
20 +
21 +
22 +**Статьи:**
23 +
24 +Kafka и микросервисы: обзор
17 17  https://habr.com/ru/company/avito/blog/465315/
26 +
27 +ksqlDB Quickstart
18 18  https://ksqldb.io/quickstart.html
29 +
30 +Apache Kafka — Краткое руководство
19 19  https://coderlessons.com/tutorials/bolshie-dannye-i-analitika/vyuchit-apache-kafka/apache-kafka-kratkoe-rukovodstvo
32 +
33 +Apache Kafka – Конспект
20 20  https://habr.com/ru/post/354486/
35 +
36 +client.id Property
21 21  https://jaceklaskowski.gitbooks.io/apache-kafka/kafka-properties-client-id.html
22 22  
23 -Развертывание:
39 +Offset Explorer
40 +Декстоп клиент для работы к Kafka. (Есть функционал просмотра содержимого топиков и отправки сообщений)
41 +https://kafkatool.com/
42 +
43 +Apache Kafka Use Cases (with Kafka Architecture Diagrams)
44 +https://medium.com/softkraft/apache-kafka-use-cases-with-kafka-architecture-diagrams-577be32688e5
45 +
46 +
47 +**Развертывание:**
24 24  [[bitnami.com | kafka (Docker, VM)>>https://bitnami.com/stack/kafka]]
25 25  https://github.com/wurstmeister/kafka-docker
26 26  https://github.com/lensesio/fast-data-dev
51 +https://wiki.denhome.ru/bin/view/Разработка/Брокеры%20сообщений/Apache%20Kafka/Запуск/
27 27  
28 -Клиенты:
53 +
54 +**Клиенты:**
29 29  [[confluentinc/confluent-kafka-dotnet>>https://github.com/confluentinc/confluent-kafka-dotnet]]
30 30  
31 31  Understanding Kafka partition assignment strategies and how to write your own custom assignor