Изменения документа Apache Kafka

Редактировал(а) Alexandr Fokin 2024/09/07 11:00

<
От версии < 22.1 >
отредактировано Alexandr Fokin
на 2021/12/25 15:08
К версии < 17.9 >
отредактировано Alexandr Fokin
на 2021/08/18 20:59
>
Изменить комментарий: Добавлен комментарий

Комментарий

Подробности

Свойства страницы
Содержимое
... ... @@ -1,57 +1,31 @@
1 1  
2 -Apache Kafka
3 3  https://kafka.apache.org/
4 4  
5 5  ПО:
6 -[[bin.view.Разработка.Базы%20данных.NoSQL.Zookeeper]]
7 -
8 8  **Zookeeper**
9 -Ранее требовался для
10 10  Zookeeper выполняет роль хранилища метаданных и координатора. Также именно к zookeeper сперва пойдут producer и consumer, чтобы узнать, на каком брокере какие топики и партиции хранятся.
11 11  В более старых версиях Kafka zookeeper отвечал и за хранение оффсетов, но сейчас они хранятся в специальном топике __consumer_offsets на брокере
12 12  
13 13  **Apache Kafka**
10 +Producer (Отправитель)
11 +Consumer (Получатель)
12 +Topic (Отчасти схож с очередью)
13 +Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
14 +CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
14 14  
15 -* Producer (Отправитель)
16 -* Consumer (Получатель)
17 -* Topic (Отчасти схож с очередью)
18 -* Partition (Topic может содержаться несколько разделов, позволяющих работать параллельно нескольким Consumer) (Данные находящиеся в разных partition одного topic не дублируют друг друга)
19 -* CosumerGroup (Consumers, находящиеся в разных CosumerGroup, читают данные параллельно и независимо друг от друга. (Получают одни и те же сообщения)) (В рамках одной ConsumerGroup кол-во активных Consumer не может быть больще чем кол-во partitions. Неактивные Consumer могут быть резервными и автоматически будут подключены, если активный Consumer выйдет из строя)
20 -
21 -
22 -**Статьи:**
23 -
24 -Kafka и микросервисы: обзор
16 +Статьи:
25 25  https://habr.com/ru/company/avito/blog/465315/
26 -
27 -ksqlDB Quickstart
28 28  https://ksqldb.io/quickstart.html
29 -
30 -Apache Kafka — Краткое руководство
31 31  https://coderlessons.com/tutorials/bolshie-dannye-i-analitika/vyuchit-apache-kafka/apache-kafka-kratkoe-rukovodstvo
32 -
33 -Apache Kafka – Конспект
34 34  https://habr.com/ru/post/354486/
35 -
36 -client.id Property
37 37  https://jaceklaskowski.gitbooks.io/apache-kafka/kafka-properties-client-id.html
38 38  
39 -Offset Explorer
40 -Декстоп клиент для работы к Kafka. (Есть функционал просмотра содержимого топиков и отправки сообщений)
41 -https://kafkatool.com/
42 -
43 -Apache Kafka Use Cases (with Kafka Architecture Diagrams)
44 -https://medium.com/softkraft/apache-kafka-use-cases-with-kafka-architecture-diagrams-577be32688e5
45 -
46 -
47 -**Развертывание:**
23 +Развертывание:
48 48  [[bitnami.com | kafka (Docker, VM)>>https://bitnami.com/stack/kafka]]
49 49  https://github.com/wurstmeister/kafka-docker
50 50  https://github.com/lensesio/fast-data-dev
51 -https://wiki.denhome.ru/bin/view/Разработка/Брокеры%20сообщений/Apache%20Kafka/Запуск/
52 52  
53 -
54 -**Клиенты:**
28 +Клиенты:
55 55  [[confluentinc/confluent-kafka-dotnet>>https://github.com/confluentinc/confluent-kafka-dotnet]]
56 56  
57 57  Understanding Kafka partition assignment strategies and how to write your own custom assignor