Как установить Apache Kafka в Debian 11

Apache Kafka - это платформа распределенной потоковой передачи данных. Она полезна для построения конвейеров потоковых данных в реальном времени для получения данных между системами или приложениями. Еще одна полезная функция - потоковые приложения реального времени, которые могут преобразовывать потоки данных или реагировать на них.

Это руководство поможет вам установить Apache Kafka на Linux-системы Debian 11, Debian 10 и Debian 9.

Шаг 1 - Установка Java

Для работы Apache Kafka требуется Java. В вашей системе должна быть установлена java. Выполните следующую команду для установки стандартного OpenJDK из официальных PPA.

Шаг 2 - Загрузка Apache Kafka

Загрузите бинарные файлы Apache Kafka с его официального сайта. Вы также можете выбрать любое близлежащее зеркало для загрузки.

Затем распакуйте архивный файл

Шаг 3 - Создание файлов модулей Systemd

Далее создайте файлы юнитов systemd для сервисов Zookeeper и Kafka. Это поможет управлять службами Kafka для запуска/остановки с помощью команды systemctl.

Сначала создайте файл юнитов systemd для Zookeeper с помощью следующей команды:

Добавьте в него следующее содержимое:

Сохраните файл и закройте его.

Далее необходимо создать файл юнитов Kafka systemd с помощью следующей команды:

Добавьте приведенное ниже содержимое. Убедитесь, что задан правильный путь к JAVA_HOME в соответствии с установленной в вашей системе Java.

Сохраните файл и закройте его.

Перезагрузите демон systemd для применения новых изменений.

Шаг 4 - Запуск сервера Kafka

Для работы Kafka требуется ZooKeeper, поэтому сначала необходимо запустить сервер ZooKeeper на своей системе. Для запуска одноузлового экземпляра ZooKeeper можно использовать скрипт, поставляемый вместе с Kafka.

Теперь запустите сервер Kafka и просмотрите состояние его работы:

Установка Apache Kafka на Debian

Все готово. Установка Kafka успешно завершена. Часть этого руководства поможет вам работать с сервером Kafka.

Шаг 5 - Создание топика в Kafka

Kafka предоставляет несколько готовых сценариев оболочки для работы с ней. Сначала создайте тему с именем "testTopic" с одним разделом и одной репликой:

Коэффициент репликации (replication-factor) описывает, сколько копий данных будет создано. Так как мы работаем с одним экземпляром, установите значение 1.

Задайте в параметре partitions количество брокеров, между которыми будут распределяться данные. Поскольку мы работаем с одним брокером, это значение равно 1.

Вы можете создать несколько топиков, выполнив ту же команду, что и выше. После этого можно просмотреть созданные топики в Kafka, выполнив следующую команду:

Кроме того, вместо ручного создания тем можно настроить брокеры на автоматическое создание тем в случае публикации несуществующей темы.

Шаг 6 - Отправка сообщений в Kafka

Производитель" - это процесс, отвечающий за помещение данных в Kafka. Kafka поставляется с клиентом командной строки, который принимает данные из файла или из стандартного ввода и отправляет их в виде сообщений в кластер Kafka. По умолчанию Kafka отправляет каждую строку как отдельное сообщение.

Давайте запустим продюсера, а затем введем в консоль несколько сообщений для отправки на сервер.

Вы можете выйти из этой команды или оставить этот терминал запущенным для дальнейшего тестирования. Теперь откройте в новом терминале процесс потребителя Kafka на следующем шаге.

Шаг 7 - Использование консьюмера Kafka

Для чтения данных из кластера Kafka и вывода сообщений на стандартный вывод в Kafka существует консьюмер, работающий из командной строки.

Теперь, если у вас все еще запущен Kafka producer (шаг №6) в другом терминале. Просто наберите текст на терминале производителя, и он сразу же появится на терминале потребителя. Ниже приведен снимок экрана с работающими производителем и потребителем Kafka:

Заключение

Вы успешно установили и настроили службу Kafka на системе Debian Linux.

Понравилась статья? Поделиться с друзьями:
Добавить комментарий