Apache Kafka est une plateforme de streaming distribuée. Les données reçues en continu peuvent provenir de plusieurs sources, et sont ordonnées dans le temps. Kafka est généralement utilisé pour découpler les services qui produisent la donnée, de ceux qui la consomment et l'analysent.
Mais Kafka est aussi une plateforme distribuée, en charge de partitionner et de répliquer la donnée pour des raisons de mise à l'échelle et de tolérance aux pannes. Maintenir ce type de plateforme est complexe, et doit donc s'appuyer sur des équipes disposant d'une bonne expertise opérationnelle.
Certaines entreprises proposent également de gérer vos clusters Kafka à votre place, vous libérant ainsi de ces contraintes.
Confluent est l'une de ces entreprises, et elle a été fondée par l'épique à l'origine d'Apache Kafka. Dans cet épisode, je reçois Florent Ramière. Florent est solutions engineer pour Confluent, et il vient nous brosser un tableau des cas d'usage et des principes de base d'Apache Kafka.
Support the show (https://www.patreon.com/electromonkeys)