L'origine chez LinkedIn
En 2010, trois ingénieurs de LinkedIn - Jay Kreps, Neha Narkhede et Jun Rao - se retrouvèrent confrontés aux limites des technologies existantes pour la gestion des échanges de données. Face à cette impasse, ils décidèrent de prendre les choses en main. Partant de zéro, ils conçurent une application novatrice pour "événementialiser" les données. Cet ingénieux système devint rapidement la colonne vertébrale de la plateforme LinkedIn, gérant les échanges de données en temps réel et à grande échelle.
La naissance d'Apache Kafka
Dans le monde du traitement des données, la création d'Apache Kafka est en soi une révolution. Le nom a été choisi en hommage à Franz Kafka, pour évoquer les systèmes complexes et parfois labyrinthiques que le logiciel a pour mission de simplifier.
La référence Kafkaienne
Considéré comme l’un des plus grands écrivains du 20ème siècle, Franz Kafka, à la fois juif, tchèque et allemand, est né en Bohême, province de l’empire austro-hongrois où cohabitaient ces 3 cultures. Ses œuvres, pour la plupart publiées à titre posthume, sont considérées comme des monuments de la littérature moderne. Elles explorent des thèmes comme l'aliénation, la culpabilité et l'inutilité de la bureaucratie. Son style unique, caractérisé par une atmosphère à la fois surréaliste et angoissante, a donné naissance au terme "kafkaïen" pour décrire des situations absurdes et complexes.
Kafka, la technologie
Dans un monde où l'accumulation de données atteint des niveaux kafkaïens en termes de complexité et de volume, Apache Kafka offre des solutions ordonnées et rationalisées. Ce système, basé sur le principe du "commit log", ne se contente pas de traiter les données ; il les historise et les sécurise en séquence, permettant ainsi une traçabilité sans précédent. Les consommateurs peuvent alors consommer ces données, mais également revenir dans le temps pour consulter leur historique. Cette dimension temporelle offre une profondeur et une richesse nouvelles aux systèmes de gestion des données, à l'instar de l'univers narratif créé par Franz Kafka dans ses œuvres.
Apache Kafka s'est ainsi rapidement imposé comme un choix populaire pour les architectures de données à grande échelle.
La philosophie de l'Open Source
Après avoir mis au point Apache Kafka, les fondateurs ont rapidement pris conscience de son potentiel et ont choisi de le développer dans le cadre de la fondation Apache en tant que projet open source. Ce choix stratégique a ouvert la voie à une collaboration communautaire dynamique. Des "committers", ou contributeurs, venus de divers horizons, ont commencé à participer activement au développement du code.
L'open source a également permis de tisser des liens forts avec d'autres entreprises technologiques partageant la même philosophie comme Databricks et MongoDB, qui voient dans l'open source un véritable vecteur de valeur. Les fournisseurs de services cloud sont les premiers à le reconnaître et à embrasser cette philosophie.
L'évolution vers Confluent
Compte tenu du potentiel et de la complexité d'Apache Kafka, les fondateurs se sont rapidement rendu compte qu'il était temps de franchir une nouvelle étape. C'est ainsi qu'en 2014, ils quittèrent LinkedIn pour fonder Confluent, une société destinée à enrichir Apache Kafka d'une licence commerciale et à le rendre plus accessible aux entreprises.
Un produit adaptable
Confluent offre deux types de produits : une plateforme de streaming de données et Confluent Cloud, une version totalement en tant que service (SaaS). La technologie a rapidement gagné en popularité et a trouvé des applications dans des secteurs variés: de la banque avec le Crédit Agricole à la distribution avec Inditex, en passant par les services publics comme Euronext ou des plateforme comme Uber, qui l'utilise pour gérer ses pipelines de données en temps réel, ou Netflix, qui s'appuie sur Kafka pour ses opérations de streaming.
Rentabilité et expansion
En moins de dix ans, Confluent est passé de zéro à un chiffre d'affaires de 700 millions de dollars et devrait devenir rentable d'ici la fin de l'année 2023. Plusieurs facteurs auraient contribué à cette réussite, notamment la transition précoce vers le cloud et une collaboration stratégique avec les grands acteurs du secteur.
La collaboration avec SFEIR
SFEIR est fier de collaborer depuis plus de deux ans avec ce partenaire de renom qui combine un savoir-faire technique reconnu, des partenariats solides et une excellente stratégie de marketing. C'est cette combinaison qui fait la différence.
C'est pourquoi SFEIR co-organise le 12 décembre prochain une matinale consacrée aux start-up et scale-up sur le thème “Mettre Kafka à l’échelle”, aux côtés de Confluent et Amazon Web Services (AWS), avec l'aimable participation de Pennylane et Sencrop et la présence de nombreux experts.
Dernière chance pour vous INSCRIRE !
📆 12 Décembre 2023
⏰ 9:30-13:30
📍 Comet Bourse, 89 Rue Richelieu, Paris
🚇 métro ligne 3 (quatre Septembre / Bourse) - lignes 8/9 (Richelieu Drouot)