menu icon

ElasticON 2025 à Paris

ElasticON est de retour dans la capitale avec de nombreuses nouvelles fonctionnalités et des conférences passionnantes. Cet article résume l'événement.

ElasticON 2025 à Paris

Table des matières

  1. Introduction
  2. Community Track
  3. L'événement principal
  4. Conclusion

Introduction

L'équipe Adelean a assisté à ElasticON, qui s’est tenu les 20 et 21 janvier. L'événement principal, qui a eu lieu à la Salle Wagram, a été précédé par les sessions Community Track, organisées par David Pilato et la communauté Elastic en France. Dans une atmosphère festive, nous avons eu l’opportunité de découvrir les nouvelles fonctionnalités introduites dans les dernières versions d’Elasticsearch, couvrant divers cas d’utilisation des piliers fondamentaux de la stack : surveillance, sécurité et recherche !

Community Track

De nombreux cas d’utilisation fascinants ont été partagés lors de la Community Track, organisée par la communauté Elastic en France. Ceux-ci allaient de l’implémentation et la gestion d’un data lake chez la multinationale Stellantis, à la recherche sémantique appliquée dans le contexte de l’e-commerce.

Lors de cet événement, nous avons eu l’opportunité de présenter “Billion Vector Baby”, un guide pratique sur la gestion d’une base de données vectorielle avec plus d’un milliard de vecteurs. Une tâche qui semble impossible, mais qui, grâce aux capacités de compression via la quantification scalaire ou binaire, est désormais accessible à tous.

Adelean sur scène.
Adelean sur scène

En milieu de soirée, Shay Banon a pris le temps de répondre à certaines de nos questions. La plupart d’entre elles portaient sur l’avenir d’Elasticsearch, en particulier sur la version 9, qui sera publiée en 2025.

L'événement principal

L'événement principal a été ouvert par Shay Banon, qui a donné un aperçu complet d’Elasticsearch, soutenu par des démonstrations impeccables de Baha Azarmi. Shay a mis l’accent sur le positionnement open-source d’Elasticsearch et a réaffirmé la direction qu’il avait tracée il y a environ deux ans, lors du dernier événement Elastic à Paris, à savoir l’intention de séparer le stockage et le traitement.

1ère conférence.
Shay sur scène

Cette idée de séparation est également au cœur des dernières applications de recherche sémantique. Il est désormais possible d’instancier un modèle à la fois lors de l’ingestion et de la recherche, créant ainsi deux pipelines séparés qui ne se perturbent pas mutuellement.

Un autre point central de la présentation était le soutien massif à l’utilisation des grands modèles de langage – non seulement pour le RAG (retrieval-augmented generation), mais aussi lors de la phase d’ingestion, avec des pipelines générés automatiquement pour mieux gérer et intégrer nos logs.

En parlant de logs, le support d’OpenTelemetry est devenu une priorité stratégique pour Elasticsearch.

De nombreuses mises à jour intéressantes ont été dévoilées entre les conférences.

Uri Cohen, Product Manager chez Elastic, a abordé les optimisations liées au rôle croissant d’Elasticsearch en tant que base de données vectorielle et a annoncé une nouvelle méthode de quantification qui promet le même niveau de compression que BBQ, mais avec une perte inférieure sur la pertinence des résultats de recherche.

2ème conférence.
Uri Cohen sur scène

Le nom provisoire de cette méthode de quantification est OSQ, ou Optimized Scalar Quantization.

De SIMD à Panama, Elasticsearch a fait un long chemin, et l’avenir de la recherche sémantique s’annonce particulièrement prometteur.

L’avenir d’ES|QL est également prometteur, car les jointures seront introduites dans les versions à venir d’Elasticsearch – des jointures qui ne nécessiteront plus la commande ENRICH.

Une autre fonctionnalité excitante, qui sera introduite sur site en 2025 (bien qu’elle soit déjà disponible pour les versions cloud, serveurless et non serveurless), est AutoOps. Cette fonctionnalité automatise et accélère les opérations de gestion du cluster via un système RAG intégré. En résumé, le LLM (grand modèle de langage) comprend l'état du cluster et peut recommander des améliorations ou aider à résoudre des problèmes spécifiques.

Dans la deuxième partie de la journée, l’accent a été mis sur deux autres points forts d’Elasticsearch : “Sécurité” et “Recherche”. Ben Diawara a exploré les défis actuels de la cybersécurité et comment l’intelligence artificielle (IA) peut améliorer les opérations de sécurité, tout en discutant de la manière dont les cyberattaques deviennent de plus en plus sophistiquées, utilisant souvent l’IA elle-même.

L’IA peut amplifier l’ingénierie sociale, le développement d’exploits et la numérisation des vulnérabilités. La présentation a couvert l'évolution des systèmes de gestion des informations et des événements de sécurité (SIEM) et comment l’IA peut améliorer la détection des menaces, les enquêtes contextuelles et les réponses orchestrées.

3ème conférence.
Ben Diawara sur scène

Comme démontré lors de la session, Elasticsearch, en suivant les logs collectés via les divers agents déployables, peut reconstruire une attaque et en expliquer les causes profondes, facilitant ainsi l’application de mesures rapides en cas de menace informatique.

La conférence s’est terminée sur un focus sur “Search”, en particulier l’utilisation de la recherche sémantique avancée dans un contexte RAG. Parce que les LLM ne sont rien sans une récupération efficace.

Nous avons pu découvrir de manière pratique le nouveau type disponible pour la recherche sémantique : semantic_text, qui simplifie les phases d’ingestion et de recherche. Fini les pipelines, fini le besoin de spécifier le modèle à utiliser lors de la recherche.

4ème conférence.
Kaouther Karoui sur scène

La présentation s’est concentrée sur l’amélioration de la phase de récupération dans un système RAG. L’une des techniques mises en avant était le “semantic chunking”, qui tire parti du contexte des phrases pour éviter de tronquer de manière brute les textes dépassant la limite de tokens du modèle.

Une autre approche intéressante était la réécriture des requêtes via Hyde : à partir d’une simple requête utilisateur, un document hypothétique est généré, vectorisé, puis comparé aux documents présents dans la base de données vectorielle pour récupérer celui qui est le plus pertinent.

Conclusion

En conclusion, cet ElasticON à Paris nous a donné un aperçu de certaines des fonctionnalités qui seront prochainement introduites dans Elasticsearch, confirmant les efforts de l'équipe pour offrir un produit toujours plus complet et fonctionnel.

Comme chaque autre conférence à laquelle nous avons participé au cours de l’année écoulée, ElasticON a également été un moment de partage et de team building pour Adelean, ainsi qu’une occasion de se connecter avec d’autres professionnels évoluant dans notre domaine.

Voxxed Days CERN 2026, où la science rencontre la technologie

12/02/2026

À l’occasion de l’édition de cette année de Voxxed Days CERN, l’emblématique Science Gateway de Meyrin s’est à nouveau transformé en lieu de rencontre pour développeurs, architectes et passionnés de technologie. Cet événement d’une journée, inscrit dans la série mondiale Voxxed Days, a mis l’accent sur le software craftsmanship, la sécurité et, bien sûr, l’IA.

Lire l'article

ElasticON Paris 2026, le futur est agentique.

28/01/2026

Elastic{ON}, la conférence annuelle de l'éditeur Elastic, est arrivé cette année avec la promesse ambitieuse de façonner l’avenir de la recherche. Depuis la scène de la Maison de la Mutualité, un message s’est imposé clairement. L’avenir d’Elasticsearch est agentique. Au-delà de cette vision, l’événement a présenté des mises à jour concrètes des produits, des évolutions architecturales et des cas d’usage réels illustrant l’évolution d’Elastic dans les domaines de la recherche documentaire et de l'accès à l'information, de l’observabilité et de la sécurité.

Lire l'article

IA, Big Data et Search. Bienvenue à Berlin Buzzwords 2025

27/06/2025

Berlin Buzzwords 2025 rassemble les voix de référence en matière d’IA, de Big Data, de Search et d’infrastructures de données scalables, le tout ancré dans l’innovation open source. Des GPU pour les LLMs à la souveraineté des données, des plateformes de recherche aux pipelines temps réel, c’est ici que les idées rencontrent l’ingénierie et que se dessine le paysage des données de demain.

Lire l'article

Réflexions de Haystack US 2025 - L'avenir de la recherche

16/05/2025

À Haystack US, la communauté de la recherche et de la pertinence s'est réunie pour explorer comment l'IA et les LLMs redéfinissent notre façon de chercher. Découvrons les sujets brûlants de cette année !

Lire l'article

Voxxed Days Luxembourg 2024

28/06/2024

Une fois de plus, Voxxed Days a été à la hauteur des attentes. Cet article propose un résumé des conférences auxquelles nous avons assisté en tant que spectateurs et intervenants.

Lire l'article