ElasticON est de retour dans la capitale avec de nombreuses nouvelles fonctionnalités et des conférences passionnantes. Cet article résume l'événement.
L'équipe Adelean a assisté à ElasticON, qui s’est tenu les 20 et 21 janvier. L'événement principal, qui a eu lieu à la Salle Wagram, a été précédé par les sessions Community Track, organisées par David Pilato et la communauté Elastic en France. Dans une atmosphère festive, nous avons eu l’opportunité de découvrir les nouvelles fonctionnalités introduites dans les dernières versions d’Elasticsearch, couvrant divers cas d’utilisation des piliers fondamentaux de la stack : surveillance, sécurité et recherche !
De nombreux cas d’utilisation fascinants ont été partagés lors de la Community Track, organisée par la communauté Elastic en France. Ceux-ci allaient de l’implémentation et la gestion d’un data lake chez la multinationale Stellantis, à la recherche sémantique appliquée dans le contexte de l’e-commerce.
Lors de cet événement, nous avons eu l’opportunité de présenter “Billion Vector Baby”, un guide pratique sur la gestion d’une base de données vectorielle avec plus d’un milliard de vecteurs. Une tâche qui semble impossible, mais qui, grâce aux capacités de compression via la quantification scalaire ou binaire, est désormais accessible à tous.
En milieu de soirée, Shay Banon a pris le temps de répondre à certaines de nos questions. La plupart d’entre elles portaient sur l’avenir d’Elasticsearch, en particulier sur la version 9, qui sera publiée en 2025.
L'événement principal a été ouvert par Shay Banon, qui a donné un aperçu complet d’Elasticsearch, soutenu par des démonstrations impeccables de Baha Azarmi. Shay a mis l’accent sur le positionnement open-source d’Elasticsearch et a réaffirmé la direction qu’il avait tracée il y a environ deux ans, lors du dernier événement Elastic à Paris, à savoir l’intention de séparer le stockage et le traitement.
Cette idée de séparation est également au cœur des dernières applications de recherche sémantique. Il est désormais possible d’instancier un modèle à la fois lors de l’ingestion et de la recherche, créant ainsi deux pipelines séparés qui ne se perturbent pas mutuellement.
Un autre point central de la présentation était le soutien massif à l’utilisation des grands modèles de langage – non seulement pour le RAG (retrieval-augmented generation), mais aussi lors de la phase d’ingestion, avec des pipelines générés automatiquement pour mieux gérer et intégrer nos logs.
En parlant de logs, le support d’OpenTelemetry est devenu une priorité stratégique pour Elasticsearch.
De nombreuses mises à jour intéressantes ont été dévoilées entre les conférences.
Uri Cohen, Product Manager chez Elastic, a abordé les optimisations liées au rôle croissant d’Elasticsearch en tant que base de données vectorielle et a annoncé une nouvelle méthode de quantification qui promet le même niveau de compression que BBQ, mais avec une perte inférieure sur la pertinence des résultats de recherche.
Le nom provisoire de cette méthode de quantification est OSQ, ou Optimized Scalar Quantization.
De SIMD à Panama, Elasticsearch a fait un long chemin, et l’avenir de la recherche sémantique s’annonce particulièrement prometteur.
L’avenir d’ES|QL est également prometteur, car les jointures seront introduites dans les versions à venir d’Elasticsearch – des jointures qui ne nécessiteront plus la commande ENRICH.
Une autre fonctionnalité excitante, qui sera introduite sur site en 2025 (bien qu’elle soit déjà disponible pour les versions cloud, serveurless et non serveurless), est AutoOps. Cette fonctionnalité automatise et accélère les opérations de gestion du cluster via un système RAG intégré. En résumé, le LLM (grand modèle de langage) comprend l'état du cluster et peut recommander des améliorations ou aider à résoudre des problèmes spécifiques.
Dans la deuxième partie de la journée, l’accent a été mis sur deux autres points forts d’Elasticsearch : “Sécurité” et “Recherche”. Ben Diawara a exploré les défis actuels de la cybersécurité et comment l’intelligence artificielle (IA) peut améliorer les opérations de sécurité, tout en discutant de la manière dont les cyberattaques deviennent de plus en plus sophistiquées, utilisant souvent l’IA elle-même.
L’IA peut amplifier l’ingénierie sociale, le développement d’exploits et la numérisation des vulnérabilités. La présentation a couvert l'évolution des systèmes de gestion des informations et des événements de sécurité (SIEM) et comment l’IA peut améliorer la détection des menaces, les enquêtes contextuelles et les réponses orchestrées.
Comme démontré lors de la session, Elasticsearch, en suivant les logs collectés via les divers agents déployables, peut reconstruire une attaque et en expliquer les causes profondes, facilitant ainsi l’application de mesures rapides en cas de menace informatique.
La conférence s’est terminée sur un focus sur “Search”, en particulier l’utilisation de la recherche sémantique avancée dans un contexte RAG. Parce que les LLM ne sont rien sans une récupération efficace.
Nous avons pu découvrir de manière pratique le nouveau type disponible pour la recherche sémantique : semantic_text
, qui simplifie les phases d’ingestion et de recherche. Fini les pipelines, fini le besoin de spécifier le modèle à utiliser lors de la recherche.
La présentation s’est concentrée sur l’amélioration de la phase de récupération dans un système RAG. L’une des techniques mises en avant était le “semantic chunking”, qui tire parti du contexte des phrases pour éviter de tronquer de manière brute les textes dépassant la limite de tokens du modèle.
Une autre approche intéressante était la réécriture des requêtes via Hyde : à partir d’une simple requête utilisateur, un document hypothétique est généré, vectorisé, puis comparé aux documents présents dans la base de données vectorielle pour récupérer celui qui est le plus pertinent.
En conclusion, cet ElasticON à Paris nous a donné un aperçu de certaines des fonctionnalités qui seront prochainement introduites dans Elasticsearch, confirmant les efforts de l'équipe pour offrir un produit toujours plus complet et fonctionnel.
Comme chaque autre conférence à laquelle nous avons participé au cours de l’année écoulée, ElasticON a également été un moment de partage et de team building pour Adelean, ainsi qu’une occasion de se connecter avec d’autres professionnels évoluant dans notre domaine.