POC as a Service · 1 mois · Omeka S

Testez l'IA
sur vos collections
Omeka S

Limonad'IA vous donne accès à un environnement pré-configuré pour évaluer la recherche sémantique sur vos propres données patrimoniales — sans risque, sans infrastructure à gérer.

Limonad'IA
Omeka S
1 mois
Durée du POC
1 000
Requêtes / jour incluses
Illimité
Utilisateurs
v3 & v4
Omeka S supporté
100%
Hébergé en France

En action

Limonad'IA sur vos collections

Interface de recherche sémantique Limonad IA
Interface de recherche sémantique
Module chatbot sur une collection patrimoniale
01 / 04
Résultats de recherche enrichis Limonad IA
Résultats de recherche enrichis
Extraction de critères et génération de réponses
02 / 04
Panneau de configuration Limonad IA
Panneau de configuration
Paramétrage du module et choix du modèle LLM
03 / 04
Tableau de bord analytique Limonad IA
Tableau de bord analytique
Suivi des requêtes et des performances
04 / 04
Le constat

Des collections riches,
une exploration encore limitée

Des données sous-exploitées

Omeka S structure et expose vos collections, mais la recherche par mots-clés atteint vite ses limites. Les usagers ne trouvent pas ce qu'ils cherchent vraiment, et le potentiel sémantique de vos métadonnées reste inexploité.

L'IA : promesse ou réalité ?

Les projets patrimoniaux hésitent à investir dans l'IA sans avoir pu en évaluer concrètement l'apport sur leurs propres données. Sans preuve sur votre corpus, difficile de convaincre en interne et de budgéter sereinement.


Limonad'IA est un POC as a Service clé en main — testez la recherche sémantique sur vos propres collections Omeka S, en 1 mois, sans rien installer.

Étape 01

Tester

Vos propres données dans un environnement sécurisé et dédié à votre projet.

Étape 02

Évaluer

L'apport réel de l'IA sur vos collections avant de prendre une décision d'investissement.

Étape 03

Décider

En connaissance de cause la suite de votre projet numérique patrimonial.

Déroulé

En 1 mois, 3 étapes

01

Déposez vos données

Import de votre dump Omeka S (versions 3 & 4) par notre équipe. Seules les métadonnées descriptives sont importées — aucun média, pour un transfert léger et sécurisé.

Omeka S v3 & v4 Dump standardisé Sans médias Volume illimité
02

Configurez le chatbot

Paramétrage du module avec une configuration de base opérationnelle dès le départ. Vous choisissez votre modèle IA et adaptez les instructions à votre contexte.

Gemma ou Qwen Config par défaut incluse Instructions personnalisables
03

Testez les résultats

Recherche sémantique sur vos collections, jusqu'à 1 000 requêtes par jour, avec un accès utilisateurs illimités pour impliquer toute votre équipe.

1 000 req. / jour Utilisateurs illimités Résultats immédiats

Inclus dans le POC

Tout est prêt
dès le premier jour

Environnement

Instance Omeka S dédiée

Un environnement isolé et sécurisé, exclusivement réservé à votre projet pendant toute la durée du POC.

Recherche

Module chatbot intégré

Explorez vos données autrement qu'avec des mots-clés — la recherche sémantique comprend l'intention derrière la requête.

Intelligence artificielle

2 modèles IA au choix

Gemma ou Qwen : deux modèles open source sélectionnés pour leur performance sur des corpus patrimoniaux.

Accès

Utilisateurs illimités

Toute votre équipe peut tester simultanément, sans contrainte de licence ou de nombre de comptes.

Quota

1 000 requêtes / jour

Un quota généreux, conçu pour mener des sessions de tests intensifs et représentatifs de vos usages réels.

Sécurité

Données protégées

Import via dump Omeka S — aucun média, aucune donnée hors périmètre. Hébergement intégralement en France.

Sous le capot

Une stack open source
pré-configurée

L'infrastructure IA est opérationnelle dès le premier jour. Aucune dépendance à un fournisseur propriétaire.

Moteur LLM local

Ollama

Sert deux types de modèles directement sur le serveur : un modèle d'embedding pour indexer vos données, un modèle de génération pour formuler les réponses. Aucune API externe, aucun envoi de vos données à un tiers. Souveraineté totale.

Base vectorielle

Qdrant

Stocke les représentations sémantiques de vos métadonnées produites par le modèle d'embedding. La recherche porte sur le sens des contenus, pas uniquement sur les mots-clés.

Gemma ou Qwen

Modèle LLM

Deux modèles de génération open source au choix. Gemma (Google) et Qwen (Alibaba) sont optimisés pour la compréhension du langage naturel et la formulation de réponses précises sur des corpus spécialisés. Le modèle d'embedding associé est nomic-embed-text.

Option

Accompagnement expert

Travail sur vos données

Analyse de la structure de vos données Omeka S pour maximiser la pertinence des résultats du chatbot.

Tuning du chatbot

Instructions personnalisées, modèle d'extraction des critères et modèle de génération de réponse adaptés à votre contexte métier.

Paramétrage & indexation

Configuration avancée du module et réglage fin de l'indexation pour des recherches plus précises sur votre corpus spécifique.

Ce que couvre l'accompagnement

Instructions chatbot Extraction de critères Génération de réponses Optimisation des données Indexation fine Paramétrage avancé

Option payante — Tarif établi sur devis selon la complexité du projet et le volume de données à traiter.


Après le POC

Choisissez votre voie

À l'issue du mois de test, deux parcours s'offrent à vous selon votre contexte technique et vos ambitions.

Indépendant
Module sur votre infrastructure

Vous déployez le module Limonad'IA directement sur votre propre environnement Omeka S, avec la liberté de gérer votre hébergement IA.

Module de base gratuit
Paramètres avancés via abonnement annuel
Hébergement IA à votre charge
Souverain Recommandé
Module + Serveur IA Limonad'IA

Connectez votre module à notre infrastructure IA souveraine, sécurisée et entièrement maintenue par nos équipes.

Serveur français & sécurisé
LLMs on-premise — zéro fuite de données
Budget maîtrisé & prévisible
Maintenance, support & mises à jour inclus
À qui s'adresse Limonad'IA ?

Conçu pour les institutions
patrimoniales et publiques

Musées & Patrimoine

Valorisez vos collections muséales et patrimoniales

  • Musées nationaux et territoriaux
  • Archives et bibliothèques patrimoniales
  • Fonds patrimoniaux numérisés
Universités & Recherche

Rendez vos données scientifiques accessibles

  • Laboratoires & centres de recherche
  • Portails de données scientifiques
  • Collections académiques numériques
Collectivités publiques

Exploitez le potentiel de vos fonds publics

  • Communes & intercommunalités
  • Régions & départements
  • Établissements publics culturels

FAQ

Questions fréquentes

Non. L'instance Omeka S est préconfigurée et le module chatbot est installé avec des paramètres par défaut opérationnels. Vous avez simplement besoin de préparer un export (dump) de vos données Omeka S. Si vous souhaitez personnaliser en profondeur le comportement du chatbot, notre option accompagnement prend en charge cette partie technique.
Limonad'IA accepte les dumps standardisés Omeka S en versions 3 et 4. L'import porte exclusivement sur les données descriptives (métadonnées, textes, ressources) — les médias ne sont pas importés, ce qui garantit légèreté et sécurité des échanges.
La recherche classique (ou lexicale) fonctionne par correspondance de mots : elle compare ce que vous tapez avec les termes présents dans les fiches de votre collection. Si vous écrivez "agriculture", elle ignore une notice qui parle de "culture céréalière" ou de "travaux des champs" — les mots ne se recoupent pas.

La recherche sémantique, elle, analyse le sens de votre question et le compare au sens du contenu de vos données, indépendamment des mots utilisés. Pour cela, Limonad'IA s'appuie sur Ollama qui orchestre deux modèles en local : nomic-embed-text pour transformer vos métadonnées en représentations vectorielles, et Gemma ou Qwen pour formuler la réponse en langage naturel. Qdrant stocke ces vecteurs et identifie en temps réel les notices les plus proches du sens de votre question.

En résumé : la recherche classique cherche des mots, la recherche sémantique comprend une intention. Et l'ensemble fonctionne sans que vos données ne quittent votre environnement.
Gemma (Google DeepMind) et Qwen (Alibaba) sont deux modèles open source performants. Gemma excelle sur des tâches de compréhension et de synthèse en langues européennes. Qwen offre d'excellentes capacités multilingues, particulièrement efficace pour les corpus mixtes ou spécialisés. Notre équipe peut vous conseiller sur le choix selon votre corpus.
Au-delà du quota quotidien, les requêtes sont temporairement suspendues jusqu'au lendemain. Ce quota est conçu pour des tests intensifs et s'avère généralement largement suffisant. Si vos besoins nécessitent un quota plus élevé, contactez-nous pour en discuter.
Oui, intégralement. L'infrastructure est hébergée en France. Dans le cadre du parcours Souverain, les modèles LLM sont installés localement sur notre serveur — vos données ne quittent jamais le territoire national et ne transitent pas par des API tierces.
Oui. Le POC peut être renouvelé pour un mois supplémentaire sur simple demande. C'est parfois utile pour tester avec des données supplémentaires ou impliquer d'autres équipes. Après deux mois, nous recommandons de passer à l'un des deux parcours post-POC pour bénéficier d'une solution pérenne.
À l'issue du projet, l'ensemble des données importées dans l'instance Limonad'IA — métadonnées, index vectoriels et fichiers de configuration — sont intégralement détruits. Une procédure formelle de suppression est appliquée et vous recevez un procès-verbal de destruction attestant de l'effacement complet de vos données. Aucune copie n'est conservée.
Contact

Prêt à
tester ?

Décrivez-nous votre projet. Nous revenons vers vous sous 48h pour organiser votre accès POC.

Email
contact@limonadeandco.fr
Site
limonadia.histolab.fr
Réponse sous 48h ouvrées