Il est 3h47 du matin à Genève. Dans un datacenter quelque part entre la Praille et Lancy, un processus tourne en silencieux. Il vient de lire 847 contrats d’assurance, d’en extraire les clauses critiques, de les comparer à un référentiel réglementaire, et d’envoyer un rapport structuré aux juristes — prêt pour 8h00.

Personne n’a appuyé sur un bouton.

C’est ça, un agent LLM en production.


Ce n’est plus de la science-fiction

On a passé deux ans à parler de ChatGPT comme d’un outil de productivité personnelle — un assistant qui rédige des emails, résume des documents, génère du code. C’était la surface des choses.

La vague qui arrive maintenant est d’une autre nature. Les LLM ne sont plus des outils qu’on utilise. Ce sont des acteurs qui agissent — qui perçoivent leur environnement, prennent des décisions, appellent des APIs, écrivent dans des bases de données, et recommencent.

Chez un de nos clients du secteur assurance, nous avons déployé en 2024 un pipeline basé sur GPT-4o et une architecture RAG (Retrieval-Augmented Generation). La mission : extraire automatiquement les données structurées de contrats hétérogènes — certains scannés en 1998, d’autres en PDF natif, d’autres en XML maison.

Résultat : -80% de temps de traitement sur l’analyse contractuelle. Les juristes ne lisent plus les contrats bruts. Ils valident les synthèses que l’agent a produites.


La mécanique derrière le miracle

Un agent LLM moderne, c’est une boucle :

# Boucle simplifiée d'un agent ReAct
while not task_complete:
    thought = llm.think(context, tools_available)
    action = llm.choose_action(thought)
    observation = tools.execute(action)
    context.update(observation)
    task_complete = llm.evaluate_completion(context)

À chaque itération, le modèle raisonne sur ce qu’il voit, choisit un outil parmi ceux disponibles (recherche vectorielle, appel API, écriture BDD), exécute, puis évalue si la tâche est terminée.

Ce pattern — appelé ReAct (Reasoning + Acting) — est devenu le standard de facto pour les agents industriels.

Ce qui change tout, c’est la qualité du raisonnement des modèles 2024-2025. GPT-4o, Claude 3.5 Sonnet, Mistral Large : ils suivent des instructions complexes sur de longues chaînes de pensée sans se perdre. C’est ce qui rend les agents fiables en production — et pas juste en démo.


Les trois secteurs qui basculent maintenant

Finance & Assurance

L’extraction documentaire, la détection d’anomalies contractuelles, la génération de rapports réglementaires (FINMA, Solvabilité II). Le ROI est immédiat parce que le volume de documents est colossal et le coût humain de traitement, très élevé.

Santé

Les dossiers patients, les comptes-rendus d’imagerie, les interactions médicamenteuses. À HUG Genève, nous avons travaillé sur des pipelines HL7/FHIR qui intègrent des couches de NLP pour enrichir les données cliniques à l’ingestion. Ce n’est pas de l’IA médicale au sens diagnostique — c’est de l’infrastructure intelligente.

Industrie manufacturière

La maintenance prédictive, les rapports d’inspection, la documentation technique. Un agent qui lit les logs d’une ligne de production et génère un bon de maintenance avant que la panne survienne — c’est déployé aujourd’hui chez des industriels suisses.


Le vrai défi : pas l’IA, le changement

La technologie est mûre. Les modèles fonctionnent. Les frameworks (LangChain, LlamaIndex, n8n pour les orchestrations no-code) sont stables.

Le vrai challenge, c’est l’organisation.

Un agent LLM en production, ça nécessite :

  • Des données propres — garbage in, garbage out, plus vrai que jamais
  • Une gouvernance claire — qui valide les outputs ? qui gère les erreurs ?
  • Une intégration IT rigoureuse — SSO, audit logs, sécurité des prompts (prompt injection, data leakage)
  • Des humains dans la boucle — pour les décisions à enjeu, l’agent propose, l’humain valide

C’est là que la plupart des projets déraillent. Pas sur le modèle. Sur le change management.


Ce que ça signifie pour votre DSI

Si vous n’avez pas encore de projet LLM en production en 2025, vous n’êtes pas en retard — mais la fenêtre se referme. Les entreprises qui maîtrisent ces patterns aujourd’hui construisent un avantage compétitif durable.

La bonne entrée : un cas d’usage délimité, documentaire, à fort volume. Pas de chatbot généraliste. Pas de remplacement de poste. Un workflow précis, avec des métriques claires, et un périmètre qu’on peut auditer.

C’est comme ça qu’on a commencé chez AXA. Et c’est comme ça que ça marche.


Vous explorez une initiative IA dans votre organisation ? Parlons-en.