Aller au contenu

Choisir votre LLM

AKKO ne choisit pas de LLM pour vous. La plateforme fait tourner n'importe quel modèle qu'Ollama sait servir, et LiteLLM les expose via des alias compatibles OpenAI. Cette page documente les candidats pré-téléchargés et quand choisir lequel.

Candidats pré-installés sur Netcup / dev

Alias LiteLLM Modèle sous-jacent Origine Taille Point fort
akko-chat qwen2.5-coder:7b (défaut) Alibaba / Qwen 4,7 Go Meilleure génération SQL sur l'évaluation ADEN actuelle.
akko-chat-eu mistral:7b Mistral AI (France) 4,1 Go LLM souverain européen ; raisonnement fort, SQL plus faible.
akko-embed nomic-embed-text Nomic (US) 274 Mo Embeddings 768-dim pour akko_ai_embed / akko_ai_search.

Ajoutez ou retirez des candidats en éditant akko-ollama.models dans helm/examples/values-netcup.yaml (ou votre propre fichier de valeurs). La liste est aussi reflétée dans la config d'alias LiteLLM (helm/akko/charts/akko-litellm/values.yaml).

Quand choisir lequel

Acheteurs à souveraineté européenne

Les organisations EU régulées — banques, secteur public, défense, santé — rejettent régulièrement les modèles d'origine chinoise comme LLM par défaut d'un déploiement souverain. Si cela s'applique à votre acheteur, basculez akko-chat sur Mistral, même si les scores SQL baissent légèrement. Le risque opérationnel est un taux de retry plus élevé dans ADEN, pas une perte de fonctionnalité.

Charges SQL dominantes

Qwen 2.5 Coder reste en tête sur le jeu d'éval AKKO ADEN (génération SQL contre Iceberg + Trino). Si votre usage principal est NL → SQL et que vous n'avez pas la contrainte de souveraineté, gardez Qwen comme cible de akko-chat.

Raisonnement général / réponses RAG

Mistral 7B Instruct v0.3 est légèrement meilleur sur les réponses ouvertes (résumé, Q&A, extraction d'entités). Pour la famille akko_ai_ask / akko_ai_summarize / akko_ai_entities, pointez akko-chat sur Mistral.

Comment basculer le défaut

L'alias par défaut utilisé par ADEN et les fonctions Trino ai_* est akko-chat. Le bascule est un override de values, sans changement de code :

akko-litellm:
  config:
    model_list:
      - model_name: akko-chat
        litellm_params:
          model: "ollama/mistral:7b"   # <- anciennement ollama/qwen2.5-coder:7b
          api_base: "http://akko-akko-ollama:11434"

Relancez helm upgrade akko ... (le cycle Netcup standard). Aucun redémarrage de pod ADEN ou du coordinateur Trino n'est requis — LiteLLM recharge à chaud la table d'alias.

Méthodologie de benchmark (en cours)

Le jeu d'éval AKKO ADEN (sprint 41) contient 60 prompts NL → SQL reflétant les trois démos de référence (fraude bancaire, cohortes santé, attribution retail). Nous notons :

  • Validité syntaxique SQL contre Trino 480 (parsing coordinateur, zéro exécution).
  • Équivalence sémantique contre un SQL de référence écrit à la main.
  • Correspondance ligne à ligne des résultats exécutés sur le catalogue iceberg seedé.

Les résultats Qwen 2.5 Coder 7B vs Mistral 7B v0.3 vs Llama 3.1 8B seront publiés en sortie de sprint 42. Jusque-là, Qwen reste l'alias par défaut et Mistral est disponible en opt-in via akko-chat-eu.

Déploiements air-gapped / sans internet

Les trois candidats sont livrés comme couches gguf à l'intérieur du job d'init akko-ollama. Sur une installation entièrement hors ligne, récupérez l'image avec les modèles pré-embarqués (akko-ollama:2026.04-eu si vous voulez le bundle Mistral) et mettez akko-ollama.init.enabled: false. Les opérations après démarrage n'ont aucune dépendance internet.