Aller au contenu

Éditions AKKO

« C'est un labo ? Une plateforme de data engineering ? Une plateforme IA ? » — tout architecte qui évalue AKKO pose les trois mêmes questions. Cette page y répond.

AKKO est un seul control plane souverain qui se déploie en trois éditions progressives. Choisis-en une, monte de palier plus tard — chaque édition est un strict sur-ensemble de la précédente, même chart, mêmes commandes, même souveraineté on-prem.

Les trois éditions d'un coup d'œil

Lab Data Platform AI Platform
Positionnement Bac à sable souverain Alternative Databricks/Snowflake Alternative Databricks Genie / Snowflake Copilot
Persona cible Data scientist Data / platform engineer Business analyst + data engineer + AI product owner
Boucle principale « Explorer un dataset, notebook, publier » « Ingérer, transformer, orchestrer, gouverner, visualiser » « Poser une question en langage naturel, obtenir une réponse gouvernée + un dashboard »
Time-to-first-value 30 min 1 jour 1 jour + requêtes vérifiées
Composants ~8 ~20 ~30+
Airgap-ready Oui Oui Oui (Ollama + vLLM on-prem)

Édition 1 — AKKO Lab

Pour : une petite équipe (1-5 ingés) qui veut du stockage objet + un catalogue + un notebook + un moteur SQL, sans adopter de data warehouse cloud.

Stack : MinIO + Polaris (Iceberg REST catalog) + JupyterHub + Trino + Keycloak SSO + Cockpit.

Déploiement avec les profils layer-0-infra + layer-1-auth + layer-2-data. Tu obtiens un stockage S3-compatible, un format de table Iceberg, un moteur SQL fédéré, un SSO, et une UI notebook — de quoi explorer, requêter et publier un notebook.

Ce que Lab n'est pas : pas d'orchestration, pas de BI, pas d'IA. C'est le point de départ souverain.

Édition 2 — AKKO Data Platform

Pour : une équipe data qui fait tourner des ELT production, des dashboards, du monitoring qualité et du lignage — le besoin classique « Databricks / Snowflake on-prem ».

Ajouts à Lab : Airflow + dbt (+ OpenLineage) + Superset + Spark Connect + OpenMetadata + OPA + Grafana/Prometheus/Loki.

Déploiement avec les profils layer-3-analytics + layer-4-ai (flag IA à off) + layer-5-monitoring + layer-6-governance. Tu obtiens l'orchestration production (DAGs), les transformations-as-code (modèles dbt), la BI fédérée, le compute distribué (Spark Connect), les métadonnées actives (lignage, glossaire, data products), les row-filters + column-masks (OPA), et l'observabilité complète.

Ce que Data Platform n'est pas : pas d'IA générative, pas de requêtage en langage naturel. Le catalogue est actif (lignage, tags PII) mais les requêtes viennent toujours d'humains.

Édition 3 — AKKO AI Platform

Pour : les organisations qui veulent Databricks Genie / Snowflake Copilot sans envoyer leurs données ou leurs prompts hors du périmètre.

Ajouts à Data Platform : ADEN (langage naturel → SQL → dashboard) + LiteLLM (routeur) + Ollama + vLLM (inférence GPU) + serveurs MCP (Trino + OpenMetadata) + 21 UDF scalaires Trino ai_* + publisher Streamlit + Whisper (audio) + Docling (parser PDF/DOCX).

Déploiement complet de l'umbrella. ADEN répond à des questions type « Top 10 des régions par volume transactionnel la semaine dernière » avec une trace de raisonnement (pipeline_steps), un plan SQL gouverné par OPA, un contrôle de coût via EXPLAIN (TYPE IO), et un dashboard Streamlit — le tout on-prem, avec un LLM local. Les 21 fonctions ai_* Trino (akko_ai_sentiment, akko_ai_classify, akko_ai_pii, akko_ai_parse_document, akko_ai_ocr…) font de l'inférence dans du SQL fédéré, donc un utilisateur métier peut écrire SELECT akko_ai_sentiment(review) FROM feedback.

Ce que AI Platform n'est pas : ce n'est pas un gestionnaire de cluster GPU ou une forge MLOps — MLflow est là pour le suivi d'expériences, mais le positionnement est IA générative gouvernée sur ta propre donnée, pas l'entraînement from scratch.

Choisir l'édition qui te correspond

Trois tests rapides :

Question Si OUI → il te faut au minimum…
Des pipelines production qui tournent à horaire fixe ? Data Platform
Des parties prenantes posent des questions en français et attendent des réponses data ? AI Platform
Juste un endroit pour déposer de la donnée et l'explorer ? Lab suffit

Tu peux démarrer en Lab et activer Data Platform ou AI Platform plus tard — les values du chart basculent juste enabled: true. Pas de migration, pas de ré-ingestion.

Voir aussi