Mes projets basés sur l’intelligence artificielle
Roadmap big 2k26
Phase 1 — Fondations ML (2-3 mois)
Python pour le ML — NumPy, Pandas, Scikit-learn. Juste assez pour comprendre un modèle et le manipuler. Pas besoin d'aller plus loin.
Concepts ML de base — ce qu'est un modèle, l'entraînement, la validation, les métriques (accuracy, precision, recall). Cours rapide : fast.ai ou Google ML Crash Course (gratuit).
Docker pour le ML — packager un modèle dans un container. Tu fais déjà du Docker, c'est juste l'appliquer au contexte ML.
Phase 2 — MLOps Core (3-4 mois)
MLflow — tracking d'expériences, versioning de modèles, model registry. C'est ton premier outil concret à maîtriser.
Kubeflow Pipelines — orchestration de pipelines ML sur K8s. Monte-le on-prem comme on en parlait.
Feature stores — comprendre ce que c'est (Feast est l'open source de référence).
Model serving — déployer un modèle comme une API. Outils : Seldon Core, BentoML, ou Triton Inference Server (NVIDIA). C'est l'équivalent de déployer une app, mais pour un modèle.
CI/CD pour le ML — adapter tes pipelines GitOps existants pour automatiser le réentraînement et le redéploiement de modèles. Tu as déjà les bases CI/CD, c'est une extension naturelle.
Phase 3 — Generative AI en production (3-4 mois)
LLM APIs — OpenAI, Azure OpenAI, Mistral. Tu fais déjà de la LLM Integration, approfondis : prompt engineering, function calling, RAG (Retrieval Augmented Generation).
RAG — c'est l'architecture clé en ce moment. Tu connectes un LLM à ta propre base de données via une vector database (Qdrant, Weaviate, pgvector). Très demandé en entreprise.
LangChain / LlamaIndex — frameworks pour construire des apps LLM. Apprends l'un des deux, LlamaIndex est plus orienté RAG.
MCP — tu l'as déjà dans tes skills, c'est un vrai atout. Creuse-le, c'est encore rare sur le marché.
Déploiement de LLMs open source — Ollama, vLLM pour faire tourner des modèles comme Mistral ou LLaMA en local/on-prem. Très pertinent avec ton infra on-prem.
Phase 4 — AIOps & Monitoring (2-3 mois)
Monitoring de modèles — détecter le data drift, le model drift. Outils : Evidently AI, Prometheus + Grafana adapté au ML (tu connais déjà probablement Prometheus).
Observabilité LLM — tracer les appels LLM, monitorer latence, coût, qualité des réponses. Outils : LangSmith, Phoenix (Arize).
Gestion des coûts GPU/inference — optimiser le coût de faire tourner des modèles en prod. Quantization, batching, caching des réponses.