« Mes projets basés sur l’intelligence artificielle » : différence entre les versions
(Page créée avec « Roadmap big 2k26 Phase 1 — Fondations ML (2-3 mois) Python pour le ML — NumPy, Pandas, Scikit-learn. Juste assez pour comprendre un modèle et le manipuler. Pas besoin d'aller plus loin. Concepts ML de base — ce qu'est un modèle, l'entraînement, la validation, les métriques (accuracy, precision, recall). Cours rapide : fast.ai ou Google ML Crash Course (gratuit). Docker pour le ML — packager un modèle dans un container. Tu fais déjà du Docker, c'e... ») |
Aucun résumé des modifications |
||
| Ligne 3 : | Ligne 3 : | ||
Phase 1 — Fondations ML (2-3 mois) | Phase 1 — Fondations ML (2-3 mois) | ||
Python pour le ML — NumPy, Pandas, Scikit-learn. Juste assez pour comprendre un modèle et le manipuler. Pas besoin d'aller plus loin. | Python pour le ML — NumPy, Pandas, Scikit-learn. Juste assez pour comprendre un modèle et le manipuler. Pas besoin d'aller plus loin.<br> | ||
Concepts ML de base — ce qu'est un modèle, l'entraînement, la validation, les métriques (accuracy, precision, recall). Cours rapide : fast.ai ou Google ML Crash Course (gratuit). | Concepts ML de base — ce qu'est un modèle, l'entraînement, la validation, les métriques (accuracy, precision, recall). Cours rapide : fast.ai ou Google ML Crash Course (gratuit).<br> | ||
Docker pour le ML — packager un modèle dans un container. Tu fais déjà du Docker, c'est juste l'appliquer au contexte ML. | Docker pour le ML — packager un modèle dans un container. Tu fais déjà du Docker, c'est juste l'appliquer au contexte ML.<br> | ||
Phase 2 — MLOps Core (3-4 mois) | Phase 2 — MLOps Core (3-4 mois) | ||
MLflow — tracking d'expériences, versioning de modèles, model registry. C'est ton premier outil concret à maîtriser. | MLflow — tracking d'expériences, versioning de modèles, model registry. C'est ton premier outil concret à maîtriser.<br> | ||
Kubeflow Pipelines — orchestration de pipelines ML sur K8s. Monte-le on-prem comme on en parlait. | Kubeflow Pipelines — orchestration de pipelines ML sur K8s. Monte-le on-prem comme on en parlait.<br> | ||
Feature stores — comprendre ce que c'est (Feast est l'open source de référence). | Feature stores — comprendre ce que c'est (Feast est l'open source de référence).<br> | ||
Model serving — déployer un modèle comme une API. Outils : Seldon Core, BentoML, ou Triton Inference Server (NVIDIA). C'est l'équivalent de déployer une app, mais pour un modèle. | Model serving — déployer un modèle comme une API. Outils : Seldon Core, BentoML, ou Triton Inference Server (NVIDIA). C'est l'équivalent de déployer une app, mais pour un modèle.<br> | ||
CI/CD pour le ML — adapter tes pipelines GitOps existants pour automatiser le réentraînement et le redéploiement de modèles. Tu as déjà les bases CI/CD, c'est une extension naturelle. | CI/CD pour le ML — adapter tes pipelines GitOps existants pour automatiser le réentraînement et le redéploiement de modèles. Tu as déjà les bases CI/CD, c'est une extension naturelle.<br> | ||
Phase 3 — Generative AI en production (3-4 mois) | Phase 3 — Generative AI en production (3-4 mois) | ||
LLM APIs — OpenAI, Azure OpenAI, Mistral. Tu fais déjà de la LLM Integration, approfondis : prompt engineering, function calling, RAG (Retrieval Augmented Generation). | LLM APIs — OpenAI, Azure OpenAI, Mistral. Tu fais déjà de la LLM Integration, approfondis : prompt engineering, function calling, RAG (Retrieval Augmented Generation).<br> | ||
RAG — c'est l'architecture clé en ce moment. Tu connectes un LLM à ta propre base de données via une vector database (Qdrant, Weaviate, pgvector). Très demandé en entreprise. | RAG — c'est l'architecture clé en ce moment. Tu connectes un LLM à ta propre base de données via une vector database (Qdrant, Weaviate, pgvector). Très demandé en entreprise.<br> | ||
LangChain / LlamaIndex — frameworks pour construire des apps LLM. Apprends l'un des deux, LlamaIndex est plus orienté RAG. | LangChain / LlamaIndex — frameworks pour construire des apps LLM. Apprends l'un des deux, LlamaIndex est plus orienté RAG.<br> | ||
MCP — tu l'as déjà dans tes skills, c'est un vrai atout. Creuse-le, c'est encore rare sur le marché. | MCP — tu l'as déjà dans tes skills, c'est un vrai atout. Creuse-le, c'est encore rare sur le marché.<br> | ||
Déploiement de LLMs open source — Ollama, vLLM pour faire tourner des modèles comme Mistral ou LLaMA en local/on-prem. Très pertinent avec ton infra on-prem. | Déploiement de LLMs open source — Ollama, vLLM pour faire tourner des modèles comme Mistral ou LLaMA en local/on-prem. Très pertinent avec ton infra on-prem.<br> | ||
Phase 4 — AIOps & Monitoring (2-3 mois) | Phase 4 — AIOps & Monitoring (2-3 mois) | ||
Monitoring de modèles — détecter le data drift, le model drift. Outils : Evidently AI, Prometheus + Grafana adapté au ML (tu connais déjà probablement Prometheus). | Monitoring de modèles — détecter le data drift, le model drift. Outils : Evidently AI, Prometheus + Grafana adapté au ML (tu connais déjà probablement Prometheus).<br> | ||
Observabilité LLM — tracer les appels LLM, monitorer latence, coût, qualité des réponses. Outils : LangSmith, Phoenix (Arize). | Observabilité LLM — tracer les appels LLM, monitorer latence, coût, qualité des réponses. Outils : LangSmith, Phoenix (Arize).<br> | ||
Gestion des coûts GPU/inference — optimiser le coût de faire tourner des modèles en prod. Quantization, batching, caching des réponses. | Gestion des coûts GPU/inference — optimiser le coût de faire tourner des modèles en prod. Quantization, batching, caching des réponses.<br> | ||
Dernière version du 20 février 2026 à 12:04
Roadmap big 2k26
Phase 1 — Fondations ML (2-3 mois)
Python pour le ML — NumPy, Pandas, Scikit-learn. Juste assez pour comprendre un modèle et le manipuler. Pas besoin d'aller plus loin.
Concepts ML de base — ce qu'est un modèle, l'entraînement, la validation, les métriques (accuracy, precision, recall). Cours rapide : fast.ai ou Google ML Crash Course (gratuit).
Docker pour le ML — packager un modèle dans un container. Tu fais déjà du Docker, c'est juste l'appliquer au contexte ML.
Phase 2 — MLOps Core (3-4 mois)
MLflow — tracking d'expériences, versioning de modèles, model registry. C'est ton premier outil concret à maîtriser.
Kubeflow Pipelines — orchestration de pipelines ML sur K8s. Monte-le on-prem comme on en parlait.
Feature stores — comprendre ce que c'est (Feast est l'open source de référence).
Model serving — déployer un modèle comme une API. Outils : Seldon Core, BentoML, ou Triton Inference Server (NVIDIA). C'est l'équivalent de déployer une app, mais pour un modèle.
CI/CD pour le ML — adapter tes pipelines GitOps existants pour automatiser le réentraînement et le redéploiement de modèles. Tu as déjà les bases CI/CD, c'est une extension naturelle.
Phase 3 — Generative AI en production (3-4 mois)
LLM APIs — OpenAI, Azure OpenAI, Mistral. Tu fais déjà de la LLM Integration, approfondis : prompt engineering, function calling, RAG (Retrieval Augmented Generation).
RAG — c'est l'architecture clé en ce moment. Tu connectes un LLM à ta propre base de données via une vector database (Qdrant, Weaviate, pgvector). Très demandé en entreprise.
LangChain / LlamaIndex — frameworks pour construire des apps LLM. Apprends l'un des deux, LlamaIndex est plus orienté RAG.
MCP — tu l'as déjà dans tes skills, c'est un vrai atout. Creuse-le, c'est encore rare sur le marché.
Déploiement de LLMs open source — Ollama, vLLM pour faire tourner des modèles comme Mistral ou LLaMA en local/on-prem. Très pertinent avec ton infra on-prem.
Phase 4 — AIOps & Monitoring (2-3 mois)
Monitoring de modèles — détecter le data drift, le model drift. Outils : Evidently AI, Prometheus + Grafana adapté au ML (tu connais déjà probablement Prometheus).
Observabilité LLM — tracer les appels LLM, monitorer latence, coût, qualité des réponses. Outils : LangSmith, Phoenix (Arize).
Gestion des coûts GPU/inference — optimiser le coût de faire tourner des modèles en prod. Quantization, batching, caching des réponses.