EvalAP
EvalAP
EvalAP est la plateforme publique de référence pour évaluer, comparer et analyser les modèles d’intelligence artificielle.
Développée par Etalab, elle aide les administrations, chercheurs et équipes techniques à choisir en toute confiance le modèle le plus adapté à leurs besoins.
🎯 Qu’est-ce que c’est ?
Cet outil vous permet de :
📊 Comparer les modèles : identifiez celui qui offre les meilleures performances sur vos cas d’usage.
🔍 Explorer les résultats : naviguez entre modèles, jeux de données, expériences et métriques.
⚙️ Piloter vos évaluations : via une API ou une interface web intuitive.
✅ Décider en toute transparence : appuyez vos choix sur des évaluations reproductibles et objectives.
👥 Pour qui ?
- Administrations qui déploient des solutions IA.
- Chercheurs et data scientists en quête de benchmarks fiables.
- Équipes techniques souhaitant documenter et comparer leurs modèles.
🌐 Pour en savoir plus
🌐 Interface publique : (Ouvre une nouvelle fenêtre) evalap.etalab.gouv.fr
📚 Documentation : (Ouvre une nouvelle fenêtre) evalap.etalab.gouv.fr/doc
🖥️ Compatible avec les notebooks Jupyter
🆓 Open source, sous licence MIT
Vous êtes utilisateur ou futur utilisateur ?
Contribuez à faire d’EvalAP l’outil de référence pour l’évaluation des modèles d’IA dans l’administration.
🔗
(Ouvre une nouvelle fenêtre) Accéder à EvalAP
🔗
(Ouvre une nouvelle fenêtre) Lire la documentation