EBM (Energy-Based Model) — Définition simple et tech

Un EBM est un type de modèle en apprentissage automatique qui attribue à chaque configuration possible (par exemple une image, une paire question-réponse, ou une séquence) une « énergie » : un nombre qui indique à quel point cette configuration est bonne ou probable. Plus l’énergie est basse, plus la configuration est considérée comme correcte ou naturelle par le modèle.

Principes clés (en termes simples) :
– Le modèle ne prédit pas directement une probabilité, il calcule un score/énergie.
– Pendant l’entraînement, on fait en sorte que les bonnes réponses aient des énergies basses et les mauvaises des énergies élevées.
– Pour générer ou reconnaître des exemples, on cherche les configurations à énergie minimale (ou on échantillonne en favorisant les énergies faibles).
– Exemples historiques/techniques : réseaux de Boltzmann, Hopfield networks ; usages modernes : certains modèles génératifs et approches de représentation non supervisée.

Avantages et limites :
– Avantages : grande flexibilité pour modéliser dépendances complexes et structures non normalisées.
– Limites : calculer/normaliser ou échantillonner à partir de l’énergie peut être coûteux et rendre l’entraînement difficile.

En résumé : un EBM est un modèle ML qui évalue chaque option par un score d' »énergie » — plus l’énergie est basse, mieux l’option correspond aux données — utilisé pour classer, générer ou reconnaître des structures complexes.

Catégories :