Fichier d’origine(3 658 × 2 021 pixels, taille du fichier : 123 kio, type MIME : image/png)
Ce fichier provient de Wikimedia Commons et peut être utilisé par d'autres projets.
Sa description sur sa page de description est affichée ci-dessous.
Description
DescriptionModel Collapse in Generative Models Can Be Avoided By Accumulating Data.png
English: Model collapse is a phenomenon in machine learning whereby generative models trained on their own outputs will exhibit increasing test error. However, previous works demonstrating this phenomenon assumed that training data are replaced at every model-fitting iteration; if training data instead accumulate across model-fitting iterations, model collapse does not occur.
de partager – de copier, distribuer et transmettre cette œuvre
d’adapter – de modifier cette œuvre
Sous les conditions suivantes :
paternité – Vous devez donner les informations appropriées concernant l'auteur, fournir un lien vers la licence et indiquer si des modifications ont été faites. Vous pouvez faire cela par tout moyen raisonnable, mais en aucune façon suggérant que l’auteur vous soutient ou approuve l’utilisation que vous en faites.
partage à l’identique – Si vous modifiez, transformez ou vous basez sur cet élément, vous devez distribuer votre contribution sous une license identique ou compatible à celle de l’original.