"L'image que les femmes ont de leur corps s'est améliorée"Beauté

"L'image que les femmes ont de leur corps s'est améliorée"

Si les idéaux de beauté irréalistes donnent souvent lieu à des mauvaises nouvelles, de temps en temps apparaît une lueur d'espoir. Une nouvelle étude révèle en effet qu'aujourd'hui les femmes sont plus positives à propos de leur corps que ces dernières décennies.