Travailleurs Bien-être 

Le travail, c’est la santé ? Vraiment ? Enquête

Le travail c’est la santé. Cette expression répandue en France est-elle vérifiable en pratique ? Réponses dans cet article. Le travail, c’est la santé ? Les différents facteurs qui permettent d’avoir une santé de fer sont nombreux. Entre l’alimentation, le sommeil ou encore les activités physiques, il existe de nombreux points qui permettent d’entretenir la santé. Toutefois, on peut aussi affirmer que le travail c’est la santé. En effet, il peut apporter des bienfaits sur notre bien-être car il stimule notre état physique, mental et social. Les effets positifs du travail…

Lire l'article