search
top

Définition de droit du travail

La branche du droit chargée de régir les relations qui ont lieu par le biais du travail humain est le droit du travail. Il s’agit de l’ensemble des normes juridiques qui garantissent le respect des obligations des parties engagées dans une relation de travail.

Le droit du travail considère que le travail est l’activité qu’une personne réalise pour modifier le monde extérieur et par le biais de laquelle elle parvient à obtenir les moyens matériels ou les biens économiques pour survivre.

En tant que fait social, le travail englobe l’établissement de relations qui ne sont pas tout à fait symétriques. L’employeur (celui qui embauche le travailleur) dispose d’une force majeure par rapport à l’employé. C’est pour cette raison que le droit du travail a pour but de limiter en quelque sorte la liberté de l’entreprise afin de protéger la partie réputée déséquilibrée de la relation.

Pour ce faire, le droit du travail a pour base le principe de la protection, contrairement au droit privé, dont le principe est celui de l’égalité juridique. Ceci dit, le droit du travail se doit d’appliquer, en égard de la concurrence des normes, celle qui est plus favorable pour le travailleur.

Les relations de travail sont régies par une loi de contrat de travail et plusieurs juridictions complémentaires. Cependant, chaque secteur de production a ses propres règles pour régir les relations sans pour autant violer ladite loi de contrat de travail.

En outre, il existe des conventions collectives de travail qui sont appliquées à de différents groupes professionnels. Ces accords qui sont convenus entre les deux parties (employeurs versus employés) doivent être impérativement approuvés par l’État.



top