O Direito do Trabalho é uma área do Direito integrado por institutos, princípios e normas jurídicas que tem como foco as relações de trabalho no sistema brasileiro.
O direito trabalhista é responsável, também, por assegurar em sua legislação os direitos e deveres básicos do trabalhador e do empregador. Estes, devem,