✻️

Médicas pioneiras do Brasil

A atuação da mulher no mercado de trabalho, em todas as áreas, só começa a ser observada no século XX, principalmente a partir da Primeira Guerra Mundial, quando as viúvas dos combatentes passaram a assumir a responsabilidade de manutenção de sua família, ocupando postos em fábricas e comércios. Da mesma forma, a instrução feminina foi, durante muitos séculos na cultura ocidental, voltada somente às atividades do lar e da maternidade, relegando a mulher a uma condição de dependência do pai ou do marido — o que chamamos de modelo de sociedade patriarcal.

Apesar de casos isolados de mulheres no mercado de trabalho e na academia ao longo do século XIX e no início do século XX, foi apenas a partir dos anos 1960 que elas passaram a atuar com mais força nessas áreas. Ainda hoje, em muitos campos, há prevalência de homens no mercado e ainda é comum que o salário deles seja maior. Homens também têm mais acesso aos cargos de direção e chefia.

Na medicina não é diferente. Desde o século XIX, médicas já eram formadas no Brasil, porém, durante anos, em menor número que homens. Este cenário tende a mudar cada vez mais. As transformações culturais e econômicas que chegaram com o século XXI levam a mulher a dividir com o homem de forma igualitária o papel de mantenedora do lar e a ser vista como igualmente capaz em termos profissionais, dotada das mesmas habilidades e com direitos iguais.