A religião sempre teve um papel fundamental na formação da sociedade brasileira. Desde a colonização, valores religiosos, especialmente do Catolicismo Romano, ajudaram a moldar a forma como o país se desenvolveu, influenciando ideias de justiça e respeito. No início, o Brasil era um Estado confessional, o que significa que tinha uma religião oficial: o Catolicismo....

Ler notícia completa no site do autor ↗️