Resposta :
Resposta:
Os franceses fazem parte da história do Brasil desde o seu descobrimento. Mas, apesar do intenso comércio e das tentativas de colonizações, a maior influência foi no campo do pensamento e das artes, principalmente por conta dos portugueses, que trouxeram a cultura francesa para a colônia
Explicação:
Espero ter ajudado :3