Juancho preguntado en Arte y humanidadesHistoria · hace 8 años

¿que tuvieron que ver los franceses con la conquista de norteamerica?

1 respuesta

Calificación
  • FelixR
    Lv 7
    hace 8 años
    Respuesta preferida

    Los franceses habían iniciado la penetración en norteamérica desde la ápoca del rey Luis ( Luisina y la costa del golfo de México eran francese, New Orleans y el Missisipi fueron colonizados por exploradores y tramperos franceses. En las guerras de independencia los franceses apoyaron a los aborñigenes americanos ( algonquinos e iroqueses ) contra los casacas rojas o sea Ingleses.

    Pasada la guerra, los franceses negociaron con los nuevos dueños del territorio las colonias del sur y estas formaron parte de las nuevas provincias de lanueva mación americana.

    Media Canadá es francés y todavía se habla francés en ella y si vas a Nueva orleans allñí se habla francés.

    Saludos

¿Aún tienes preguntas? Pregunta ahora para obtener respuestas.