quinta-feira, 18 de março de 2010

HISTÓRIA DO FUTEBOL BRASILEIRO

O futebol começou a ser praticado somente com a elite do país. Diz-se que a primeira bola chegou ao Brasil trazida por Charles Miller em 1894. Nessa época ja começaram a fazer ligas e futebol onde a aristocracia dominava completamente, quando o esporte começo a surgir em várzeas.
Um fato curioso que se dava nessa época é que só as pessoas brancas podiam jogar o futebol profissionalmente, e isso era tão importante que um jogador, só para atuar profissionalmente chegou a passar pó-de-arroz na pele para se parecer branco, e ao longo o jogo, o suor o desmascarou e a farsa foi descoberta.
Na década de 20 que os jogadores negros começaram a ser aceitos no futebol profissional e o Vasco da Gama foi o primeiro clube de futebol a conquistar títulos com um plantel repleto de jogadores negros e pobres.
Na era Vargas que foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo em 1950 foram, por exemplo, na era Vargas. A conquista do mundial em 1958 comandado por negors como Didi e Pelé, ajudaram o futebol no Brasil a ratificar-se como principal elemento de identificação nacional, juntado em um único lugar pessoas de varias raças.

Nenhum comentário:

Postar um comentário