Mondial 2014: Les États-Unis sont-il devenus un pays de foot?

  • il y a 10 ans
Dans l'esprit des Américain, le «football» n'est pas celui pratiqué en Europe, loin de là. Pourtant le «soccer» comme ils l'appellent est de plus en plus populaire et les foules se passionnent pour le parcours des Yanks au Brésil.
Durée: 03:26.

Recommandée