Définition du mot

hégémonie

Que veut dire le mot hégémonie ?

Le mot hégémonie désigne la position dominante d’un pays, d’un peuple, parfois d’une ville, sur les autres. Cette position dominante s’exerce dans un secteur donné. Ce mot est synonyme de suprématie, de domination.

On parle par exemple d’hégémonie militaire (un pays donné est le plus avancé militairement), d’hégémonie culturelle (la culture du pays en question rayonne à travers le monde), d’hégémonie idéologique.

On peut aussi préciser de quel pays ou de quelle région on parle : l’hégémonie américaine après la Seconde Guerre mondiale, l’hégémonie occidentale, l’hégémonie chinoise en Asie.

Hégémonie ne s’emploie pas toujours au sujet des rapports de force à l’échelle mondiale, mais aussi à un niveau plus local, par exemple à propos de la concurrence entre entreprises. Quand une entreprise est en position d’hégémonie, ça veut dire qu’elle écrase ses concurrentes, qu’elle les domine largement.

Voir également

Orthodidacte, bien plus qu’un dictionnaire !

Vous aimez nos articles de dictionnaire ? 😍 Vous les trouvez simples et clairs à comprendre ?

Alors notre plateforme de formation est faite pour vous ! Conçus de la même manière, nos cours et exercices permettent de s’améliorer en français sans prise de tête. Redécouvrez le français et prenez plaisir à progresser pour des écrits sans fautes.

🍒 Et cerise sur le gâteau, Orthodidacte est spécialisé dans les écrits professionnels : de quoi donner un coup de pouce à votre carrière ! 💪

Retrouvez toutes nos offres de formation sur Orthodidacte.com !

Découvrir Orthodidacte