Que veut dire le mot hégémonie ?
Le mot hégémonie désigne la position dominante d’un pays, d’un peuple, parfois d’une ville, sur les autres. Cette position dominante s’exerce dans un secteur donné. Ce mot est synonyme de suprématie, de domination.
On parle par exemple d’hégémonie militaire (un pays donné est le plus avancé militairement), d’hégémonie culturelle (la culture du pays en question rayonne à travers le monde), d’hégémonie idéologique.
On peut aussi préciser de quel pays ou de quelle région on parle : l’hégémonie américaine après la Seconde Guerre mondiale, l’hégémonie occidentale, l’hégémonie chinoise en Asie.
Hégémonie ne s’emploie pas toujours au sujet des rapports de force à l’échelle mondiale, mais aussi à un niveau plus local, par exemple à propos de la concurrence entre entreprises. Quand une entreprise est en position d’hégémonie, ça veut dire qu’elle écrase ses concurrentes, qu’elle les domine largement.
Camille Martinez
Publié le 01/10/2022
Dernière modification le 01/03/2023
Rédigé par des humains, pour des humains