Significado de Autoritarismo
El autoritarismo es la creencia o la práctica del gobierno ‘desde arriba’, en el que la autoridad se ejerce sobre una población con o sin su consentimiento. El autoritarismo difiere, pues, de la autoridad. Esta última se basa en la legitimidad y, en ese sentido, surge “desde abajo”. Los pensadores autoritarios suelen basar sus opiniones en la creencia en la sabiduría de los líderes establecidos o en la idea de que el orden social sólo puede mantenerse mediante la obediencia incondicional. Sin embargo, el autoritarismo suele distinguirse del totalitarismo. La práctica del gobierno ‘desde arriba’, que se asocia con el absolutismo monárquico, las dictaduras tradicionales y la mayoría de las formas de gobierno militar, tiene que ver con la represión de la oposición y la libertad política, más que con el objetivo más radical de eliminar la distinción entre el Estado y la sociedad civil.