¿Por qué los Estados Unidos aceptaron la dominación alemana sobre Europa continental, pero los Estados Unidos no aceptaron la dominación del Reino Unido sobre el mundo?

Políticamente, los EE. UU. Se interesaron extremadamente poco en el Imperio Británico o, de hecho, en cualquiera de los imperios europeos, excepto en algunos casos en los que tenía un motivo específico de interés propio para cambiarlos, como la Compra de Luisiana y el Tratado de Florida.

Su falta de reacción a la expansión alemana en Europa en la década de 1930 y principios de 1940 fue una continuación de esta actitud generalmente aislacionista.

Si, por la no aceptación de los Estados Unidos de la “dominación” del Reino Unido, te refieres a la Guerra de Independencia de los Estados Unidos, bueno, eso no se trató realmente de resistir la dominación del mundo del Reino Unido.

No se trató de una guerra contra el concepto de que Gran Bretaña tuviera un imperio, solo una guerra que se luchó para asegurarse la independencia en una parte del imperio, las colonias americanas.

Por cierto, no estoy usando “egoísta” como un término peyorativo aquí, antes de que nadie se oponga.

No estoy completamente seguro de lo que quieres decir, pero …

Los EE. UU. Entraron en la Segunda Guerra Mundial cuando Japón atacó Pearl Harbor, tenían pocas opciones para entrar en la guerra.

Estados Unidos declaró su independencia del Reino Unido, pero que yo sepa, fue algo aislacionista después de eso, y no tuvo una opinión sobre el resto del Imperio Británico, prácticamente se mantuvo al margen.

¿Cuándo aceptó Estados Unidos el dominio alemán sobre Europa continental? La última vez que Alemania se hizo cargo de grandes partes de Europa, Estados Unidos y otros aliados invadieron Europa en 1944 para derrotarlos.

¿O se trata de una tontería de “la UE es una estratagema de poder alemana”?

Tu pregunta no tiene ningún sentido. Debe explicar lo que quiere decir y, como mínimo, agregar un marco de tiempo para que podamos tratar de averiguar de qué está hablando.