Ist das wirklich das, was wir dem Westen erlauben, zu werden? Wer in seinem rechten Verstand denkt, dass das hier förderlich für unsere Gesellschaften ist? England, eine große Nation und einst globaler Hegemon, ein christliches Land - sieht so aus? Und die Vereinigten Staaten, das größte Land in der Geschichte der Welt, das globale Imperium, eine christliche Nation - folgen dem Beispiel. Das muss überall aufhören.