Natürlich gibt es noch mehr herrliche Länder in Europa, die man alleine bereisen kann und das auch tun sollte. Frankreich ist eines davon und man kann es nur empfehlen. Es gibt diese viel besagte feindliche Haltung den Deutschen gegenüber kaum, ganz im Gegenteil. Vor allem im Süden Frankreichs werdet ihr euch sehr wohl fühlen, denn sie mögen die Touristen aus Deutschland sehr gerne. Also besucht die Großstädte im Norden des Landes oder erlebt die herrliche Natur im Süden.
Besonders allein reisende Frauen müssen keine Angst haben, hier irgendwie komisch behandelt zu werden, denn Frankreich, französische Frauen sind ja praktisch die Gründerinnen der Emanzipation auf unserem Kontinent und dementsprechend wird man hier auch wohlwollend aufgenommen. Natürlich sind auch Männer stets willkommen, ein Bekannter wollte im Süden Frankreichs nur Urlaub machen und blieb dort für 2 Jahre, weil die Menschen so freundlich waren, womit er nie gerechnet hätte. Also ab nach Frankreich und das Land selbst erkunden.