FKK-Geschichte © Fotolia

Das deutsche Wort FKK (Freikörperkultur) bedeutet im Prinzip Nudismus mit einem starken Gemeinschaftsaspekt, der sich oftmals in der Bildung verschiedener FKK-Vereine niederschlägt.

Leave a Reply