Se recomienda diferenciar el significado de estos dos términos. Naturismo es la ‘doctrina que preconiza el empleo de los agentes naturales para la conservación de la salud y el tratamiento de las enfermedades’, según el diccionario académico. Además, tal como señala el Diccionario del español actual,...