¿Qué significa educación física?

La educación física es una de las áreas del conocimiento humano vinculadas a las actividades de estudio y de mejora, mantenimiento o rehabilitación de la salud del cuerpo de humano.

La educación física trabaja, en un sentido amplio, con prevención de determinadas enfermedades. Es el área de actuación del profesional formado en la Facultad de Educación Física. Es un término usado para designar tanto el conjunto de actividades físicas no competitivas y deportes con fines recreativos como la ciencia que fundamenta la correcta práctica de esas actividades, resultado de una serie de estudios y procedimientos establecidos.

— 142 visualizaciones.

3 Comentarios ¿Cuál es el sistema de gobierno en Inglaterra?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *