¿Qué significa la palabra enfermería?
La palabra "enfermería" significa una instalación médica para el tratamiento de enfermedades o lesiones menores, generalmente ubicada en una escuela, universidad, lugar de trabajo industrial u otras instituciones similares. Por lo general, es más pequeño y menos completo que un hospital y, a menudo, brinda atención médica básica, como primeros auxilios, cuidado de heridas, dispensación de medicamentos y consultas generales.