Significado de anatomia
Significado de anatomia
Significado : anatomia f. Ciencia que estudia la estructura, situacion y relaciones de las diferentes partes de los cuerpos organicos, especialmente el humano.
Seleccione otra Palabra
Definicion de anatomia : significado de anatomia en el Diccionario, Descripcion de anatomia
Copyright (C) 1999- 2007 Diccionarios de Escolar.com, All Rights Reserved