Bienvenido a Escolar.com
escol@r.com - sección apuntes
Buscar en Escolar.com

Apuntes: Características de las neuronas
Contribución de cesar el Sunday, June 17 @ 20:41:12 EST
Apuntes Biologia

 

Neurona es el nombre que se da a la célula nerviosa y a todas sus prolongaciones. Son células excitables especializadas para la recepción de estímulos y la conducción del impulso nervioso. Su tamaño y forman varían considerablemente.

Cada una posee un cuerpo celular desde cuya superficie se proyectan una o más prolongaciones denominadas neuritas. Las neuritas responsables de recibir información y conducirla hacia el cuerpo celular se denominan dendritas. La neurita larga única que conduce impulsos desde el cuerpo celular; se denomina axón. Las dendritas y axones a menudo se denominan fibras nerviosas. Las neuronas se hallan en el encéfalo, médula espinal y ganglios. Al contrario de las otras células del organismo, las neuronas normales en el individuo maduro no se dividen ni reproducen.

Las neuronas cumplen la función de recibir e integrar información y de enviar señales a otros tipos de células excitables a través de contactos sinápticos.

Clasificación de las Neuronas

Las neuronas se clasifican desde el punto de vista morfológico en cuatro tipos principales según su forma y la distribución de sus proyecciones.

Las neuronas unipolares: Poseen una sola proyección y son raras en los vertebrados, salvo al principio del desarrollo embrionario.

Las neuronas bipolares: Poseen dos proyecciones que salen del soma, una sola dendrita y un solo axón. Las neuronas bipolares están localizadas en los ganglios vestibular y coclear y en el epitelio olfatorio de la cavidad nasal.

Neuronas seudounipolares: Poseen una sola proyección que sale del cuerpo celular, pero esta proyección se ramifica más tarde en una rama periférica y una central. La rama central entra en el SNC, y la rama periférica procede hacia su destino en el cuerpo.

Las neuronas se clasifican también en tres grupos generales según su función:

Neuronas sensitivas (aferentes): Reciben estimulación sensitiva a nivel de sus terminaciones dendríticas y conducen impulsos hacia el SNC para su procesamiento. Las localizadas en la periferia del cuerpo vigilan los cambios en el ambiente, y las que se encuentran dentro del cuerpo vigilan el ambiente interior.

Neuronas motoras (eferentes): Se originan en el SNC y conducen sus impulsos hacia músculos, glándulas y otras neuronas.

Las interneuronas: Están localizadas dentro del SNC, funcionan como interconectoras o integradoras que establecen redes de circuitos neuronales entre las neuronas sensitivas y motoras y otras interneuronas.

Aplicación

El origen de las redes de neuronas se encuentra en la representación de la neurona biológica por McCulloch y Pitts en 1943. Una RN con un gran número de unidades en interacción es esquematizada en la siguiente figura.

Este modelo considera que una neurona puede ser representada por una unidad binaria : a cada instante su estado puede ser activo o inactivo. En otros modelos, el estado de la neurona es descrito por una variable continua. La interacción entre las neuronas se lleva a cabo a través de sinapsis (o pesos sinápticos). Según el signo, la sinapsis es excitadora o inhibidora.

El perceptron está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptron es la red neuronal más simple posible: aquella donde no existen capas ocultas. Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptron obedece a la siguiente dinámica: se suman los po-tenciales sinápticos y se comparan con un umbral de activación.

Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva. Con una arquitectura tan simple como la del perceptron no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquéllos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc. Si se quieren realizar funciones más complejas con RN, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada "feedforward": con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.

El funcionamiento de una RN es gobernado por reglas de propagación de actividades y de actualización de los estados. Teóricamente, una RN puede ser vista como un modelo que realiza una función de un espacio de entrada hacia un espacio de salida. El objetivo de esta modelización, consiste en que la asociación sea lo más acorde posible con el medio ambiente del fenómeno estudiado.

La inmensa ventaja de los métodos conexionistas, basados en unidades neuronales y enlaces sinápticos, comparado con los métodos tradicionales de Inteligencia Artificial (IA) es la siguiente: no es necesario conocer ni una expresión ni una construcción de la función a modelar, tan sólo se requiere disponer de un conjunto de ejemplos satisfactorio (conjunto de aprendizaje) para que la red pueda aproximar esta función aplicando una regla de aprendizaje. Es por ello que las redes de neuronas son ampliamente utilizadas en aplicaciones tan variadas como la previsión, la predicción, la clasificación, el diagnóstico automático, el procesamiento de señales, el reconocimiento de formas, la compresión de datos, la optimización combinatoria, la robótica, la búsqueda de documentos, entre otras. La mayor parte de las reglas de aprendizaje se fundan en el ajuste iterativo de las conexiones, pero otras pueden modificar la arquitecturas misma de la red. Un modelo conexionista es definido por el tipo de neuronas, por la arquitectura y por una regla de aprendizaje.

Las características comunes y deseables a todos estos modelos son: un fuerte potencial de autoorganización, una cierta robustez frente a perturbaciones externas (memoria distribuida, deslocalizada y redundancia de información), un paralelismo masivo e inherente. Sin embargo, los modelos difieren entre sí por diversos aspectos: sus motivaciones biológicas, su modo de funcionamiento o su campo de aplicaciones.




 
.
.