Page 42 - E-book Merizalde
P. 42





La Fig. 1 emula un sistema nervioso de una adaptabilidad al entrono, memoria distribuida.
En el caso de las neuronas artificiales, la suma de las entradas multiplicadas por sus pesos asociados determina el
"impulso nervioso" que recibe la neurona. Este valor se procesa dentro de la célula mediante una función de
activación que devuelve un valor enviado a la salida de la neurona.
De la misma manera que nuestro cerebro está formado por neuronas interconectadas, una red de neuronas
artificiales está formada por neuronas artificiales interconectadas y se agrupan en diferentes niveles llamados
capas:

“Una capa es una colección de neuronas cuya entrada proviene de la capa anterior (o datos de entrada en el caso
de la primera capa) primero) y su salida es la entrada de la siguiente capa" [1].
En la siguiente imagen podemos ver una red con cuatro capas:











Figura 2: Red con cuatro capas.
La Fig. 2 ejemplo de red de cuatro capaz, de entrada, salida y capaz ocultas.
Las neuronas de la primera capa reciben datos reales que alimentan la red neuronal como entrada. Por eso la
primera capa se llama capa de entrada. La salida de la última capa es el resultado visible de la red, por eso la última
capa se llama capa de salida. Las capas entre las capas de entrada y salida se denominan capas ocultas porque no
conocemos los valores de entrada y salida.
Por lo tanto, una red neuronal siempre consta de una capa de entrada, una capa de salida (si solo hay una capa en
la red neuronal, la capa de entrada corresponde a la capa de salida) y puede contener 0 o más capas ocultas. El
concepto de Deep Learning nació del uso de una gran cantidad de capas ocultas en la red.
1.2 Historia de las redes neuronales

Ser capaz de diseñar y fabricar máquinas que puedan ejecutar procesos con cierto grado de inteligencia ha sido
siempre uno de los principales objetivos de los científicos en la historia.
1936 - Alan Turing. No tardó en concentrarse en el cerebro como perspectiva del universo de registro.
Warren McCulloch, y Walter Pitts: Mostraron una organización neuronal sencilla utilizando circuitos eléctricos.

1950 - Karl Lashley. Observó que los datos se difundían por la mente.
1956 - Congreso de Dartmouth. Se hace referencia a este congreso para mostrar la introducción a la inteligencia
artificial.
1957 - Frank Rosenblatt. Inició la mejora del Perceptrón, la organización neuronal más veterana.

1960 - Bernard Widrow. Impulsó el modelo Adaline, la principal organización neuronal aplicada a un tema
genuino.
1961 - Karl Steinbeck: Organización neuronal para el reconocimiento especializado básico.

1974 - Paul Werbos. Fomentó el pensamiento fundamental del cálculo del aprendizaje.
   37   38   39   40   41   42   43   44   45   46   47