Page 7 - Revista Tics RG-LS completa
P. 7





automáticamente, objetivos bastante impresionantes Figura 2: Red con cuatro capas.
que se acercan cada vez más a la idea original son
reproducir la actividad del cerebro humano en La Fig. 2 ejemplo de red de cuatro capaz, de entrada,
computadora. Ahora, ¿cuáles son estos modelos? salida y capaz ocultas.
¿Cómo puede una computadora imitar el proceso de
aprendizaje y terminar desarrollando una “cosa” que Las neuronas de la primera capa reciben datos reales
funcione? que alimentan la red neuronal como entrada. Por eso
la primera capa se llama capa de entrada. La salida de
Redes neuronales artificiales basadas en el la última capa es el resultado visible de la red, por eso
funcionamiento de redes neuronales biológicas. Las la última capa se llama capa de salida. Las capas entre
células nerviosas que todos tenemos en nuestro las capas de entrada y salida se denominan capas
cerebro están formadas por dendritas, somas y axones: ocultas porque no conocemos los valores de entrada y
los axones son responsables de captar los impulsos salida.
nerviosos emitidos por otras neuronas. Estos impulsos
son procesados en el soma y transmitidos por el axón, Por lo tanto, una red neuronal siempre consta de una
que envía el impulso nervioso a las neuronas vecinas. capa de entrada, una capa de salida (si solo hay una
capa en la red neuronal, la capa de entrada corresponde
A nivel esquemático, una neurona artificial se a la capa de salida) y puede contener 0 o más capas
representa del siguiente modo: ocultas. El concepto de Deep Learning nació del uso
de una gran cantidad de capas ocultas en la red.

1.2 Historia de las redes neuronales

Ser capaz de diseñar y fabricar máquinas que puedan
ejecutar procesos con cierto grado de inteligencia ha
sido siempre uno de los principales objetivos de los
científicos en la historia.

1936 - Alan Turing. No tardó en concentrarse en el
Figura 1: Nivel esquemático de una neurona artificial. cerebro como perspectiva del universo de registro.
La Fig. 1 emula un sistema nervioso de una Warren McCulloch, y Walter Pitts: Mostraron una
adaptabilidad al entrono, memoria distribuida. organización neuronal sencilla utilizando circuitos
eléctricos.
En el caso de las neuronas artificiales, la suma de las
entradas multiplicadas por sus pesos asociados 1950 - Karl Lashley. Observó que los datos se
determina el "impulso nervioso" que recibe la neurona. difundían por la mente.
Este valor se procesa dentro de la célula mediante una
función de activación que devuelve un valor enviado a 1956 - Congreso de Dartmouth. Se hace referencia a
la salida de la neurona. este congreso para mostrar la introducción a la
inteligencia artificial.
De la misma manera que nuestro cerebro está formado
por neuronas interconectadas, una red de neuronas 1957 - Frank Rosenblatt. Inició la mejora del
artificiales está formada por neuronas artificiales Perceptrón, la organización neuronal más veterana.
interconectadas y se agrupan en diferentes niveles
llamados capas: 1960 - Bernard Widrow. Impulsó el modelo Adaline,
la principal organización neuronal aplicada a un tema
“Una capa es una colección de neuronas cuya entrada genuino.
proviene de la capa anterior (o datos de entrada en el
caso de la primera capa) primero) y su salida es la 1961 - Karl Steinbeck: Organización neuronal para el
entrada de la siguiente capa" [1]. reconocimiento especializado básico.

En la siguiente imagen podemos ver una red con 1974 - Paul Werbos. Fomentó el pensamiento
cuatro capas: fundamental del cálculo del aprendizaje.

1977 - Stephen Grossberg. Teoría de la resonancia
versátil (ART).

1980 - Kunihiko Fukushima. Fomentó un modelo
neuronal para el reconocimiento de ejemplos visuales.

Actualmente se ha trabajado mucho y hay empresas
que han lanzado nuevos productos al mercado
5

   2   3   4   5   6   7   8   9   10   11   12