Page 16 - Proyecto Texto_E-Book_Kevin Cueva & Eyton Samaniego_
P. 16





hoy debido a los logros que crean. Ejemplo: Google
venció su propio reCAPTCHA con una red neuronal,
en Stanford lograron generar subtítulos
automáticamente, objetivos bastante impresionantes
que se acercan cada vez más a la idea original son
reproducir la actividad del cerebro humano en
computadora. Ahora, ¿cuáles son estos modelos?
¿Cómo puede una computadora imitar el proceso de
aprendizaje y terminar desarrollando una “cosa” que
funcione? Figura 2: Red con cuatro capas.

Redes neuronales artificiales basadas en el La Fig. 2 ejemplo de red de cuatro capaz, de entrada,
funcionamiento de redes neuronales biológicas. Las salida y capaz ocultas.
células nerviosas que todos tenemos en nuestro
cerebro están formadas por dendritas, somas y axones: Las neuronas de la primera capa reciben datos reales
los axones son responsables de captar los impulsos que alimentan la red neuronal como entrada. Por eso
nerviosos emitidos por otras neuronas. Estos impulsos la primera capa se llama capa de entrada. La salida de
son procesados en el soma y transmitidos por el axón, la última capa es el resultado visible de la red, por eso
que envía el impulso nervioso a las neuronas vecinas. la última capa se llama capa de salida. Las capas entre
A nivel esquemático, una neurona artificial se las capas de entrada y salida se denominan capas
representa del siguiente modo: ocultas porque no conocemos los valores de entrada y
salida.

Por lo tanto, una red neuronal siempre consta de una
capa de entrada, una capa de salida (si solo hay una
capa en la red neuronal, la capa de entrada corresponde
a la capa de salida) y puede contener 0 o más capas
ocultas. El concepto de Deep Learning nació del uso
de una gran cantidad de capas ocultas en la red.

1.2 Historia de las redes neuronales
Figura 1: Nivel esquemático de una neurona artificial.
Ser capaz de diseñar y fabricar máquinas que puedan
La Fig. 1 emula un sistema nervioso de una ejecutar procesos con cierto grado de inteligencia ha
adaptabilidad al entrono, memoria distribuida. sido siempre uno de los principales objetivos de los
científicos en la historia.
En el caso de las neuronas artificiales, la suma de las
entradas multiplicadas por sus pesos asociados 1936 - Alan Turing. No tardó en concentrarse en el
determina el "impulso nervioso" que recibe la neurona. cerebro como perspectiva del universo de registro.
Este valor se procesa dentro de la célula mediante una
función de activación que devuelve un valor enviado a Warren McCulloch, y Walter Pitts: Mostraron una
la salida de la neurona. organización neuronal sencilla utilizando circuitos
eléctricos.
De la misma manera que nuestro cerebro está formado
por neuronas interconectadas, una red de neuronas 1950 - Karl Lashley. Observó que los datos se
artificiales está formada por neuronas artificiales difundían por la mente.
interconectadas y se agrupan en diferentes niveles
llamados capas: 1956 - Congreso de Dartmouth. Se hace referencia a
este congreso para mostrar la introducción a la
“Una capa es una colección de neuronas cuya entrada inteligencia artificial.
proviene de la capa anterior (o datos de entrada en el
caso de la primera capa) primero) y su salida es la 1957 - Frank Rosenblatt. Inició la mejora del
entrada de la siguiente capa" [1]. Perceptrón, la organización neuronal más veterana.

En la siguiente imagen podemos ver una red con 1960 - Bernard Widrow. Impulsó el modelo Adaline,
cuatro capas: la principal organización neuronal aplicada a un tema
genuino.

1961 - Karl Steinbeck: Organización neuronal para el
reconocimiento especializado básico.

1974 - Paul Werbos. Fomentó el pensamiento
fundamental del cálculo del aprendizaje.
16

   11   12   13   14   15   16   17   18   19   20   21