Walter Pitts salio de las calles al MIT, pero no pudo escapar de sí mismo.
La vida de Walter Pitts pasó de un vagabundo fugitivo, a pionero de la neurociencia del MIT, a alcohólico retraído.
En 1943 Warren McCulloch y Walter Pitts introdujeron una de las primeras neuronas artificiales. La referencia de dicho trabajo es la siguiente:
W. McCulloch and W. Pitts, “A logical calculus of the ideas immanent in nervous activity,” Bulletin of Mathematical Biophysics, Vol. 5, pp. 115–133, 1943.
Este articulo introduce el primer modelo matemático de una neurona, en la cual la suma ponderada de las señales de entrada es comparada con un umbral que determina la salida de la neurona. Cuando la suma es más grande o igual al umbral, la salida es . Cuando la suma es menor al umbral, la salida es . A diferencia de las redes biológicas, los parámetros de su red (pesos) se tenían que diseñar y no proporcionaron un método de entrenamiento. Sin embargo, fue el precedente sobre un campo interesante entre la conexión de la biología y las computadoras digitales.
A finales de la década de los 50`s del siglo pasado, Frank Rosenblatt y otros investigadores desarrollaron una clase de redes neuronales llamada perceptrones:
F. Rosenblatt, “The perceptron: A probabilistic model for information storage and organization in the brain,” Psycho- logical Review, Vol. 65, pp. 386–408, 1958.
Su modelo era parecido al de McCulloch y Pitts, pero además proponían una regla de aprendizaje para resolver el problema de reconocimiento de patrones. Posteriormente se mostró que este aprendizaje estaba limitado a resolver problemas de reconocimiento linealmente separables. Y no fue hasta la década de los 80`s del siglo pasado, que esta limitación se resolvió utilizando múltiples capas de perceptrones.
La colaboración de Warren McCulloch y Walter Pitts va más allá de la profesional. En el artículo de divulgación The Man Who Tried to Redeem the World with Logic, se resume un poco de la desgarradora vida de Pitts. En la lectura se podrá observar como Pitts colaboró con algunas de las grandes mentes del siglo XX. Para este problema es necesario realizar la lectura del articulo de divulgación mencionado. Para el control de dicha lectura, se responden las siguientes preguntas (lo principal es tu reflexión, que no se pide, sobre el contenido de la lectura):
La siguiente aplicación web, permite elegir graficamene una topologia de red (feedforward) para resolver problemas de clasificación y regresión prestablecidos.
La Figura 1 muestra la elección de una topología para resolver un problema (porporcionado en la aplicación) de clasificación. Se han elegido algunas capas ocultas1 y los demás parámetros de la red. Al comenzar en entrenamiento y deternerlo después de 143 epocas, los valores de los pesos se pueden consultar colocando el puntero sobre las lineas de cada capa.
Si bien se tienen dos entradas en cada problema de clasificación (en esta aplicación), la aplicación nos permite generar 5 entradas adicionales construidas con los dos datos de entrada, además tiene la opción de tomar estas entras artificiales como información adicional para entrenar la red. Es decir, se puede pensar que dado un problema con entradas se puede transforma a un problema de entradas, donde es el numero de datos construidos artificialmente transformando los datos iniciales. En el caso de la aplicación .
Conteste las siguiente preguntas
¿A qué se refiere que una red sea feedforward?
¿Cuantos problemas de clasificación y cuantos de regresión tiene prestablecidos la aplicación?
Investiga a que se refieren los siguientes elementos que aparecen en la aplicación2:
Es claro que la topologia elegida en la Figura 1 está sobrada. Pues tenemos un problema de clasificación linealmente separable. Resuelve este problema con una capa, una neurona, las dos estradas naturales, y la elección de tu preferencia de los demás parámetros (función de activación, Learnin rate, etc.), no es necesario justificar la elección de los parámetros.
Juega con la aplicación. Resuelve los problemas de clasificación restantes, utilizando la menor cantidad de capas posibles y la menor cantidad de neuronas posibles en cada capa3. Todos los demás parámetros se pueden elegir a tu consideración (entradas, función de activación, Learnin rate, etc.) no es necesario justificar la elección de los parámetros. Reporta solo las imagenes correspondientes, donde se pueda apreciar que se llevó acabo el entrenamiento de forma exitosa.
Ingresa al siguiente curso Introduction to Machine Learning4. Revisa la información ubicada en Week 2: Perceptrons. Es necesario decir que no se vale revisar las soluciones 😄. Pero si puedes comprobar las veces que sea necesario tu resultado con la herramienta proporcionada en la plataforma 😀. No se supervisa la revisión del material indicado, pero ojalá esta se realice.
La entrega consiste en
1.Por el momento pensemos que si se tiene más de una capa, el entrenamiento se lleva acabo de alguna manera, que por el momento no nos importa especificar. ↩
2.Explicación breve, si lo consideras necesario anota ecuaciónes como ejemplo ↩
3.Varias topologias resolverán el problema, queremos la más secilla que puedas construir, en este caso nos referimos a sencilla en el sentido de minimizar el numero de capas y neuronas
↩
4.La creación de una cuenta e ingresar al curso es gratis ↩
5.En el futuro regresaras a resolver los problemas relacionados con Python ↩