El Amanecer de las Neuronas Artificiales: Del Perceptrón al Primer Invierno
Mucho antes de que ChatGPT escribiera poemas o Midjourney generara arte, la Inteligencia Artificial era apenas un sueño matemático en la mente de unos pocos pioneros. ¿Cómo pasamos de cables y válvulas de vacío a cerebros digitales? Esta es la historia de la primera era de las redes neuronales.
1. La Lógica del Cerebro (1943)
Todo comenzó en plena Segunda Guerra Mundial. El neurofisiólogo Warren McCulloch y el lógico Walter Pitts publicaron un artículo revolucionario: “A Logical Calculus of the Ideas Immanent in Nervous Activity”.
Propusieron el primer modelo matemático de una neurona biológica. Su idea era simple pero poderosa: una neurona es una unidad lógica que se activa (1) o no (0) dependiendo de si la suma de sus entradas supera un cierto umbral. Demostraron que una red de estas neuronas podía calcular cualquier función lógica fundamental (AND, OR, NOT).
El legado: Aunque no aprendían, establecieron que el pensamiento podía ser modelado computacionalmente.
2. El Mark I Perceptrón: La Máquina que Aprendía (1958)
Una década después, el psicólogo Frank Rosenblatt llevó la teoría a la práctica en el Laboratorio Aeronáutico de Cornell. Creó el Perceptrón, inspirado no en la lógica pura, sino en cómo el cerebro aprende a través de la experiencia (plasticidad sináptica).
Rosenblatt construyó el Mark I Perceptrón, una máquina física del tamaño de un piano, llena de cables y potenciómetros. Tenía una “retina” de 400 fotoceldas conectadas a neuronas artificiales.
- La innovación: A diferencia del modelo de McCulloch-Pitts, el Perceptrón tenía pesos ajustables. Si la máquina se equivocaba al clasificar una imagen (ej. un triángulo), se ajustaban los pesos automáticamente para corregir el error. ¡La máquina aprendía!
- El Hype: El New York Times citó a la Marina de EE.UU. diciendo que sería “el embrión de un ordenador capaz de caminar, hablar, ver, escribir y reproducirse”.
3. Adaline y la Ingeniería (1960)
Casi al mismo tiempo, Bernard Widrow y Marcian Hoff en Stanford desarrollaron ADALINE (Adaptive Linear Neuron). Usaba una regla de aprendizaje diferente (LMS - Least Mean Squares) basada en el descenso de gradiente, matemáticamente más estable que la del Perceptrón. Fue la primera red neuronal aplicada a un problema real: eliminar el eco en las líneas telefónicas, una tecnología que se usa hasta hoy.
4. El Muro Matemático y el Invierno (1969)
El optimismo era desbordante, pero las promesas de una IA general inminente no se cumplían. El golpe de gracia llegó en 1969 con el libro “Perceptrons” de Marvin Minsky y Seymour Papert, dos gigantes del MIT.
Demostraron matemáticamente una limitación fatal: los perceptrones de una sola capa (como los de Rosenblatt) eran clasificadores lineales. No podían resolver problemas tan simples como la función XOR (O exclusivo), donde los datos no se pueden separar con una línea recta.
El impacto: Aunque Minsky y Papert sabían que las redes multicapa podían teóricamente resolver esto, argumentaron que no había forma viable de entrenarlas.
La financiación del gobierno (DARPA) se secó. Los investigadores abandonaron el conexionismo en favor de la “IA Simbólica” (basada en reglas lógicas explícitas). Había llegado el Primer Invierno de la IA, una helada que duraría más de una década.
Continúa leyendo la serie sobre la Historia de las Redes Neuronales:
- Siguiente capítulo: El Renacimiento del Deep Learning: Backpropagation y la Revolución de las CNNs
- Capítulo final: La Era de la Atención: Cómo los Transformers y LLMs Conquistaron la IA