La Conferencia de Dartmouth: nace la inteligencia artificial
En el verano de 1956, diez científicos se reunieron durante seis semanas en el Dartmouth College de Hanover, New Hampshire. La propuesta del taller, redactada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, incluía una premisa audaz:
“Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tal precisión que se puede construir una máquina para simularla.”
Con esa frase, nació oficialmente la inteligencia artificial como disciplina. El nombre fue idea de McCarthy, que lo eligió deliberadamente para distinguir el campo de la cibernética y la teoría de autómatas.
Los asistentes
La lista de participantes era un quién es quién de la ciencia computacional:
- John McCarthy — acuñó el término “inteligencia artificial”, creó el lenguaje LISP
- Marvin Minsky — cofundador del MIT AI Lab, teórico de las redes neuronales
- Claude Shannon — padre de la teoría de la información
- Nathaniel Rochester — diseñador del IBM 701, primer ordenador comercial de IBM
- Allen Newell y Herbert Simon — creadores del Logic Theorist, el primer programa que demostraba teoremas matemáticos
El optimismo fundacional
El taller no produjo un avance técnico concreto, pero sí algo más valioso: un programa de investigación compartido. Los participantes acordaron que la inteligencia podía ser formalizada y que las máquinas podían exhibirla.
Herbert Simon llegó a predecir en 1957:
“En diez años, una computadora será campeona mundial de ajedrez.”
Se equivocó por cuarenta años — Deep Blue derrotó a Kasparov en 1997 — pero la dirección era correcta.
Las semillas
De Dartmouth surgieron las líneas de investigación que dominarían las siguientes décadas:
- Razonamiento simbólico: representar el conocimiento como reglas lógicas manipulables
- Resolución de problemas: búsqueda en árboles, heurísticas, planificación
- Procesamiento del lenguaje natural: hacer que las máquinas comprendan y generen texto
- Aprendizaje automático: la idea de que las máquinas podrían aprender de los datos, no solo de reglas explícitas
La paradoja de Dartmouth
Los fundadores subestimaron la dificultad del problema. Creían que un verano de trabajo podría producir avances significativos. En realidad, muchos de los problemas que plantearon — comprensión del lenguaje, percepción visual, sentido común — siguen siendo desafíos abiertos casi setenta años después.
Pero su ambición estableció el horizonte. Sin Dartmouth, la IA no existiría como campo unificado. Existirían fragmentos dispersos de investigación en lógica, estadística y computación, sin un objetivo común que les diera coherencia.