La IA no nació como producto. Nació como una hipótesis.
La inteligencia artificial no comenzó con ChatGPT ni con los modelos generativos que hoy dominan la conversación pública.
Comenzó formalmente en 1956, en Dartmouth College, durante un taller académico donde John McCarthy acuñó el término Artificial Intelligence.
La premisa era clara y radical:
“Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.”
— John McCarthy, Dartmouth Proposal (1955)
No hablaban de eficiencia, automatización ni mercado.
Hablaban de simular la inteligencia humana.
Ese origen importa, porque la IA no nació para reemplazar tareas, sino para responder una pregunta mucho más ambiciosa —y problemática—:
¿puede el pensamiento reducirse a una descripción formal?
El error fundacional: confundir inteligencia con lógica
Los primeros investigadores —McCarthy, Minsky, Newell, Simon— compartían una convicción común:
si pensar era razonar, y razonar podía expresarse mediante reglas lógicas, entonces la inteligencia era computable.
Así nació la IA simbólica:
- sistemas expertos
- reglas “si-entonces”
- representación explícita del conocimiento
Herbert Simon llegó a afirmar en 1957:
“Within ten years a digital computer will be the world’s chess champion.”
Tenía razón en el resultado, pero no en la conclusión.
El ajedrez funcionó porque es un sistema cerrado.
El mundo no lo es.
Cuando el mundo no cabe en reglas
La IA simbólica fracasó no por falta de talento, sino por exceso de simplificación.
- El lenguaje es ambiguo
- El contexto importa
- Las personas se contradicen
- Gran parte del pensamiento humano no es consciente ni explícito
Marvin Minsky lo admitiría más tarde:
“The AI problem is one of the hardest problems ever undertaken.”
Los llamados AI Winters no fueron solo crisis presupuestarias.
Fueron crisis epistemológicas.
La pregunta dejó de ser “¿cómo representamos la inteligencia?”
y pasó a ser algo mucho más pragmático:
¿qué pasa si dejamos de intentar entenderla?
Las expectativas originales: asistentes, diálogo y lenguaje natural
Aquí hay un detalle que suele olvidarse.
Desde muy temprano, la IA ya se imaginaba como interlocutora, no como motor estadístico.
En los años 60 y 70 se hablaba explícamente de:
- interacción por voz
- asistentes personales
- diálogo en lenguaje natural
- apoyo a la toma de decisiones humanas
En 1966, Joseph Weizenbaum creó ELIZA, un programa rudimentario que simulaba una conversación terapéutica. No entendía nada, pero producía algo inquietante: la sensación de ser escuchado.
Weizenbaum quedó alarmado por la reacción de los usuarios.
Incluso sabiendo que era una máquina, le atribuían comprensión.
La lección fue temprana y clara:
no hace falta inteligencia real para generar confianza cognitiva.
Basta con una buena interfaz lingüística.
La quinta generación: el futuro ya estaba imaginado
En los años 80, Japón lanzó el Fifth Generation Computer Systems Project (FGCS).
El objetivo no era velocidad de cálculo, sino:
- razonamiento automático
- sistemas expertos conversacionales
- procesamiento de lenguaje natural
- asistentes inteligentes
En esencia, el mismo horizonte que hoy celebramos.
El proyecto fracasó técnicamente, pero dejó una verdad incómoda:
la visión no era errónea; la infraestructura era insuficiente.
La IA no necesitaba mejores ideas.
Necesitaba más datos.
El verdadero punto de quiebre no fue el algoritmo
Mientras la IA académica se estancaba, ocurrió algo mucho más decisivo fuera de los laboratorios:
digitalizamos la vida cotidiana.
Correos.
Búsquedas.
Redes sociales.
Compras.
Ubicación.
Lenguaje.
No por ciencia.
Por eficiencia, mercado y comodidad.
Cada interacción dejó rastro.
Cada rastro se almacenó.
Cada almacenamiento se volvió entrenable.
La IA no avanzó porque entendimos la inteligencia.
Avanzó porque convertimos la experiencia humana en datos masivos.
Del razonamiento a la predicción
(el cambio profundo que rara vez se discute)
Este es el punto más importante de toda esta historia, y casi nunca se analiza con suficiente profundidad.
Durante décadas, la pregunta fue:
¿cómo enseñamos a una máquina a razonar?
A partir de los años 90, la pregunta cambió silenciosamente:
¿y si dejamos que la máquina aprenda patrones sin entenderlos?
El machine learning no busca explicar el mundo.
Busca ajustarse estadísticamente a él.
Esto implica una renuncia explícita:
- no comprender causas
- no construir modelos conceptuales
- no buscar significado
Solo optimizar predicciones.
Los sistemas ya no saben qué es algo.
Saben qué suele venir después.
Lenguaje natural no como semántica, sino como distribución de probabilidades.
Este cambio es profundo porque redefine qué entendemos por “inteligencia”:
deja de ser comprensión y pasa a ser aproximación funcional.
Y funcionó.
El triunfo de la utilidad sobre el entendimiento
La IA moderna no triunfa porque piense como humanos, sino porque:
- opera a una escala inhumana
- tolera errores individuales
- maximiza resultados agregados
Una respuesta incorrecta ocasional es aceptable
si el sistema optimiza millones de interacciones.
Aquí ocurre otro desplazamiento silencioso:
la verdad deja de ser central; la utilidad estadística ocupa su lugar.
Este no es un detalle técnico.
Es un cambio cultural.
Datos: trabajo invisible, capital acumulable
Los datos no son “el nuevo petróleo”.
Esa metáfora es cómoda, pero engañosa.
El petróleo existe sin nosotros.
Los datos no.
Los datos son:
- comportamiento humano
- lenguaje cotidiano
- atención sostenida
- decisiones micro
Son trabajo cognitivo no reconocido.
Cada clic, cada scroll, cada captcha resuelto, cada interacción con una interfaz entrena sistemas que otros poseen.
No por coerción.
Por diseño.
La IA como sistema de acumulación
Aquí entra la economía política sin adornos.
La IA requiere:
- grandes volúmenes de datos
- infraestructuras costosas
- centralización técnica
Eso favorece a quienes controlan:
- plataformas
- capital
- capacidad extractiva
La IA no descentraliza el poder.
Lo concentra, aunque su interfaz parezca accesible.
El conocimiento deja de residir en personas o instituciones.
Se encapsula en modelos propietarios.
El detalle que casi nadie menciona
La IA no solo automatiza tareas.
Automatiza decisiones sobre decisiones.
No te dice qué hacer.
Te dice qué es razonable hacer.
Ese es el verdadero desplazamiento de poder.
Cierre: antes de la revolución, la acumulación
Antes de GPT, antes del debate público, antes del asombro colectivo, la IA ya había logrado algo más profundo que inteligencia artificial:
- convertir experiencia humana en datos
- transformar conocimiento en predicción
- reorganizar el poder alrededor de infraestructuras invisibles
Nada de esto fue accidental.
Nada fue inevitable.
Fue el resultado lógico de décadas de decisiones técnicas, económicas y culturales.
La Parte I termina aquí, no con un nacimiento espectacular, sino con una constatación incómoda:
La IA no apareció de repente.
La construimos lentamente, mientras la normalizábamos.
El presente —y el futuro— solo pueden entenderse desde este origen