IA, poder y la ilusión del progreso técnico

Durante 2025 se volvió cada vez más común escuchar la misma frase, repetida con distintos tonos: “Las marcas personales ya...

IA, poder y la ilusión del progreso técnico

Durante años hablamos de inteligencia artificial como si fuera una promesa futura.
Algo que algún día pensaría como nosotros, o mejor que nosotros.
Ese marco ya no sirve.
La pregunta relevante hoy no es si la IA piensa, sino desde cuándo empezamos a pensar a través de ella.
En la Parte I recorrimos la historia: hitos técnicos, avances teóricos, momentos fundacionales. Todo eso fue necesario para llegar aquí. Pero también fue cómodo. La historia permite distancia. La etapa moderna no. La estamos viviendo mientras ocurre, y por eso resulta más difícil de nombrar.
Porque el verdadero quiebre no llegó con un modelo más potente, ni con una victoria espectacular como AlphaGo, ni siquiera con la popularización de GPT. El quiebre llegó cuando la IA dejó de ser un sistema que consultamos ocasionalmente y pasó a convertirse en una capa intermedia entre nosotros y el mundo.
Hoy la IA no solo responde preguntas.
Sugiere enfoques.
Ordena prioridades.
Resume, filtra, propone, corrige.
Y lo hace con tal naturalidad que rara vez nos detenemos a pensar qué tipo de pensamiento estamos delegando.
Aquí aparece una confusión peligrosa: seguimos hablando de la IA como una herramienta, cuando en realidad estamos frente a un sistema de mediación cognitiva. No sustituye al humano; lo orienta. No impone decisiones; estructura las opciones. No gobierna; normaliza.
Y ese tipo de poder es más profundo que el poder visible.
Por eso este articulo no es una comparación de modelos ni una cronología de lanzamientos. Tampoco es un perfil de figuras carismáticas como Sam Altman o Elon Musk. Ellos importan, sí, pero no como individuos aislados, sino como nodos dentro de una arquitectura de poder mucho más amplia.
Una arquitectura compuesta por infraestructura, modelos, interfaces y narrativas culturales.
Una arquitectura donde Microsoft no es solo una empresa, sino un punto de control.
Donde OpenAI no es solo un laboratorio, sino una interfaz universal.
Donde DeepMind no compite por atención, sino por legitimidad científica.
Donde Anthropic intenta contener lo que otros aceleran.
Y donde actores emergentes como DeepSeek introducen una variable incómoda: eficiencia, apertura y geopolítica.
La etapa moderna de la IA no se define por quién tiene el modelo más inteligente, sino por quién define cómo se usa la inteligencia. Entender qué está pasando no nos devuelve el control automáticamente, pero nos devuelve algo igual de importante: conciencia del terreno que estamos pisando.
Durante mucho tiempo, el poder tecnológico fue fácil de identificar.
Tenía rostro, marca y discurso.
Apple vendía dispositivos. Google organizaba información. Facebook capturaba atención.
La IA moderna opera distinto.
Su poder no está en lo que muestra, sino en dónde se incrusta.
Aquí es donde Microsoft entra en escena, no como protagonista ruidoso, sino como arquitecto silencioso del terreno. Mientras el debate público se centraba en si GPT “pensaba” o no, Microsoft resolvía algo mucho más importante: dónde viviría esa inteligencia y bajo qué condiciones operaría.
Azure no es solo una nube.
Es una infraestructura de dependencia.
Quien controla la infraestructura no necesita controlar el discurso. Controla los límites de lo posible. Decide qué escala, qué se integra, qué se vuelve estándar y qué queda relegado a experimento.
La alianza entre Microsoft y OpenAI no debe leerse como una apuesta por un producto revolucionario, sino como una reconfiguración del poder computacional. GPT no se volvió influyente solo por su capacidad lingüística, sino porque fue incrustado directamente en los flujos de trabajo cotidianos: correo, documentos, sistemas operativos, IDEs, herramientas empresariales.
Copilot es el ejemplo perfecto de esta mutación.
No se presenta como IA.
No exige aprendizaje.
No interrumpe.
Simplemente aparece donde ya estás pensando.
Y ahí ocurre el cambio profundo que rara vez se discute: el usuario no “usa” IA; piensa acompañado por ella. La mediación ya no es explícita. Es contextual, persistente, normalizada.
Este es un tipo de poder radicalmente distinto al de las plataformas sociales. No captura atención; organiza cognición. No busca engagement; busca adopción silenciosa. No polariza; estandariza.
Desde este ángulo, la pregunta “¿es buena o mala la IA?” resulta ingenua. La pregunta relevante es: ¿qué tipo de pensamiento se vuelve dominante cuando la infraestructura sugiere, completa y optimiza por defecto?
Porque la infraestructura no es neutral.
Tiene incentivos.
Tiene prioridades.
Tiene sesgos operativos.
Microsoft no necesita imponer una ideología. Basta con definir el marco productivo: velocidad, eficiencia, compatibilidad, escalabilidad empresarial. Todo lo que no encaje ahí se vuelve fricción. Y la fricción, en sistemas complejos, es una forma muy efectiva de exclusión.
Aquí aparece la paradoja central de esta etapa: nunca fue tan fácil “acceder” a inteligencia avanzada, y nunca fue tan difícil ver quién está moldeando su forma.
El poder ya no se presenta como control.
Se presenta como conveniencia.
Y cuando el poder se vuelve conveniente, deja de ser cuestionado.
En el discurso público, los modelos de IA se presentan como artefactos técnicos: arquitecturas, parámetros, benchmarks, papers. Pero en esta etapa histórica, un modelo no es solo un logro ingenieril. Es una posición ideológica materializada en código.
Cada modelo avanzado encarna una respuesta implícita a preguntas que rara vez se hacen explícitas:
OpenAI, Anthropic y DeepMind no compiten solo en performance. Compiten en legitimidad.
OpenAI apostó por la narrativa del acceso controlado: apertura discursiva, cierre operativo. “Democratizar” la IA, pero mediada por API, licencias, filtros y acuerdos estratégicos. No es una contradicción; es un modelo de poder híbrido: suficientemente abierto para dominar el ecosistema, suficientemente cerrado para capturar valor.
Anthropic surge como reacción moral interna al mismo sistema. Su foco en alignment, constitutional AI y seguridad no es solo ético; es político. Propone que el problema central no es quién escala más rápido, sino quién define los límites del comportamiento aceptable. En términos prácticos, esto traduce preocupaciones filosóficas en ventajas regulatorias futuras.
DeepMind, por su parte, opera desde otro lugar. No necesita convencer al mercado de su utilidad inmediata porque su legitimidad proviene del prestigio científico. AlphaGo y AlphaFold no fueron productos: fueron demostraciones de poder epistémico. Mensajes claros para Estados, universidades y complejos industriales: aquí se produce conocimiento de frontera.
Aquí aparece un punto que suele pasarse por alto:
la IA moderna no solo produce valor económico, produce autoridad cognitiva.
Cuando un modelo “descubre” estructuras proteicas o supera a campeones humanos, no solo optimiza procesos; redefine qué tipo de inteligencia es digna de confianza. Y esa redefinición tiene consecuencias directas en políticas públicas, inversión estatal y prioridades nacionales.
La geopolítica entra por la puerta trasera.
Estados Unidos no lidera la IA solo por talento o innovación, sino porque controla tres capas críticas: capital, infraestructura y narrativa científica. China responde con otra lógica: centralización, planificación estatal y soberanía tecnológica. Europa intenta regular un fenómeno que no controla del todo, apostando a la ética como palanca de influencia.
En este contexto, los modelos no son neutrales. Son instrumentos estratégicos.
Y aquí es donde las figuras visibles cumplen su función.
Sam Altman no es solo un CEO; es un operador de consenso. Su papel no es técnico, es político en el sentido operativo del término: administrar incertidumbre para que el sistema continúe expandiéndose. Ante gobiernos habla en clave de riesgo existencial, no para frenar la IA, sino para convertir el peligro en algo gobernable, traducible en comités, marcos regulatorios y cooperación internacional. Ante inversores, el discurso se invierte: velocidad, escala, inevitabilidad. Altman no vende modelos; construye consenso. Y en una tecnología que nadie comprende del todo, el consenso se convierte en un activo estratégico.
Ese consenso necesita algo más que acuerdos. Necesita autoridad que no dependa del mercado. Ahí entra Demis Hassabis. DeepMind no se legitimó por productos, sino por hitos científicos. AlphaGo y AlphaFold no resolvieron problemas comerciales inmediatos; redefinieron qué tipo de conocimiento puede producir una máquina. Esa distinción es crucial. Cuando la IA deja de ser solo una herramienta y empieza a generar descubrimientos, el poder técnico se transforma en poder epistemológico. Hassabis cumple una función precisa: hacer que la concentración extrema de datos y cómputo parezca una condición natural del progreso científico, legitima la concentración de poder técnico bajo la promesa de progreso universal. Cuando la ciencia avanza, el poder se vuelve más difícil de cuestionar.
Pero el consenso político y la legitimidad científica no garantizan dominio si la tecnología no se vuelve cotidiana, estructural, invisible. En ese punto aparece Satya Nadella. No como visionario, sino como ingeniero de dependencia sistémica. Microsoft no busca “el mejor modelo”; busca el mayor perímetro de captura. Integrar la IA en el sistema operativo, en la suite de productividad, en los flujos diarios de empresas y usuarios individuales no es solo una estrategia de adopción: es una estrategia de retroalimentación masiva. Cada interacción, cada corrección, cada documento, cada decisión asistida se convierte en señal. Feedback a escala planetaria.
Aquí el riesgo rara vez se formula con claridad. Cuando la IA se incrusta en el sistema operativo, no se usa: se habita. El usuario ya no decide interactuar con un modelo; convive con él. Las empresas no solo delegan tareas, delegan contexto. Y ese contexto —datos operativos, hábitos cognitivos, flujos de decisión— alimenta sistemas que todavía no comprendemos del todo y cuya confiabilidad sigue siendo estadística, no epistemológica. La normalización de la IA no elimina el riesgo; lo distribuye y lo vuelve opaco.
Hasta aquí, el sistema parece cerrado: consenso político, legitimidad científica, integración económica profunda. Precisamente por eso aparecen actores que no buscan encajar de forma ordenada, sino reconfigurar su posición dentro de la estructura que se está formando.
Elon Musk no es solo un provocador externo. Musk busca poder, y entiende que en esta etapa el poder se negocia desestabilizando. Su crítica a OpenAI, sus advertencias públicas, su salida y posterior reentrada al debate no son contradicciones, sino movimientos. Grok no surge únicamente como alternativa técnica, sino como reclamo de soberanía narrativa y estratégica. Musk no quiere quedar fuera de la arquitectura emergente; quiere un lugar propio dentro de ella. La confrontación no es su objetivo final: es su palanca.
Peter Thiel opera desde una capa distinta, más silenciosa y más estructural. Mientras el debate público se centra en creatividad, asistentes y alineación, Thiel ha apostado durante años por infraestructura de poder real. Palantir no optimiza productividad personal; organiza, cruza y operacionaliza datos masivos, incluidos datos biométricos, financieros y de comportamiento. Donde otros imaginan futuros, Palantir trabaja con Estados, ejércitos y agencias en el presente. Thiel no compite por legitimidad cultural ni adopción masiva; compite por centralidad en los sistemas donde el poder ya se ejerce.
Musk y Thiel no son lo mismo, pero convergen en algo esencial: ambos rechazan la idea de que el futuro de la IA será estable, neutral o equitativo por defecto. Ambos entienden que esta tecnología no es solo una herramienta a regular, sino una oportunidad para redistribuir poder a gran escala. Uno actúa desde el conflicto visible; el otro desde la infraestructura opaca. Pero los dos asumen una verdad incómoda: el consenso no elimina la lucha por posición, solo la desplaza.
Por eso el problema no es si estas figuras nos resultan admirables o inquietantes.
La pregunta incómoda es otra:
¿qué tipo de sistema necesita simultáneamente consenso político, legitimidad científica, integración económica profunda y luchas internas por poder para sostenerse?
Ahí es donde la IA deja de parecer una carrera tecnológica.
Y empieza a revelarse como una reorganización silenciosa —y todavía incompleta— del poder contemporáneo.
Cuando una tecnología alcanza este nivel de consenso político, legitimidad científica e integración económica, ocurre algo predecible pero poco discutido: el debate deja de ser si debe existir y pasa a ser quién la gobierna.
Aquí entra el Estado. No como árbitro neutral, sino como actor tardío que llega cuando gran parte del tablero ya está dispuesto.
La narrativa dominante presenta la regulación de la IA como un intento de contención: evitar abusos, proteger derechos, mitigar riesgos. Pero en la práctica, la regulación cumple otra función menos visible y más decisiva: estabilizar el campo.
Regular no es frenar. Regular es consolidar a quienes ya pueden cumplir.
Los marcos regulatorios actuales —desde la AI Act europea hasta las iniciativas estadounidenses de “IA responsable”— no cuestionan la concentración de datos, cómputo y capital. La asumen como punto de partida. Lo que regulan no es el poder, sino su forma de uso. El resultado es predecible: barreras de entrada más altas, legitimidad institucional para los incumbentes y una apariencia de control democrático sobre un sistema que ya excede a los reguladores.
Aquí se produce un desplazamiento crítico que rara vez se explicita:
la pregunta ya no es quién puede crear IA, sino quién puede hacerlo legalmente.
Ese cambio transforma el problema tecnológico en uno jurídico-administrativo. Y cuando eso ocurre, el poder se vuelve más difícil de disputar. No porque sea más fuerte, sino porque se vuelve procedimental.
En este punto, la ética cumple una función ambigua. Se invoca constantemente —alineación, seguridad, responsabilidad— pero casi nunca para abrir el sistema. Su rol principal es hacerlo aceptable. Convertir una arquitectura concentrada en algo moralmente defendible. No como engaño deliberado, sino como necesidad estructural: ningún sistema de esta escala puede operar sin una narrativa ética que lo justifique.
El efecto colateral es profundo: otras trayectorias tecnológicas quedan fuera del marco antes de ser consideradas.
IA abierta, modelos comunitarios, infraestructuras descentralizadas, enfoques no orientados al mercado o al Estado quedan etiquetados como inviables, inseguros o irrelevantes. No porque hayan fracasado técnicamente, sino porque no encajan en el régimen de gobernanza que se está consolidando.
Este es el cierre silencioso del futuro.
No un cierre autoritario, sino administrativo.
No una prohibición explícita, sino una asfixia por requisitos, costos y legitimidad.
La IA, entonces, no solo redistribuye poder entre empresas y Estados. Redistribuye qué futuros son pensables y cuáles dejan de serlo.
Y aquí aparece una paradoja incómoda:
cuanto más se insiste en que la IA es inevitable, más se reduce el espacio para decidir qué tipo de IA —y qué tipo de sociedad— queremos construir.
La inevitabilidad no es una propiedad técnica.
Es una estrategia política.
La etapa moderna de la IA no se define por avances algorítmicos, sino por el momento en que el poder empieza a escribirse en reglamentos, estándares y tratados, mientras el debate público sigue atrapado en demos, benchmarks y promesas.
La pregunta que queda abierta —y que incomoda porque apunta directo al núcleo— es esta:
si el futuro de la inteligencia ya está siendo administrado, ¿quién decidió que ese era el único futuro posible?

Durante 2025 se volvió cada vez más común escuchar la misma frase, repetida con distintos tonos: “Las marcas personales ya...

A menudo, la historia se narra como una línea recta de progreso. Es mentira. La historia avanza a base de...

La etiqueta de "Humano" en Instagram: ¿Solución ética o la mayor base de datos de 2026?
Questions explained agreeable preferred strangers too him her son. Set put shyness offices his females him distant. Improve has message besides shy himself cheered however how son.
Alfabetización Digital
Critical Thinking
Diseño UX / UI
Ethics IA
Programación
© 2026 Created by Jonathan Mendoza G.