A veces, cuando hablamos de Inteligencia Artificial, parece que estemos ante algo totalmente nuevo, casi desconectado del resto de la ciencia. Pero si rascamos un poco, descubrimos que muchas de las ideas que usamos hoy en IA tienen raíces muy profundas en la física: en cómo pensamos los modelos, en cómo aceptamos los límites y en cómo diseñamos experimentos para comprobar si algo funciona o no.
En este post quiero usar ese puente entre física e IA como una manera de pensar: una forma de entender mejor qué puede hacer la IA, qué no, y cómo aprovecharla en proyectos reales sin tragarnos todo el hype.
1. Modelos físicos vs modelos de IA
La física va de construir modelos que simplifican la realidad lo justo para poder predecirla: una ley de movimiento, una ecuación de circuito, una relación entre presión y volumen. Son descripciones compactas que funcionan bien en un rango de condiciones… y dejan de hacerlo cuando salimos de él.
En IA pasa algo muy parecido, solo que el modelo no lo escribimos nosotros a mano:

- En física, definimos una ecuación (por ejemplo, una ley de Newton) y luego la validamos con experimentos.
- En IA, definimos una arquitectura de red neuronal y dejamos que aprenda una función a partir de datos, ajustando millones o miles de millones de parámetros.
En ambos casos, el modelo:
- Es una aproximación, no la realidad.
- Funciona muy bien dentro de un dominio concreto.
- Puede fallar estrepitosamente cuando lo sacas de su zona de confort.
Pensar así ayuda a bajar expectativas: un modelo de IA no es “inteligente” en abstracto, es un ajuste estadístico a los datos que ha visto. Igual que una ley física tiene su rango de validez, un LLM tiene el suyo.

2. Del laboratorio a la GPU: recursos, límites y trade‑offs
En el laboratorio, cualquier físico aprende rápido que hay límites muy claros:
- Energía disponible.
- Precisión de los instrumentos.
- Ruido en las medidas.
- Tiempo que puedes dedicar a cada experimento.
En IA pasa lo mismo, pero con otros nombres:
- VRAM y cores de GPU en lugar de capacidad de un detector.
- Latencia y throughput en lugar de tiempo de respuesta de un osciloscopio.
- Coste por inferencia en lugar de coste por hora de laboratorio.
Montar un experimento físico y montar un pipeline de IA son primos hermanos:
- Eliges “instrumento”: qué modelo usas (uno enorme en la nube, uno mediano en una RTX local, uno pequeño cuantizado).
- Definís condiciones: tamaño de lote, contexto máximo, frecuencia de llamadas.
- Analizas si el resultado compensa el coste: ¿llega a tiempo?, ¿te puedes permitir el consumo de GPU?, ¿es suficiente la precisión?
Ver la infraestructura de IA como “hardware experimental” es útil para tomar decisiones: a veces, un modelo más pequeño y eficiente es más valioso que uno gigantesco que el sistema no puede ejecutar de forma sostenible.
3. Método científico y proyectos de IA
El método científico clásico dice algo muy sencillo:
- Formular una hipótesis.
- Diseñar un experimento para probarla.
- Recoger datos.
- Analizar y revisar la hipótesis.
Si lo llevamos a proyectos de IA en empresas, la traducción es directa:
- Hipótesis de valor: “Si usamos IA para resumir tickets de soporte, reduciremos el tiempo medio de resolución un 15%.”
- Experimento / POC: se diseña un piloto en un equipo, durante un periodo definido, con un flujo de trabajo claro.
- Datos: medimos antes y después (SLA, volumen, satisfacción, errores).
- Análisis: vemos si hay mejora real o solo impresiones subjetivas.
Sin esta disciplina, la IA se queda en demos espectaculares que no cambian nada de fondo. Con mentalidad científica, cada herramienta pasa por el mismo filtro: ¿mejora algo que pueda medir?, ¿en cuánto?, ¿a qué coste?
4. Problemas cerrados vs problemas abiertos
La física se siente cómoda con problemas cerrados:
- Datos y condiciones claras.
- Ecuaciones conocidas.
- Resultados que se pueden comprobar con bastante objetividad.
En IA nos movemos a menudo en problemas abiertos:
- “Escribe un correo profesional.”
- “Sugiere una arquitectura cloud para esta necesidad.”
- “Resume esta reunión y extrae los siguientes pasos.”
Aquí no hay una única respuesta correcta, sino un espectro de respuestas más o menos útiles. La física ayuda a no perderse porque enseña a:
- Definir mejor el problema antes de buscar solución.
- Acordar criterios de calidad: ¿qué consideramos “buen” resumen, “buena” respuesta, “buena” arquitectura?
- Aceptar que necesitamos human‑in‑the‑loop en decisiones importantes: igual que revisas resultados sospechosos en un experimento, revisas salidas de IA en contextos sensibles.
Pasar de la física a la IA es pasar de “buscar la respuesta correcta” a “diseñar sistemas que produzcan respuestas útiles bajo control y supervisión”.
5. Ejemplos prácticos en el día a día
Para que este puente no se quede en teoría, podemos mirar algunos ejemplos típicos en el trabajo con cloud e IA.
Ejemplo 1: Evaluar un nuevo LLM para un chatbot interno
En lugar de “vamos a cambiar el modelo porque este es más nuevo”, enfoque de física:
- Hipótesis: “Cambiar al modelo X reducirá el número de preguntas escaladas a agentes humanos un 20% sin empeorar la satisfacción del usuario.”
- Experimento: test A/B con un grupo de usuarios en producción controlada durante unas semanas.
- Datos: tasa de escalado, CSAT, tiempo de resolución, logs de errores.
- Conclusión: se adopta, se descarta o se ajusta la hipótesis.
Ejemplo 2: Elegir entre nube y RTX local para inferencia
En lugar de decidir solo por moda:
- Se cuantifica el coste por 1.000 llamadas en la nube vs costear una GPU local (energía, amortización, mantenimiento).
- Se mide la latencia media y la capacidad máxima de cada opción.
- Se decide en qué casos compensa cada enfoque (tiempo real, lotes nocturnos, pruebas, etc.).
Es el mismo tipo de razonamiento que se usa para elegir entre un experimento en un gran acelerador o uno en un laboratorio más sencillo: ¿dónde está el mejor equilibrio entre precisión, coste y disponibilidad?
Ejemplo 3: Uso de IA para contenido
Cuando usas IA para apoyar la creación de contenido (blog, LinkedIn, documentación):
- Defines qué parte del proceso delegas (borradores, listas de ideas, reescritura) y cuál no (criterio, estructura final, experiencia propia).
- En lugar de preguntar “¿puede la IA escribir este post por mí?”, preguntas “¿en qué parte del proceso me ahorra tiempo sin diluir mi voz?”.
Otra vez, el mismo patrón: delimitar el problema, controlar el experimento, medir el resultado (por ejemplo, tiempo ahorrado, claridad del texto, feedback de la audiencia).
6. La física como antídoto contra el hype
La física enseña algo muy sano: no confundir el mapa con el territorio. Una teoría puede describir muy bien un fenómeno, pero nunca es el fenómeno en sí. Con la IA pasa exactamente lo mismo: un modelo puede parecer brillante, pero sigue siendo eso, un modelo.
Traer esa mentalidad a la Inteligencia Artificial tiene varias ventajas:
- Nos ayuda a ver los límites de cada herramienta sin demonizarla ni idealizarla.
- Nos obliga a pedir evidencias y métricas, no solo “wow” en una demo.
- Nos recuerda que el valor está en cómo diseñamos los sistemas y procesos alrededor de la IA, no solo en el modelo de moda.
“De la Física a la Inteligencia Artificial” no es solo una trayectoria personal: es una forma de trabajo. Y en un momento en el que todo el mundo habla de IA, esa forma de pensar puede ser precisamente lo que marque la diferencia entre sumar ruido o aportar resultados reales.