Las IA no son solamente modelos de lenguaje
Una mirada clara a la historia de la inteligencia artificial, por qué los LLM son solo una parte del mapa y cómo el aprendizaje por refuerzo permite entrenar agentes para jugar, decidir y mejorar.
Una mirada clara a la historia de la inteligencia artificial, por qué los LLM son solo una parte del mapa y cómo el aprendizaje por refuerzo permite entrenar agentes para jugar, decidir y mejorar.
En los últimos años, muchas conversaciones sobre inteligencia artificial se redujeron casi por completo a los modelos de lenguaje. Es comprensible: herramientas capaces de redactar, resumir, traducir o conversar con soltura capturan rápidamente la atención. Pero si uno mira la historia completa, queda claro que la IA no empezó con ChatGPT, ni con los asistentes conversacionales, ni siquiera con internet.
El concepto de inteligencia artificial empezó a tomar forma a mediados del siglo XX. En 1956, durante la conferencia de Dartmouth, el término Artificial Intelligence se consolidó como un campo formal de investigación. Desde entonces, la disciplina ha pasado por varias etapas: sistemas simbólicos, heurísticas, búsqueda en espacios de estado, sistemas expertos, aprendizaje estadístico y, más recientemente, aprendizaje profundo.
Dicho de otro modo: los LLM son una manifestación contemporánea y muy visible de la IA, pero no son el mapa completo. Son una familia de sistemas especializada en lenguaje. La inteligencia artificial, en cambio, incluye muchas otras formas de percibir, clasificar, predecir, decidir y aprender.
Los LLM modernos se apoyan en redes neuronales profundas. En particular, en arquitecturas tipo transformer, que son muy eficaces para modelar secuencias y relaciones contextuales dentro del texto. Gracias a eso pueden producir respuestas coherentes, completar ideas y trabajar sobre enormes volúmenes de información lingüística.
Pero una red neuronal no está “casada” con el lenguaje. Es una estructura matemática capaz de aprender patrones desde datos. Dependiendo del problema, puede recibir texto, imágenes, sonido, series temporales, sensores o estados de un juego. Lo que cambia es el tipo de arquitectura, la forma de entrenarla, la función objetivo y la representación de los datos.
Por eso confundir IA con LLM es parecido a confundir toda la industria automotriz con un solo tipo de vehículo. Es una parte importante, sí. Pero deja afuera una enorme cantidad de aplicaciones valiosas que llevan años funcionando fuera del foco mediático.
Cuando una empresa detecta defectos en una línea de producción usando visión computacional, cuando un sistema estima riesgo de fuga de clientes, cuando un motor recomienda contenido, cuando una plataforma predice demanda o cuando un software interpreta voz, probablemente hay técnicas de aprendizaje automático o redes neuronales involucradas.
En todos esos casos, el objetivo no es “hablar bonito”, sino optimizar alguna tarea: distinguir, anticipar, priorizar, decidir o encontrar una estrategia útil dentro de un entorno complejo.
Los juegos de mesa y de estrategia han sido durante décadas un laboratorio extraordinario para la IA. ¿Por qué? Porque obligan a tomar decisiones bajo reglas claras, con objetivos definidos y consecuencias medibles. Cada jugada puede evaluarse en términos de ventaja, riesgo o probabilidad de victoria.
Desde el ajedrez hasta el Go, pasando por variantes más complejas y menos conocidas, los juegos ofrecen un terreno perfecto para explorar búsqueda, evaluación de posiciones y aprendizaje por experiencia. Además, son una muy buena forma de mostrar algo esencial: una inteligencia artificial no necesita producir texto para demostrar comportamiento inteligente. Puede aprender a elegir acciones cada vez mejores.
El aprendizaje por refuerzo es una rama del aprendizaje automático en la que un agente aprende interactuando con un entorno. En vez de recibir una “respuesta correcta” para cada caso, prueba acciones, observa resultados y ajusta su conducta para maximizar una recompensa acumulada.
En un juego, esa recompensa puede estar asociada a ganar, mejorar una posición, capturar una ficha importante o evitar errores estratégicos. El principio general es simple de explicar y difícil de perfeccionar: jugar, equivocarse, corregir, volver a jugar y repetir miles o millones de veces.
Ve el tablero, las fichas, las opciones disponibles y el contexto de la partida en ese instante.
Decide una jugada posible según su política actual, que al comienzo suele ser torpe o casi aleatoria.
El entorno responde: la posición mejora, empeora o acerca al agente a una derrota o una victoria futura.
El modelo reduce error y refuerza patrones que tienden a conducir a mejores resultados en el tiempo.
En VRWEB hemos trabajado precisamente en ese tipo de problema. Entrenamos una red neuronal para jugar Abak Evolution Backgammon, un juego diseñado e implementado por Samy Garib. Según la descripción oficial de abak.me, se trata de una variante del backgammon que añade clases de soldados al juego clásico, cada una con características y comportamientos propios.
Ese detalle cambia mucho más de lo que parece. En Abak Evolution no basta con conocer las reglas base del backgammon. La identidad de cada ficha importa. El orden de los movimientos importa. La evaluación de una posición se vuelve más rica. Y eso lo convierte en un entorno especialmente interesante para experimentar con aprendizaje automático.
La red fue entrenada con aprendizaje por refuerzo. En términos simples, aprende jugando contra sí misma, acumulando experiencia y minimizando error en cada ciclo de entrenamiento. No memoriza una lista fija de jugadas “correctas”; construye criterio estratégico a partir de muchísimas partidas, ajustes graduales y evaluación continua de posiciones.
Porque baja la conversación sobre IA desde el espectáculo al oficio. Muestra que la inteligencia artificial también consiste en modelar estados, evaluar opciones, optimizar decisiones y construir sistemas que aprenden por experiencia. No todo pasa por generar párrafos. A veces la inteligencia está en elegir la mejor acción posible en un tablero complejo.
También recuerda algo importante para empresas y equipos técnicos: la pregunta no debería ser solo “¿cómo usamos un LLM?”, sino “¿qué problema queremos resolver y qué tipo de IA tiene sentido aplicar?”. En algunos casos será lenguaje. En otros será visión, predicción, recomendación o control. Elegir bien esa familia tecnológica cambia radicalmente el resultado.
Los modelos de lenguaje son poderosos, útiles y probablemente seguirán expandiendo su impacto. Pero entender la IA de verdad exige mirar más allá de ellos. La disciplina incluye décadas de historia, múltiples técnicas y una diversidad enorme de aplicaciones que van desde detectar tumores hasta jugar una variante compleja de backgammon con nivel experto.
Si algo deja claro el caso de Abak Evolution es esto: una máquina puede aprender sin escribir una sola frase. Puede aprender observando, probando, perdiendo, corrigiendo y refinando una estrategia. Y eso también es inteligencia artificial.
En VRWEB podemos ayudarte a evaluar casos de uso, diseñar automatizaciones y convertir ideas de IA en soluciones concretas para productos, procesos y experiencias digitales.