Algunos análisis sobre el estado de los LLMs al finalizar 2025

Mucho se habló en este año sobre los LLM, derivados y similares, pero acá tengo dos buenos resúmenes:

La siguiente lectura también es interesante, aunque no totalmente imparcial, acerca de por que necesitamos construir memoria en los agentes de IA: https://www.linkedin.com/pulse/decision-traces-agentic-operations-why-agents-need-van-schalkwyk-vhqmc/.

Pero, ya que es muy posible que escalar las redes neuronales y los datos no sea el camino a la AGI, sino que se necesite enfoques que combinen los desarrollos actuales con IA simbólica, siempre es bueno escuchar a Gary Marcus: https://garymarcus.substack.com/p/a-case-for-ai-models-that-understand. En la misma línea, un análisis crítico sobre la el uso de LLM en análisis de datos: https://journals.sagepub.com/doi/epub/10.1177/10944281251377154

CC BY-NC-SA 4.0 Enrique Gabriel Baquela. Last modified: December 27, 2025. Website built with Franklin.jl and the Julia programming language.