Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.
La inteligencia artificial es el campo de la informática que busca crear sistemas capaces de realizar tareas que tradicionalmente requieren inteligencia humana: razonar, aprender, percibir, generar lenguaje y tomar decisiones.
No es un concepto nuevo — el término fue acuñado en 1956 en la conferencia de Dartmouth — pero la convergencia de tres factores lo transformó en los últimos años: cantidades masivas de datos, poder de cómputo accesible (GPUs, TPUs) y avances en arquitecturas de redes neuronales, particularmente el Transformer introducido en 2017.
Los modelos fundacionales son redes neuronales de gran escala entrenadas con cantidades masivas de datos no etiquetados. Se llaman «fundacionales» porque sirven como base para múltiples tareas sin necesidad de reentrenamiento completo.
Ejemplos: GPT-4, Claude, Gemini, Llama, Mistral.
Su característica clave es la emergencia: capacidades que no fueron explícitamente programadas pero que surgen del entrenamiento a escala, como razonamiento en cadena, traducción entre idiomas o generación de código.
Un subconjunto de modelos fundacionales especializados en procesar y generar texto. Utilizan la arquitectura Transformer con mecanismos de atención que les permiten capturar relaciones de largo alcance en secuencias de texto.
Los LLMs actuales no solo generan texto — pueden seguir instrucciones complejas, mantener contexto en conversaciones largas y utilizar herramientas externas cuando se les configura para hacerlo.
La aplicación de modelos fundacionales para crear contenido nuevo: texto, código, imágenes, audio, video. Es la capa más visible para el usuario final y la que ha impulsado la adopción masiva desde 2022.
La forma en que los humanos interactúan con sistemas de IA ha evolucionado rápidamente:
| Paradigma | Mecanismo | Limitación principal | Ejemplo |
|---|---|---|---|
| Prompting | Instrucciones en lenguaje natural | Depende del conocimiento del modelo | ChatGPT, Claude |
| RAG | Consulta fuentes externas antes de responder | Calidad depende del retrieval | Perplexity, sistemas empresariales |
| Tool Use | Invoca APIs, bases de datos o servicios | Requiere definir herramientas disponibles | Function calling, MCP |
| Agentes | Razonamiento + memoria + herramientas en múltiples pasos | Complejidad de orquestación y seguridad | Copilot Workspace, Devin |
Cada paradigma construye sobre el anterior. Los agentes de IA representan la frontera actual.
La IA dejó de ser un campo de investigación para convertirse en una herramienta de ingeniería. Entender sus capas — desde modelos fundacionales hasta frameworks de agentes — permite tomar decisiones informadas sobre qué construir, qué comprar y dónde invertir el esfuerzo de aprendizaje.
Sistemas autónomos que combinan modelos de lenguaje con razonamiento, memoria y uso de herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana.
Protocolo abierto creado por Anthropic que estandariza cómo las aplicaciones de IA se conectan con herramientas, datos y servicios externos mediante una interfaz universal.
Modelos computacionales inspirados en la estructura del cerebro que aprenden patrones a partir de datos, formando la base de los sistemas modernos de inteligencia artificial.
Apuntes clave de la serie de Nate B Jones sobre segundo cerebro con IA — desde los 8 bloques de construcción originales hasta Open Brain (Postgres + MCP), el principio de las dos puertas, y la brecha de implementación.
Reflexiones clave del último keynote de Dr. Werner Vogels en AWS re:Invent 2025, donde presenta el framework del «desarrollador renacentista» y argumenta por qué la IA no reemplazará a los desarrolladores que evolucionen.
Reflexiones clave del ensayo de Dario Amodei sobre los riesgos civilizatorios de la IA poderosa y cómo enfrentarlos.
Crónica de construir un segundo cerebro con grafo de conocimiento, pipeline bilingüe y endpoints para agentes — en días, no semanas, y lo que eso enseña sobre la brecha entre teoría y sistemas que funcionan.
SDK open source de AWS para construir agentes de IA con un enfoque model-driven. Agentes funcionales en pocas líneas de código, con soporte multi-modelo, herramientas personalizadas, MCP, multi-agente y observabilidad integrada.
Metodología de desarrollo donde la especificación se escribe antes del código, sirviendo como contrato entre equipos y como fuente de verdad para la implementación.
Técnica de recuperación de información que utiliza embeddings vectoriales para encontrar resultados por significado, no solo por coincidencia exacta de palabras clave.
Disciplina de diseñar instrucciones efectivas para modelos de lenguaje, combinando claridad, estructura y ejemplos para obtener respuestas consistentes y de alta calidad.
Frameworks estructurados para evaluar y mejorar las capacidades organizacionales de forma progresiva, desde CMMI hasta enfoques modernos como DORA y modelos simplificados.
Estándar propuesto para publicar un archivo Markdown en la raíz de un sitio web que permite a los modelos de lenguaje entender y utilizar el contenido del sitio de forma eficiente durante la inferencia.
Redes neuronales masivas basadas en la arquitectura Transformer, entrenadas con enormes corpus de texto para comprender y generar lenguaje natural con capacidades emergentes como razonamiento, traducción y generación de código.
Estructuras de datos que representan conocimiento como redes de entidades y relaciones, permitiendo razonamiento, descubrimiento de conexiones y consultas semánticas sobre dominios complejos.
Proceso de especializar un modelo pre-entrenado en una tarea o dominio específico mediante entrenamiento adicional con datos curados, adaptando su comportamiento sin partir desde cero.
Frameworks y métricas para medir el rendimiento, la calidad y la seguridad de sistemas de IA, desde benchmarks estándar hasta evaluaciones específicas de dominio.
Campo dedicado a garantizar que los sistemas de inteligencia artificial se comporten de forma segura, alineada con valores humanos y predecible, minimizando riesgos de daño.