Inteligencia Artificial
Campo de la informática dedicado a crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, desde el razonamiento y la percepción hasta la generación de lenguaje.
¿Qué es?
La inteligencia artificial es el campo de la informática que busca crear sistemas capaces de realizar tareas que tradicionalmente requieren inteligencia humana: razonar, aprender, percibir, generar lenguaje y tomar decisiones.
No es un concepto nuevo — el término fue acuñado en 1956 en la conferencia de Dartmouth — pero la convergencia de tres factores lo transformó en los últimos años: cantidades masivas de datos, poder de cómputo accesible (GPUs, TPUs) y avances en arquitecturas de redes neuronales, particularmente el Transformer introducido en 2017.
Capas del ecosistema actual
Modelos fundacionales (Foundation Models)
Los modelos fundacionales son redes neuronales de gran escala entrenadas con cantidades masivas de datos no etiquetados. Se llaman «fundacionales» porque sirven como base para múltiples tareas sin necesidad de reentrenamiento completo.
Ejemplos: GPT-4, Claude, Gemini, Llama, Mistral.
Su característica clave es la emergencia: capacidades que no fueron explícitamente programadas pero que surgen del entrenamiento a escala, como razonamiento en cadena, traducción entre idiomas o generación de código.
Modelos de lenguaje (LLMs)
Un subconjunto de modelos fundacionales especializados en procesar y generar texto. Utilizan la arquitectura Transformer con mecanismos de atención que les permiten capturar relaciones de largo alcance en secuencias de texto.
Los LLMs actuales no solo generan texto — pueden seguir instrucciones complejas, mantener contexto en conversaciones largas y utilizar herramientas externas cuando se les configura para hacerlo.
IA generativa
La aplicación de modelos fundacionales para crear contenido nuevo: texto, código, imágenes, audio, video. Es la capa más visible para el usuario final y la que ha impulsado la adopción masiva desde 2022.
Paradigmas de interacción
La forma en que los humanos interactúan con sistemas de IA ha evolucionado rápidamente:
- Prompting: el usuario escribe instrucciones en lenguaje natural y el modelo responde
- RAG (Retrieval-Augmented Generation): el modelo consulta fuentes externas antes de responder, reduciendo alucinaciones
- Uso de herramientas (Tool Use): el modelo invoca APIs, bases de datos o servicios externos para completar tareas
- Agentes autónomos: sistemas que combinan razonamiento, memoria y herramientas para ejecutar tareas complejas de múltiples pasos con mínima intervención humana
Cada paradigma construye sobre el anterior. Los agentes de IA representan la frontera actual.
Consideraciones prácticas
- Alucinaciones: los LLMs generan texto plausible pero no necesariamente correcto. Toda salida debe verificarse.
- Ventana de contexto: los modelos tienen un límite de tokens que pueden procesar. Esto afecta directamente qué tan larga puede ser una conversación o documento.
- Costo: los modelos más capaces son más costosos por token. La elección del modelo debe balancear capacidad con presupuesto.
- Latencia: la generación de texto es secuencial (token por token). Para aplicaciones en tiempo real, esto es un factor limitante.
Referencias
- Attention Is All You Need — Vaswani et al., 2017. El paper que introdujo la arquitectura Transformer.
- On the Opportunities and Risks of Foundation Models — Stanford CRFM, 2021. Reporte fundacional sobre modelos de gran escala.
- Anthropic — Creadores de Claude y del Model Context Protocol.
- OpenAI — Creadores de GPT-4 y pioneros en IA generativa comercial.