Modelo de computación en la nube donde el proveedor gestiona la infraestructura automáticamente, permitiendo ejecutar código sin aprovisionar ni administrar servidores, pagando solo por el uso real.
Serverless es un modelo de ejecución en la nube donde el proveedor asigna recursos dinámicamente y cobra solo por el cómputo consumido. No significa «sin servidores» — significa que el desarrollador no los gestiona. El proveedor se encarga del aprovisionamiento, escalado, parches y disponibilidad.
| Servicio | Función |
|---|---|
| Lambda | Funciones como servicio (FaaS) |
| API Gateway | APIs HTTP/REST/WebSocket |
| DynamoDB | Base de datos NoSQL |
| S3 | Almacenamiento de objetos |
| Step Functions | Orquestación de workflows |
| EventBridge | Bus de eventos |
| SQS / SNS | Mensajería |
El cold start ocurre cuando Lambda crea un nuevo entorno de ejecución. La latencia varía significativamente por runtime y tamaño del paquete:
| Runtime | Cold start típico | Con SnapStart/provisioned |
|---|---|---|
| Node.js | 100–300 ms | No aplica |
| Python | 150–400 ms | No aplica |
| Java | 1–3 s | 200–400 ms con SnapStart |
| .NET | 400–800 ms | 100–200 ms con Native AOT |
| Rust/Go | 10–30 ms | No necesario |
Estrategias de mitigación:
| Criterio | Serverless (Lambda) | Contenedores (Fargate) |
|---|---|---|
| Duración máxima | 15 minutos | Sin límite |
| Escalado | Automático, por invocación | Automático, por métricas (más lento) |
| Cold start | 100 ms – 3 s | 30–60 s (provisioning de tarea) |
| Costo en idle | $0 | Costo por vCPU/memoria mientras corre |
| Costo en alto tráfico | Puede ser alto (por invocación) | Más predecible (por hora) |
| Estado | Stateless | Puede mantener estado en memoria |
| Networking | VPC opcional, ENI lento | VPC nativo, networking completo |
Usar serverless cuando: tráfico variable o impredecible, ejecuciones cortas (menos de 15 min), equipos pequeños que quieren cero ops, arquitecturas event-driven.
Usar contenedores cuando: procesos de larga duración, necesidad de estado en memoria, tráfico constante y predecible, requisitos de networking complejos.
Lambda cobra $0.20 por millón de invocaciones más $0.0000166667 por GB-segundo. Para una API con 1 millón de requests/mes, 256 MB de memoria y 200 ms promedio:
La misma carga en Fargate (0.25 vCPU, 0.5 GB, corriendo 24/7): ~$9.10/mes. Serverless gana en cargas variables. Pero a 100M requests/mes, Lambda cuesta ~$103 mientras Fargate sigue en ~$9.10 — el punto de cruce depende del patrón de tráfico.
Serverless elimina la gestión de servidores y el pago por capacidad ociosa. Para cargas de trabajo con tráfico variable — APIs, procesamiento de eventos, tareas programadas — el modelo de pago por ejecución puede reducir costos dramáticamente mientras escala automáticamente.
Servicio de cómputo serverless de AWS que ejecuta código en respuesta a eventos sin necesidad de aprovisionar ni administrar servidores, escalando automáticamente desde cero hasta miles de ejecuciones concurrentes.
Práctica de definir y gestionar infraestructura mediante archivos de configuración versionados en lugar de procesos manuales. Fundamento de la automatización moderna de operaciones.
Patrón arquitectónico donde los componentes se comunican mediante eventos asíncronos, permitiendo sistemas desacoplados, escalables y reactivos.
Motor de cómputo serverless para contenedores que elimina la necesidad de gestionar servidores, permitiendo ejecutar contenedores Docker pagando solo por los recursos consumidos.
Servicio serverless de AWS que proporciona acceso a modelos fundacionales de múltiples proveedores (Anthropic, Meta, Mistral, Amazon) vía API unificada, sin gestionar infraestructura de ML.
Enfoque de desarrollo que aprovecha las ventajas de la nube: contenedores, microservicios, infraestructura inmutable y automatización declarativa para sistemas escalables y resilientes.
Prácticas y estrategias para minimizar el gasto en cloud sin sacrificar rendimiento, incluyendo right-sizing, reservas, spot instances y eliminación de recursos ociosos.
Diseño de arquitectura para escalar un segundo cerebro personal a un sistema de producción con AWS serverless — desde el prototipo actual hasta casos de uso especializados en legal, investigación y comunidad.
Crónica de construir un segundo cerebro con grafo de conocimiento, pipeline bilingüe y endpoints para agentes — en días, no semanas, y lo que eso enseña sobre la brecha entre teoría y sistemas que funcionan.
Colección de 13 módulos Terraform publicados en el Terraform Registry para desplegar arquitecturas serverless en AWS, con 12 ejemplos que cubren desde ECS básico hasta CRUD full-stack con DynamoDB y AgentCore con MCP.
Presentación con Slidev sobre 10 razones para adoptar una arquitectura serverless-first. Desplegada en GitHub Pages.
Backend serverless de producción para un grafo de conocimiento personal — DynamoDB, Lambda, Bedrock, MCP, Step Functions. La implementación de la arquitectura descrita en el ensayo «Del prototipo a producción».
Laboratorio personal de experimentos con arquitecturas serverless: prototipos, patrones y aprendizajes sobre aplicaciones event-driven en AWS.
GitHub App serverless que auto-aprueba pull requests después de que CI pasa, con revisión de código opcional vía Amazon Bedrock. Cinco repositorios: app TypeScript/Probot, módulo Terraform AWS (Lambda + API Gateway + Secrets Manager + SQS DLQ), módulo Terraform GitHub (webhooks), infra de despliegue y repo de pruebas.
Plantilla de devcontainer para desarrollo fullstack serverless con backend Python, frontend React y servicios AWS locales.
Aplicaciones web que usan tecnologías modernas para ofrecer experiencias similares a apps nativas: instalables, offline-capable y con notificaciones push.
Framework de React para aplicaciones web full-stack con Server Components, routing basado en archivos, SSR/SSG y optimizaciones de rendimiento integradas.
Prácticas para implementar logging efectivo en sistemas distribuidos: structured logging, niveles, correlación y agregación centralizada.
Técnicas para reducir el costo, la latencia y los recursos necesarios para ejecutar modelos de lenguaje en producción, desde cuantización hasta serving distribuido.
Framework de AWS con seis pilares de mejores prácticas para diseñar y operar sistemas confiables, seguros, eficientes y rentables en la nube.
Servicio de orquestación serverless de AWS que coordina múltiples servicios en workflows visuales usando Amazon States Language (ASL), con manejo de errores, reintentos y ejecución paralela integrados.
Servicio de colas de mensajes completamente administrado de AWS que desacopla componentes de aplicaciones distribuidas, garantizando la entrega de mensajes con escalabilidad ilimitada.
Servicio de mensajería pub/sub de AWS que distribuye mensajes a múltiples suscriptores simultáneamente, habilitando patrones de fan-out y notificaciones a escala.
Framework open-source de AWS para construir aplicaciones serverless con una sintaxis simplificada de CloudFormation, CLI para desarrollo local y despliegue integrado.
Servicio de almacenamiento de objetos de AWS con durabilidad del 99.999999999%, escalabilidad ilimitada y múltiples clases de almacenamiento para optimizar costos.
Bus de eventos serverless de AWS que conecta aplicaciones usando eventos, permitiendo arquitecturas desacopladas y event-driven con enrutamiento basado en reglas.
Base de datos NoSQL serverless de AWS con latencia de milisegundos a cualquier escala, ideal para aplicaciones que requieren alto rendimiento y escalabilidad automática.
Servicio managed de AWS para crear, publicar y gestionar APIs REST, HTTP y WebSocket que actúan como puerta de entrada a funciones Lambda y otros servicios backend.
Patrón que proporciona un punto de entrada único para múltiples microservicios, manejando routing, autenticación, rate limiting y agregación de respuestas.