Servicio de almacenamiento de objetos de AWS con durabilidad del 99.999999999%, escalabilidad ilimitada y múltiples clases de almacenamiento para optimizar costos.
Amazon S3 (Simple Storage Service) es el servicio de almacenamiento de objetos de AWS que ofrece durabilidad de 11 nueves (99.999999999%) y disponibilidad del 99.99%. Almacena cualquier cantidad de datos — desde bytes hasta petabytes — con acceso vía HTTP/HTTPS y APIs REST. Es la base de innumerables arquitecturas en AWS, desde data lakes hasta distribución de contenido estático.
S3 organiza los datos en buckets (contenedores) y objetos (archivos con metadata). Cada objeto puede tener hasta 5TB y se identifica por una clave única dentro del bucket. El servicio maneja automáticamente la replicación, el versionado y la distribución geográfica de los datos.
La arquitectura distribuida de S3 permite escalabilidad prácticamente ilimitada sin intervención manual. Los datos se replican automáticamente en múltiples zonas de disponibilidad dentro de una región, garantizando durabilidad y disponibilidad incluso ante fallos de hardware o desastres naturales.
S3 ofrece múltiples clases de almacenamiento optimizadas para diferentes patrones de acceso:
| Clase | Disponibilidad | Uso típico | Ahorro vs Standard |
|---|---|---|---|
| Standard | 99.99% | Acceso frecuente | Base |
| Intelligent-Tiering | 99.9% | Acceso variable | Hasta 68% (automático) |
| Standard-IA | 99.9% | Acceso infrecuente | Hasta 40% + retrieval |
| One Zone-IA | 99.5% | Datos recreables | 20% menos que Standard-IA |
| Glacier Instant | 99.9% | Archivos con acceso inmediato | Hasta 68% vs Standard-IA |
| Glacier Flexible | 99.99% | Archivos, 1-12 horas | Hasta 10% del costo de Standard |
| Glacier Deep Archive | 99.99% | Archivos, 12+ horas | Hasta 5% del costo de Standard |
Intelligent-Tiering monitorea automáticamente los patrones de acceso y mueve objetos entre niveles de acceso frecuente e infrecuente. Cobra una pequeña tarifa de monitoreo pero puede generar ahorros significativos en workloads con patrones de acceso impredecibles.
Las políticas de ciclo de vida automatizan la transición de objetos entre clases de almacenamiento y su eliminación:
{
"Rules": [
{
"ID": "DataArchiving",
"Status": "Enabled",
"Filter": {
"Prefix": "logs/"
},
"Transitions": [
{
"Days": 30,
"StorageClass": "STANDARD_IA"
},
{
"Days": 90,
"StorageClass": "GLACIER"
},
{
"Days": 365,
"StorageClass": "DEEP_ARCHIVE"
}
],
"Expiration": {
"Days": 2555
}
}
]
}Esta política mueve logs a Standard-IA después de 30 días, a Glacier después de 90 días, a Deep Archive después de un año, y los elimina después de 7 años.
S3 puede enviar notificaciones cuando ocurren eventos específicos:
{
"LambdaFunctionConfigurations": [
{
"Id": "ProcessImageUpload",
"LambdaFunctionArn": "arn:aws:lambda:region:account:function:ProcessImage",
"Events": ["s3:ObjectCreated:*"],
"Filter": {
"Key": {
"FilterRules": [
{
"Name": "prefix",
"Value": "images/"
},
{
"Name": "suffix",
"Value": ".jpg"
}
]
}
}
}
]
}Los patrones comunes incluyen:
S3 Select permite ejecutar consultas SQL simples directamente sobre objetos CSV, JSON y Parquet sin descargar el archivo completo:
SELECT s.name, s.age FROM s3object s
WHERE s.age > 25 AND s.department = 'Engineering'Esto reduce significativamente los costos de transferencia de datos y mejora el rendimiento para análisis exploratorios. Es especialmente útil para:
Control de acceso:
Encriptación:
Monitoreo y auditoría:
Backup y recuperación:
S3 se integra nativamente con servicios de AWS para crear arquitecturas robustas:
S3 es el servicio más fundamental de AWS — no solo por su durabilidad de 11 nueves, sino por su rol como columna vertebral de prácticamente toda arquitectura en la nube. Como staff engineer, dominar S3 significa entender cómo optimizar costos a través de clases de almacenamiento, implementar seguridad defense-in-depth, y diseñar data pipelines que escalen.
La diferencia entre un uso básico y experto de S3 puede representar ahorros significativos en costos de almacenamiento — por ejemplo, Glacier Deep Archive cuesta hasta 95% menos que Standard. Las políticas de ciclo de vida mal configuradas son una de las principales causas de sobrecostos en AWS. Intelligent-Tiering, S3 Select y event notifications son herramientas que separan arquitecturas amateur de arquitecturas enterprise-grade.
Modelo de computación en la nube donde el proveedor gestiona la infraestructura automáticamente, permitiendo ejecutar código sin aprovisionar ni administrar servidores, pagando solo por el uso real.
Práctica de definir y gestionar infraestructura mediante archivos de configuración versionados en lugar de procesos manuales. Fundamento de la automatización moderna de operaciones.
Servicio de gestión de identidad y acceso de AWS que controla quién puede hacer qué en tu cuenta, con políticas granulares basadas en el principio de mínimo privilegio.
Diseño de arquitectura para escalar un segundo cerebro personal a un sistema de producción con AWS serverless — desde el prototipo actual hasta casos de uso especializados en legal, investigación y comunidad.
Backend serverless de producción para un grafo de conocimiento personal — DynamoDB, Lambda, Bedrock, MCP, Step Functions. La implementación de la arquitectura descrita en el ensayo «Del prototipo a producción».