jonmatumalpha
conceptosnotasexperimentosensayos

© 2026 Jonatan Mata · alpha · v0.1.0

#tokenization

1 artículo con la etiqueta #tokenization.

  • Tokenización

    Proceso de dividir texto en unidades discretas (tokens) que los modelos de lenguaje pueden procesar numéricamente, fundamental para cómo los LLMs entienden y generan texto.

    seed#tokenization#bpe#tokens#nlp#llm#preprocessing
Todas las etiquetas