Bienvenidos a la Iberoteca del mundo libre.

TRANSFORMERS Y ATENCIÓN

Editorial: Blackwell Press
Licencia: Creative Commons (by-nc-nd)
Autor(es): Blackwell Faculty

Transformers y Atención ofrece una profunda inmersión en una de las arquitecturas más revolucionarias del aprendizaje profundo. El libro explora el mecanismo de atención, desglosando conceptos como el self-attention y multi-head attention, esenciales para entender cómo los Transformers han transformado el procesamiento del lenguaje natural. Además, se abordan sus aplicaciones más allá del NLP, en campos como la visión por computadora y los sistemas de recomendación. A través de ejemplos prácticos y análisis detallados, se examinan las ventajas, limitaciones y la evolución de estos modelos, comparándolos con arquitecturas previas como las redes neuronales recurrentes. Una obra clave para comprender el impacto de los Transformers y su futuro en el aprendizaje profundo.

1.00 €


    Esta combinación no existe.


    Compartir:
    Esta es una vista previa de los documentos vistos recientemente por el usuario.
    Una vez que el usuario haya visto al menos un documento, este fragmento será visible.
    Documentos vistos recientemente