Warenkorb

Neuheit -5% Rabatt. exklusiv im Web

Redes neuronales recurrentes y transformers para modelos cognitivos del lenguaje

Redes neuronales recurrentes y transformers para modelos cognitivos del lenguaje
-5% Rabatt. 15,00€
14,25€
Speichern 0,75€
Sendung
Kostenlos
  • Schriftsteller De Jorge Botana, Guillermo
  • ISBN13 9788466938365
  • ISBN10 8466938362
  • Jahr der Ausgabe 2024
Neuheit -5% Rabatt. exklusiv im Web

Redes neuronales recurrentes y transformers para modelos cognitivos del lenguaje

-5% Rabatt.   15,00€
14,25€
Speichern 0,75€
Klarna Neu! Jetzt kaufen und in 3 Raten zahlen.
¡Disponible! Recíbelo en 24/48h
Kostenlos
ab 18 € innerhalb des spanischen Festlandes
Abholung in der Buchhandlung
Kostenlos
 ¡Disponible! Cómpralo ahora y recógelo el próximo lunes.
BizumGoogle Pay Apple PayVisaMastercardAmerican ExpressPaypal
Danke für den Einkauf in echten Buchhandlungen.

Los Grandes Modelos del Lenguaje han inundado muchos ámbitos en los que nos desenvolvemos. Raro es el que no haya puesto a prueba los modelos GPT 3.5/4, o no haya requerido la ayuda de chatGPT. Pero, ¿cómo hacen para generar estas respuestas?. Por debajo de todo ello se encuentran los algoritmos de aprendizaje profundo, en especial las redes neuronales artificiales de última generación. Este libro se dedica a las más destacadas en la construcción de estos modelos: las Redes Neuronales Recurrentes (RNN-LSTM) y los Transformers. Existen muchos videos y páginas web dedicadas a programar o usar, con pocas líneas de código, un modelo basado en RNN-LSTM o en bloques Transformer.. Se pretende que los que están aprendiendo a usarlas sepan entenderlas de manera exhaustiva y no ser el mero ejecutor de unas líneas. Esto ayudará a diseñar mejores entornos y no menos importante, a explicarlos y comunicarlos. Además, para poder homologar comportamiento artificial con comportamiento humano, el tratamiento de la argumentación del libro está orientado hacia la Ciencia Cognitiva.

  • Schriftsteller De Jorge Botana, Guillermo
  • ISBN13 9788466938365
  • ISBN10 8466938362
  • Jahr der Ausgabe 2024