¡No dejes de escuchar el podcast de tecnología "Cuidado con las macros ocultas" de Cuatroochenta! - 👉 https://www.cuidadoconlasmacrosocultas.com/ 👈
Los Transformers se han convertido en cuestión de pocos años en la arquitectura de Red Neuronal con mayor potencial en el campo del Deep Learning. Se esconden tras GPT-3, Alphafold 2, las redes que generan arte... ¡todo! Y vamos a ver uno de los mecanismos claves tras su funcionamiento. Presta atención...
--- ¡LINKS INTERESANTES! ---
► Serie Introducción al NLP y Transformers (DotCSV)
Parte 1 - https://youtu.be/Tg1MjMIVArc
Parte 2 - https://youtu.be/RkYuH_K7Fx4
Parte 4 - https://youtu.be/xi94v_jl26U
►Paper - Attention is all you need
https://arxiv.org/pdf/1706.03762.pdf
--- ¡MÁS DOTCSV! ----
📣 NotCSV - ¡Canal Secundario!
https://www.youtube.com/c/notcsv
💸 Patreon : https://www.patreon.com/dotcsv
👓 Facebook : https://www.facebook.com/AI.dotCSV/
👾 Twitch!!! : https://www.twitch.tv/dotcsv
🐥 Twitter : https://twitter.com/dotCSV
📸 Instagram : https://www.instagram.com/dotcsv/
-- ¡MÁS CIENCIA! ---
🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
http://scenio.es/colaboradores