LSTM
Long short-term memory (coas siglas en inglés LSTM) ou memoria longa a curto prazo é unha técnica para mellorar o desenvolvemento da intelixencia artificial formada por redes neurais recorrentes (RNN). A unidade básica LSTM consta dunha cela de memoria, unha porta de entrada, unha porta de saída e unha porta de esquecemento. Aplícanse nos campos da clasificación e da predición estatística sobre un conxunto de datos temporais. Os LSTM foron propostos por Sepp Hochreiter e Jürgen Schmidhuber en 1997 e mellorados por Felix Gers en 2000. Empresas como Google (Home), Apple (Siri), Amazon (Alexa ) e Microsoft empregan LSTM como un compoñente fundamental nos seus motores de recoñecemento de voz. [1] [2] [3] [4]
Aplicacións
[editar | editar a fonte]Control robótico, predición de datos temporais, recoñecemento de voz, aprendizaxe do ritmo, composición musical, aprendizaxe gramatical, recoñecemento de caligrafía...
Notas
[editar | editar a fonte]- ↑ "Understanding LSTMs". colah.github.io (en inglés).
- ↑ "Publications" (PDF). bioinf.jku.at (en inglés).
- ↑ "A beginners' guide to implementing long-short-term-memory networks". Heartbeat (en inglés). 2018-05-29. Arquivado dende o orixinal o 06 de decembro de 2018. Consultado o 11 de setembro de 2022.
- ↑ "Long-short-term-memory-lstm-KXoay". Coursera.org.
Véxase tamén
[editar | editar a fonte]Wikimedia Commons ten máis contidos multimedia na categoría: LSTM |
- Aprendizaxe profunda (Deep learning)
- Memoria
- Rede neural artificial
- Rede neural recorrente
- Supercomputadora
----
Este artigo sobre informática é, polo de agora, só un bosquexo. Traballa nel para axudar a contribuír a que a Galipedia mellore e medre.
Existen igualmente outros artigos relacionados con este tema nos que tamén podes contribuír. |