Login
Registrieren
Passwort zurücksetzen
Veröffentlichen & Verteilen
Verlagslösungen
Vertriebslösungen
Themen
Allgemein
Altertumswissenschaften
Architektur und Design
Bibliotheks- und Informationswissenschaft, Buchwissenschaft
Biologie
Chemie
Geowissenschaften
Geschichte
Industrielle Chemie
Informatik
Jüdische Studien
Kulturwissenschaften
Kunst
Linguistik und Semiotik
Literaturwissenschaft
Materialwissenschaft
Mathematik
Medizin
Musik
Pharmazie
Philosophie
Physik
Rechtswissenschaften
Sozialwissenschaften
Sport und Freizeit
Technik
Theologie und Religion
Wirtschaftswissenschaften
Veröffentlichungen
Zeitschriften
Bücher
Konferenzberichte
Verlage
Blog
Kontakt
Suche
EUR
USD
GBP
Deutsch
English
Deutsch
Polski
Español
Français
Italiano
Warenkorb
Home
Zeitschriften
Journal of Artificial Intelligence and Soft Computing Research
Band 11 (2021): Heft 1 (January 2021)
Uneingeschränkter Zugang
An Optimized Parallel Implementation of Non-Iteratively Trained Recurrent Neural Networks
Julia El Zini
Julia El Zini
,
Yara Rizk
Yara Rizk
und
Mariette Awad
Mariette Awad
| 03. Dez. 2020
Journal of Artificial Intelligence and Soft Computing Research
Band 11 (2021): Heft 1 (January 2021)
Über diesen Artikel
Vorheriger Artikel
Nächster Artikel
Zusammenfassung
Referenzen
Autoren
Artikel in dieser Ausgabe
Vorschau
PDF
Zitieren
Teilen
Online veröffentlicht:
03. Dez. 2020
Seitenbereich:
33 - 50
Eingereicht:
07. Mai 2020
Akzeptiert:
14. Sept. 2020
DOI:
https://doi.org/10.2478/jaiscr-2021-0003
Schlüsselwörter
GPU implementation
,
parallelization
,
Recurrent Neural Network (RNN)
,
Long-short Term Memory (LSTM)
,
Gated Recurrent Unit (GRU)
,
Extreme Learning Machines (ELM)
,
non-iterative training
© 2021 Julia El Zini et al., published by Sciendo
This work is licensed under the Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.