27,95 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 1-2 Wochen
payback
0 °P sammeln
  • Broschiertes Buch

Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Hochschule für Technik Stuttgart (Fakultät Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu…mehr

Produktbeschreibung
Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Künstliche Intelligenz, Note: 1,3, Hochschule für Technik Stuttgart (Fakultät Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfähigkeit der "Stochastic Gradient Line Bayesian Optimization" (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung für "Quantum Neural Networks" (QNN) und vergleicht diese mit der "Adaptive Moment Estimation" (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Stärken in der rauschfreien Optimierung, während SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.