• Produktbild: Hochleistungsrechnen mit HPF
  • Produktbild: Hochleistungsrechnen mit HPF

Hochleistungsrechnen mit HPF

59,99 €

inkl. MwSt, Versandkostenfrei

Lieferung nach Hause

Beschreibung

Details

Einband

Taschenbuch

Erscheinungsdatum

11.09.2001

Abbildungen

XI, mit Abbildungen 23,5 cm

Verlag

Springer Berlin

Seitenzahl

344

Maße (L/B/H)

23,5/15,5/2 cm

Gewicht

546 g

Sprache

Deutsch

ISBN

978-3-540-42366-9

Beschreibung

Details

Einband

Taschenbuch

Erscheinungsdatum

11.09.2001

Abbildungen

XI, mit Abbildungen 23,5 cm

Verlag

Springer Berlin

Seitenzahl

344

Maße (L/B/H)

23,5/15,5/2 cm

Gewicht

546 g

Sprache

Deutsch

ISBN

978-3-540-42366-9

Herstelleradresse

Springer-Verlag GmbH
Tiergartenstr. 17
69121 Heidelberg
DE

Email: ProductSafety@springernature.com

Unsere Kundinnen und Kunden meinen

0 Bewertungen

Informationen zu Bewertungen

Zur Abgabe einer Bewertung ist eine Anmeldung im Konto notwendig. Die Authentizität der Bewertungen wird von uns nicht überprüft. Wir behalten uns vor, Bewertungstexte, die unseren Richtlinien widersprechen, entsprechend zu kürzen oder zu löschen.

Verfassen Sie die erste Bewertung zu diesem Artikel

Helfen Sie anderen Kund*innen durch Ihre Meinung

Unsere Kundinnen und Kunden meinen

0 Bewertungen filtern

Weitere Artikel findest du in

  • Produktbild: Hochleistungsrechnen mit HPF
  • Produktbild: Hochleistungsrechnen mit HPF
  • 1 Hardware.- 1.1 Prozessoren.- 1.1.1 Das Pipeline-Prinzip.- 1.1.2 RISC-Prozessoren.- 1.1.3 Pipeline-Prinzip in RISC-Prozessoren.- 1.1.4 Vektorprozessoren.- 1.2 Speicher.- 1.2.1 Die Parameter eines Speichersystems.- 1.2.2 Speicherhierarchien.- 1.2.3 Adressierungsarten.- 1.2.4 Register.- 1.2.5 Der Cache-Speicher.- 1.2.6 Cache-Kohärenz.- 1.2.7 Der Hauptspeicher.- 1.2.8 Die Speicherung von Datenstrukturen.- 1.3 Kommunikation.- 1.3.1 Leistung.- 1.3.2 Skalierbarkeit.- 1.3.3 Technologie.- 1.3.4 Verbindungstypen.- 1.3.5 Verbindungsstrukturen.- 1.3.6 Kommunikationsstrukturen.- 1.4 Parallelrechner.- 1.4.1 Grobstruktur von Parallelrechnern.- 1.4.2 Klassifikation von Rechnerarchitekturen.- 1.4.3 Speichergekoppelte Systeme.- 1.4.4 Nachrichtengekoppelte Systeme.- 1.5 Entwicklungstrends.- 2 Leistung.- 2.1 Der Begriff „Leistung“.- 2.1.1 Der Leistungsfaktor Arbeit.- 2.1.2 Der Leistungsfaktor Zeit.- 2.2 Quantifizierung der Leistung.- 2.2.1 Analytische Leistungsbewertung der Hardware.- 2.2.2 Die Leistung von Vektorprozessoren.- 2.2.3 Der Leistungseinfluß des Speichers.- 2.2.4 Empirische Leistungsbewertung.- 2.2.5 Bewertung von leistungssteigernden Maßnahmen.- 2.2.6 Das Gesetz von Amdahl.- 2.2.7 Das Modell von Gustafson.- 2.2.8 Variable Parallelisierbarkeit.- 2.3 Benchmarks.- 2.3.1 Herkunft von Benchmarks.- 2.3.2 Ziele von Benchmarks.- 2.4 Beispiele für Benchmarks.- 2.4.1 EuroBen.- 2.4.2 Flops.- 2.4.3 GENESIS Distributed Benchmarks.- 2.4.4 LINPACK-Benchmark für einen Prozessor.- 2.4.5 LINPACK-Benchmark für Parallelrechner.- 2.4.6 Livermore Loops.- 2.4.7 LLCbench.- 2.4.8 NAS Parallel Benchmarks (NPB).- 2.4.9 PARKBENCH.- 2.4.10 Perfect-Benchmark.- 2.4.11 SLALOM.- 2.4.12 SPEC-Benchmarks.- 2.4.13 Whetstone.- 2.4.14 Andere Benchmarks.- 2.5 Schwächen von Benchmarks.- 2.5.1 Kritik an Benchmarkresultaten.- 2.5.2 Das Zusammenfassen von Benchmarkresultaten.- 2.5.3 Standardisierungen.- 2.6 Das Preis-Leistungs-Verhältnis.- 2.6.1 Definition des PLV.- 2.6.2 Vergleich von Computersystemen.- 2.6.3 Der Gordon-Bell-Preis.- 3 Algorithmen.- 3.1 Grundoperationen der Linearen Algebra.- 3.1.1 Vektor-Vektor-Operationen.- 3.1.2 Matrix-Vektor-Operationen.- 3.1.3 Matrix-Matrix-Operationen.- 3.1.4 BLAS.- 3.1.5 Geblockte Algorithmen.- 3.1.6 Das Aufrollen von Schleifen.- 3.2 Die Matrizenmultiplikation.- 3.2.1 Matrix-Vektor-Multiplikation.- 3.2.2 Matrix-Matrix-Multiplikation.- 3.2.3 Die ijk-Form.- 3.2.4 Verschiedene Formen der Matrizenmultiplikation.- 3.2.5 Maßnahmen zur Leistungsverbesserung.- 3.2.6 Matrix-Matrix-Multiplikation auf Parallelrechnern.- 3.3 Die Lösimg linearer Gleichungssysteme.- 3.3.1 LU-Zerlegung.- 3.3.2 Schleifenreihenfolgen.- 3.3.3 Komplexität der LU-Zerlegung.- 3.3.4 Pivot Strategien.- 3.3.5 Geblockte LU-Zerlegung.- 3.3.6 LU-Zerlegung auf Parallelrechnern.- 3.3.7 Cholesky-Zerlegung.- 4 Fortran 95.- 4.1 Felder.- 4.1.1 Die Darstellung von Literalen.- 4.1.2 Die Vereinbarung von Feldern.- 4.2 Belegung und Verknüpfung von Feldern.- 4.2.1 Die Speicherung von Feldern.- 4.2.2 Der Zugriff auf Felder.- 4.2.3 Die Wertzuweisung.- 4.2.4 Operatoren.- 4.3 Die Verarbeitung von Feldern.- 4.3.1 Elementweise Operationen auf Feldern.- 4.3.2 Auswahl mit Feld-Bedingungen.- 4.3.3 Speicherverwaltung.- 4.3.4 Felder als Parameter.- 4.3.5 Funktionen mit Feldresultaten.- 4.3.6 Vordefinierte Unterprogramme.- 4.4 Unterprogrammschnittstellen.- 4.4.1 Explizite Schnittstellen.- 4.4.2 Implizite Schnittstellen.- 4.4.3 Schnittstellenblöcke.- 4.5 FORALL.- 4.5.1 Die FORALL-Anweisung.- 4.5.2 Der FORALL-Block.- 4.6 PURE-Unterprogramme.- 4.6.1 Syntaxregeln für das PURE-Präfix.- 4.6.2 Einschränkungen.- 5 High Performance Fortran - HPF.- 5.1 Die Entwicklung von HPF.- 5.2 Die Konzeption von HPF.- 5.2.1 HPF und Fortran.- 5.2.2 Das Programmiermodell von HPF.- 5.2.3 Die syntaktische Struktur von HPF.- 5.3 Datenverteilung und Datenausrichtung.- 5.3.1 Das Modell der Datenabbildung.- 5.3.2 Die PROCESSORS-Anweisung.- 5.3.3 „*“ in ALIGN- und DISTRIBUTE-Anweisungen.- 5.3.4 Die DISTRIBUTE-Anweisung zur Datenverteilung.- 5.3.5 Die ALIGN-Anweisung zur Datenausrichtung.- 5.3.6 Die TEMPLATE-Anweisung.- 5.3.7 Der Kommunikationsaufwand.- 5.4 Datenabbildung in Unterprogrammen.- 5.4.1 Vorschreibendes ALIGN und DISTRIBUTE.- 5.4.2 Transkriptive Datenabbildung.- 5.4.3 Die INHERIT-Anweisung.- 5.4.4 Änderungen im Vergleich zu HPF 1.- 5.4.5 Abstrakte Prozessoren in Unterprogrammen.- 5.4.6 Templates in Unterprogrammen.- 5.5 Datenparallele Verarbeitung.- 5.5.1 PURE-Unterprogramme.- 5.5.2 Die INDEPENDENT-Anweisung.- 5.6 EXTRINSIC-Unterprogramme.- 5.6.1 Das EXTRINSIC-Präfix.- 5.6.2 Der Aufruf von EXTRINSIC-Unterprogrammen.- 5.6.3 HPF und Numerische Software.- 5.7 Speicher- und Abfolgeassoziierung.- 5.7.1 Die SEQUENCE-Anweisung.- 5.7.2 Parameterübergabe und Abfolgeassoziierung.- 6 Anerkannte Erweiterungen von HPF.- 6.1 Erweiterungen für die Datenabbildung.- 6.1.1 Dynamische Datenabbildung.- 6.1.2 Neue Verteilungsformate.- 6.1.3 Erweiterungen der DISTRIBUTE-Anweisung.- 6.1.4 Die RANGE-Anweisung.- 6.1.5 Die SHADOW-Anweisung.- 6.2 Daten- und Funktionsparallelismus.- 6.2.1 Aktive Prozessoren.- 6.2.2 Die ON-Anweisung.- 6.2.3 Die RESIDENT-Anweisung.- 6.2.4 Die TASK_ REGION-Anweisung.- 6.3 Erweiterungen für extrinsische Unterprogramme.- 6.3.1 Das LOCAL-Modell.- 6.3.2 Das SERIAL-Modell.- 6.3.3 Einbindungen verschiedener Programmiersprachen.- 6.4 Neue und erweiterte Unterprogramme.- 6.4.1 Vordefinierte Unterprogramme.- 6.4.2 Erweiterungen der HPF-Bibliothek.- 6.5 Asynchrone Ein-/Ausgabe.- 7 Andere Arten der Programmierung von Parallelrechnern.- 7.1 Expliziter Nachrichtenaustausch.- 7.1.1 Parallel Virtual Machine (PVM).- 7.1.2 Message Passing Interface (MPI).- 7.2 Programmierung speichergekoppelter Mehrprozessoren.- 7.2.1 OpenMP.- 7.2.2 Thread-Pakete.- 7.2.3 SHMEM.- 7.3 Virtual Shared Memory.- 7.4 Paralleles Programmieren mit Java.- A HPF-Unterprogramme.- A.1 Vordefinierte Unterprogramme.- A.2 Bibliotheksunterprogramme.- A.2.1 SUBROUTINEs zur Datenabbildungsabfrage.- A.2.2 Bit-Manipulationsfunktionen.- A.2.3 Feld-Sortierfunktionen.- A.2.4 Feld-Reduktionsfunktionen.- A.2.5 Feld-Streufunktionen.- A.2.6 Präfix- und Suffix-Feldfunktionen.- Literatur.