Fused multiply-add

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Fused-multiply-add-Operation (FMA-Operation) ist eine Variante der Multiply-Accumulate-Operation (MAC) für Gleitkommazahlen und wird auf manchen Mikroprozessoren mit Gleitkommaeinheit für optimierte Berechnungen eingesetzt. Im Gegensatz zu der gewöhnlichen, im englischen auch als Unfused-multiply-add bezeichneten Operation führt die Fused-multiply-add-Operation die Berechnung mit voller Auflösung durch und rundet das Ergebnis erst am Ende der Berechnung.

Entwickelt wurde die Technologie bereits Ende der 1980er Jahre von IBM Research,[1] fand zunächst jedoch nur geringe Verbreitung. Mit fortschreitender Integrationsdichte wurde eine einfache Implementierung der FMA-Technologie in GPUs, DSPs und CPUs möglich. Die FMA-Operation ist im Standard IEEE 754-2008 festgelegt.

In numerischen Algorithmen treten häufig Operationen der Form

auf. Dies ist unter anderem bei der Auswertung von Skalarprodukten, bei Matrix-Operationen und bei der numerischen Integration der Fall.

Bei der herkömmlichen Unfused-multiply-add-Operation mit N Stellen wird dabei zunächst das Produkt b·c berechnet, dieses auf N Stellen gerundet, danach die Addition von a ausgeführt und das Endergebnis nochmal auf N Stellen gerundet. Bei der fused-multiply-add-Operation entfällt das Runden nach der Multiplikation, es wird der Ausdruck a+b·c mit voller Genauigkeit berechnet und erst am Schluss einmalig auf N finale Stellen gerundet. Damit verbunden ist bei der Fused-multiply-add-Operation ein geringfügig höherer Hardwareaufwand. In manchen Situationen reduzieren sich etwas die Rundungsfehler. Bei der klassischen Skalarprodukt-Berechnung ist dies allerdings nur sehr selten der Fall, da meist |a| >> |b·c| ist. Dort gewinnt man mit anderen Techniken weitaus mehr Genauigkeit (z. B. durch das Nutzen von 4 oder 8 Akkumulatoren und einer finalen horizontalen Summe).

Zur Auswertung werden ohne FMA mindestens drei verschiedene Anweisungen benötigt:

  • Laden von 'b' und 'c' in Register (Bedingung: 'b' und 'c' liegen nicht schon in Registern vor und die CPU unterstützt keine Speicheroperanden)
  • Multiplikation von 'b' und 'c'
  • Zwischenspeichern dieses Ergebnisses in einem Register
  • Laden von 'a' in den Akkumulator (Bedingung: 'a' liegt nicht schon in einem Register vor und die CPU unterstützt keine Speicheroperanden)
  • Addition von 'a' mit dem zuvor zwischengespeicherten Produkt '(b·c)'.

Falls für Operationen der Form spezielle Opcodes definiert sind, so erfolgt die Auswertung durch eine optimierte Recheneinheit, dem Multiplier–Accumulator (MAC), der diese Anweisung in einem Schritt ausführt. Es verbleiben vom obigen Schema nur noch zwei Instruktionen, nämlich das Laden der Operanden und die anschließende FMA-Instruktion.

  • gesteigerte Gleitkommaleistung durch Verwendung der MAC[2]
  • verbesserte Ausnutzung von Registern, kompakter Maschinencode
  • die FMA-Technik muss durch Compiler unterstützt werden; der so erzeugte Maschinencode benötigt nun Opcodes, die von den üblichen 2-Adress- oder 3-Adress-Schemata abweichen. Die Optimierung zur Nutzung von FMA verlangt von Programmierern bisweilen einiges Fingergeschick und auch explizites Eingreifen.[3]

Implementierungen

[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. R. K. Montoye, E. Hokenek, S. L. Runyon: Design of the IBM RISC System/6000 floating-point execution unit. In: IBM Journal of Research and Development. 34. Jahrgang, Nr. 1, Januar 1990, ISSN 0018-8646, S. 59–70, doi:10.1147/rd.341.0059 (ibm.com).
  2. Eric Charles Quinnell: Floating-Point Fused Multiply-Add Architectures. The University of Texas, Austin Mai 2007 (utexas.edu [PDF; 4,4 MB; abgerufen am 5. Mai 2024]).
  3. Christoph Peters: fma: A faster, more accurate instruction. In: Moments in Graphics. 1. Dezember 2021, abgerufen am 4. Mai 2024 (englisch).
  4. Michael Fried: GPGPU Architecture And Performance Comparison of ATI and NVidia GPUs. (PDF; 4,4 MB) In: microway.com. Juni 2010, S. 2, abgerufen am 5. Mai 2024 (englisch).
  5. VFPv4 architecture hardware support. In: Arm Developer. Abgerufen am 5. Mai 2024 (englisch).
  6. V. Arunachalam, Alex Noel Joseph Raj, Naveen Hampannavar, C.B. Bidul: Efficient dual-precision floating-point fused-multiply-add architecture. In: Microprocessors and Microsystems. Band 57, März 2018, S. 23–31, hier S. 23, doi:10.1016/j.micpro.2017.12.009.
  7. NVIDIA’s Next Generation CUDATM Compute Architecture: Fermi. (PDF; 856 kB) In: nvidia.com. 2009, S. 8, abgerufen am 5. Mai 2024 (englisch).