News AMD Radeon HD 7970: Heute vor 10 Jahren wusste Tahiti zu überzeugen

@Chesterfield Ehrliche Antwort? Zu wenig Geduld :freaky:
Der Standardkühler und die Standardlüfter der Matrix waren unfassbar schlecht.
Laut und trotzdem heiß, da ist meine Geduld schnell am Ende gewesen
 
  • Gefällt mir
Reaktionen: Kommando, edenjung und amorosa
RaptorTP schrieb:
Damals von der 7950 auf die 7970 umgebaut ;)
Schon geil, dass sowas überhaupt noch möglich war. Heute undenkbar.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Zitterrochen und RaptorTP
EHA751YW4AAR2ur.jpg

EHA751XX4AAuq4j.jpg


Da wir GCN effektiv von 2012 bis Heute (Vega APUs) haben, ist das Ganze noch gut im Gedächtnis.
Es war damals für mich ein technisches Highlight, neue Shader-Cores und ISA.

Aber selbst vor kurzem (vor ~2 Jahren) hat es mich dann doch überrascht, dass fast alle GCN1-GPUs zwei Shader-Arrays pro Shader Engine verwendet haben.
Ab GCN2 hat sich das dann verändert, statt wie z.B. bei Tahiti mit 2x 8 CUs, hatten ab GCN2 die GPUs immer nur ein Shader-Array bzw. bei Tonga (GCN3) waren es dann 1x16 CUs.

Es ist nahezu lustig, dass man mit RDNA1 & RDNA2 eine ähnliche Situation vor sich hat.
RDNA1 setzt auf zwei Shader-Arrays pro Shader-Engine, wobei um genauer zu sein, ein Shader-Array aus zwei Subarrays bestand.
RDNA2 hat das ähnlich wie GCN2 umgestaltet, anstatt zwei Subarrays zu verwenden, gibt es bei RDNA2 bisher immer nur ein Subarray pro Shader Array.
Oder bildlich:
E956ZDUX0AAf2rf.png


Navi10 (RDNA1) hatte pro Shader Array 5 WGPs, es war allerdings eine 3+2 Konfiguration, während man bei Navi21/22 (RDNA2) ebenfalls 5 WGPs hat, allerdings als 5+0 konfiguriert.

Ebenfalls wie bei GCN1 war es auch bei RDNA1 spannend, wie die neue Mikroarchitektur ausfällt.
Ganz so hingerissen wie damals mit GCN1 war ich allerdings nicht mehr.

GCN1 war bei vielen technischen Bereichen weit vor der Konkurrenz, die Compute-Architektur war relativ klasse, keine Instruktionsabhängigkeiten und mögliche Register-Konflikte bei ALU-Operationen, schlicht keine Abhängigkeitsverwaltung auf Seiten der Hardware, noch Software.
Auch hat AMD viele technische Aspekte generalisiert was die Verwaltung von Daten angeht, mit weniger spezieller Hardware und Limits.
Das hat auch effizientes Async Compute ermöglicht.

Die Hardware fiel mächtig und zukunftsweisend aus, leider hat AMD, schon fast historisch, nicht viel daraus holen können.
Die Treiber/Compiler haben viel Leistung auf der Straße liegen gelassen, OpenCL war insgesamt eine relativ bescheidene Konkurrenz zu CUDA und so hat man weder im Spielemarkt, noch im HPC-Umfeld Nvidia das Wasser abgraben können, obwohl das HW-Potenzial da war.

Vielleicht gelingt AMD irgendwann der "Zen-Moment" auch in der GPU-Sparte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EntelodonX, Cleriker, PerAstraAdDeum und 22 andere
@Gufur

Ja aber das Ding ab bauen absägen und wieder dran hätte dich 20
Minuten mehr Zeit gekostet wenn überhaupt. Und damals den „nervenkick“ eine highend Karte der damaligen Zeit zu schrotten , war auch damals bestimmt eine sehr teure Angelegenheit 😃😃
 
tomsen78 schrieb:
Ich habe seit 10 Jahren die Ati Radeon HD 7970 zusammen mit einem 2600k laufen. 😉

2600k forever, hatte die 7970 auch lange Zeit.
 
  • Gefällt mir
Reaktionen: GT200b
mmhhh ... ich hatte wohl doch nur die 7950 als Gigabyte.

Und die 7970 als Saphire laut meiner History:

Screenshot_20210626-091054.png
 
  • Gefällt mir
Reaktionen: <NeoN>
Mit der Karte bin ich damals in den PC Bereich wieder eingestiegen.
Meine Damalige ASUS Radeon HD 7970 DirectCU II empfand ich als absolutes Monster.
Mit der Karte fing mein Interesse nach OC/UV an und führt dann schlussendlich bei der 780ti zur Wasserkühlung.

Die 7970 lief mit einem 3770k damals bei mir. Und ja, ich hatte tatsächlich einen Fertig PC (Mifcom) mit der Karte.

Schon 10 Jahre, Wahnsinn
 
  • Gefällt mir
Reaktionen: LETNI77 und Onkel Föhn
Locuza schrieb:
Vielleicht gelingt AMD irgendwann der "Zen-Moment" auch in der GPU-Sparte.
Ich fürchte, wenn Nvidia und Intel mit DLSS 3.x und XeSS 2.x kommen, gibts von AMD für FSR 2.0 vielleicht mittelprächtiges TAAU, was schlechter als das der UE5 ist. Mal ein einzelnes Beispiel exemplarisch ausgesucht. Ich hab da keine Hoffnung mehr. Auch nicht, was die Stückzahl der Chips angeht, wenn man sich die Verkäufe Ampere vs. RDNA2 anschaut.
 
Das war damals schon eine gute Grafikkarte. ABER, wenn ich mich richtig erinnere, war das auch der Anfang der explodierenden GPU-Preise. Nvidia hatte zu der Zeit gerade die GTX680 in der Pipeline und bemerkt, das selbst die geplante GTX660 schneller war als die HD 7970. Das Ende der Geschichte: aus der geplanten GTX660 wurde die GTX680. Und die ursprüngliche GTX680 wurde zur 1.000€ Titan. Hab ich das noch richtig im Kopf?
 
  • Gefällt mir
Reaktionen: EntelodonX, Wanderwisser und [wege]mini
ich hatte die 7970ge auf wasser von HIS bis dieses jahr im xfire im einsatz. die gcn architektur lässt sich heute noch in fhd gut einsetzen. in nicht so anspruchsvollen spielen wie civ6 sogar in 4k und das spiel kann sogar dx12 mgpu, sodass beide zum einsatz kamen. xfire ist ja ansonsten tot. dx12 mgpu unterstützen ja leider nur eine hand voll spiele. gcn ist in sachen langlebigkeit ne ziemlich geile architektur. die karten haben sich mehr als bezahlt gemacht … wäre cool wenn die 6900xt auch wieder ne gute dekade packt :)
 
BelaC schrieb:
Nvidia hatte zu der Zeit gerade die GTX680 in der Pipeline und bemerkt, das selbst die geplante GTX660 schneller war als die HD 7970. .. Hab ich das noch richtig im Kopf?

Ähm die 7970 ist in manchen Games gar schneller als die 680 gewesen (ehr die Ausnahme).
Und die 660 und die 680 Unterscheiden sich in so ziemlich allem.
Vom Speicherinterface, den Shadern und dem Chip.
Ich denke du hast das falsch im Kopf

https://www.hardwareluxx.de/index.p...816-test-nvidia-geforce-gtx-680.html?start=22

Edit: verwechselst du das evtl mit der 660ti und der 7800er Serie?
 
  • Gefällt mir
Reaktionen: Cleriker, Onkel Föhn und edenjung
BelaC schrieb:
Das war damals schon eine gute Grafikkarte. ABER, wenn ich mich richtig erinnere, war das auch der Anfang der explodierenden GPU-Preise.
Nee nicht wirklich meine R9-390+ PCS mit 8GB GDDR5 auf 512bit hat Neu nur 300€
gekostet deshalb sollte die UVP für die RX6800 max. bei 350/399€ liegen. Diese Neumodischen Wucherpreise sind unverschämt.
mfg
 
  • Gefällt mir
Reaktionen: lalalol, cbmik und Yesman9277
Weiss noch als ich damals vor dem Kauf stand: 7970 GHZ Edition oder die stark übertaktete ASUS DirectCU II TOP GTX 680, ich habe mich für die GTX 680 entschieden und im nachhinein etwas bereut.

Allesamt tolle Karten, nur hatte sich es damals schon Nvidia mit dem Speicher verspielt. Die 2Gb waren später für die GTX 680 ein K.O. Schlag und die 4Gb Version kaum verbreitet und zu teuer.
 
  • Gefällt mir
Reaktionen: HardwareEasy, bad_sign, GERmaximus und eine weitere Person
Ja, die XFX 7870 Dual Dissipation habe ich mir nach jahrelanger Zockabstinenz extra dafür gekauft, um endlich mal Crysis zu spielen. Im Endeffekt kam ich aber nur zum ersten Level - und hatte dort eigentlich nur (exzessiv) Palmen entwedelt. :D

Das war eine feine und preiswerte Karte.

Gezockt wurde damit primär Anno 1404. Bei 4x SSAA@FHD sind die FPS mir aber immer zu stark eingebrochen. Leider führte mein Versuch des Hw-Tunings mit einem Fremd-BIOS zu einer gebrickten Karte (no boot2bios). Überraschenderweise fand ich im Netz eine Lösung mittels einer eingelöteten Kabelbrücke, die das Booten mit einer boot-disk erlaubte. Erst danach konnte man durch die eingelötete Kabelbrücke (per Knipser) trennen, um das das Original-BIOS wieder einzuspielen (bzw. dieses zu versuchen - die Kabelbrücke war ausreichend lange für ca. 3 Versuche). Coole Aktion, die mir schlussendlich nochmal ca. drei weitere Jahre Nutzungszeit erbrachten.
 
  • Gefällt mir
Reaktionen: PerAstraAdDeum, jotecklen, lkullerkeks und 2 andere
BelaC schrieb:
Das war damals schon eine gute Grafikkarte. ABER, wenn ich mich richtig erinnere, war das auch der Anfang der explodierenden GPU-Preise. Nvidia hatte zu der Zeit gerade die GTX680 in der Pipeline und bemerkt, das selbst die geplante GTX660 schneller war als die HD 7970. Das Ende der Geschichte: aus der geplanten GTX660 wurde die GTX680. Und die ursprüngliche GTX680 wurde zur 1.000€ Titan. Hab ich das noch richtig im Kopf?

Jein, es war damals meines Wissens wirklich geplant die 600er Reihe "ausfallen" zu lassen, bzw. die Bezeichnung nur für Mobile zu verwenden. Ich kann mich noch gut an Präsentationsfolien erinnern, die gezeigt haben, dass eine GTX 780 (also der urspürnglich direkte Nachfolger) tlw. mehr als doppelt so stark war wie eine GTX 580. Am Ende hat Nvidia dann aber den "kleinen" Chip trotzdem als Flaggschiff der 600er Reihe herausgebracht und den großen Chip (also Titan, 780, 780TI) um ein dreivierte Jahr verzögert. Das war dann der Beginn der Flaggschiff über dem Flaggschiff-Serie und auch mit ensprechender Bepreisung. Und es war auch der Beginn von recht einfallslosem Rebrandings alter Chips. (770, 760)
 
Zurück
Oben