News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.056
  • Gefällt mir
Reaktionen: Smartbomb, Do Berek, flo.murr und 28 andere
Dann muss ich ja kein neues Netzteil extra holen... (hoffentlich :D)
Nächste Karte wird eh wohl eine AMD sein, bei den Preisen von Nvidia.... (und dann noch dieser 12+4 PIN :( )
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Sebbi, Zocker1996 und 31 andere
Freut mich sehr. Was anderes würde eigentlich keinen Sinn machen bei der TDP.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, snowpanter, evilnear und 7 andere
Schön zu sehen das AMD hier nicht hinterherläuft. Würde mich sehr freuen wenn es hier auf lange Sicht wieder einen Standard gibt.

Ich hab bei meiner 4070 gesucht bis ich einen Hersteller gefunden habe der den alten Stecker verbaut. Wurde dann KFA².

Hab mir das Drama um die erste und zweite Generation angesehen und auch oft bei der Bauer und Steve gesehen wie viel da daneben ging.

Gerade 4090 und aber auch 4080 sind nicht weniger weggekokelt. Und da die Energiemenge steigt mit jeder Generation sehe ich das kritisch.

Gibt es bei der 50 Serie den Zwang für HPR für alle Karten ? Weiß daß einer genau ?

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Nagilum99, evilnear und 3 andere
Ist ja auch nicht wirklich verwunderlich, nachdem ja schon bekannt ist, dass es keine HighEnd Karte wird.
 
  • Gefällt mir
Reaktionen: Zocker1996, Iconoclast, stevefrogs und 4 andere
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
GTX 980ti 250W
GTX 1080ti 250W
RTX 2080ti 250W
Bis dahin war die Welt noch in Ordnung.
RTX 3090ti 450W
RTX 4090 450W+
RTX 5090 500W+
Overkill und nicht sehr Innovativ.
 
  • Gefällt mir
Reaktionen: Schtefanz, Kitsune-Senpai, Sebbi und 52 andere
Sehr schön, aber wie bereits angemerkt, ist der Anschluss auch vollkommen ausreichend. Ich hoffe ja, dass AMD mit der neuen Generation auf maximale Effizienz für 1080p/1440p Gaming geht mit vernünftigen Preisen. Dann wäre vielleicht der Zeitpunkt meine GTX1080 in Rente zu schicken. :) Sonst sieht Intel ganz interessant aus...
 
  • Gefällt mir
Reaktionen: -> m1 <-, Nagilum99, netGuy und eine weitere Person
Hatte mit meiner 4090 noch nie Probleme damit, daher wäre es mir persönlich egal gewesen aber viele wollen den Stecker der 4090 ja nicht daher auch ok
 
  • Gefällt mir
Reaktionen: Firefly2023 und TigerNationDE
Ich denke das wird auch ein Kostenfaktor sein. Die 12(+4)-Pin Stecker sind vermutlich noch recht teuer und bringen abseits von High-End keinen Mehrwert.
 
  • Gefällt mir
Reaktionen: stevefrogs, Nagilum99 und Aduasen
LauneBaer86 schrieb:
Sehr schön, aber wie bereits angemerkt, ist der Anschluss auch vollkommen ausreichend. Ich hoffe ja, dass AMD mit der neuen Generation auf maximale Effizienz für 1080p/1440p Gaming geht mit vernünftigen Preisen. Dann wäre vielleicht der Zeitpunkt meine GTX1080 in Rente zu schicken. :) Sonst sieht Intel ganz interessant aus...
Die Intel Karte ist was Effizienz betrifft, den alten 2022er Geforce RTX 4000 leider um 25% unterlegen und gerade mal einen tick über Radeon 2022 Niveau.
1735546045442.png

1735546067894.png

Also die neuen Serien von 2025 von Geforce werden so oder so Effizienter als die neue Intel sein, und die neuen Radeons werden mindestens genau so Effizient sein, und mit Sicherheit schneller.
 
  • Gefällt mir
Reaktionen: Wilfriede, Firefly2023 und Kalsarikännit
Gott sei dank kein 12VHPWR… 🤮

260W ist auch sehr vernünftig.
 
  • Gefällt mir
Reaktionen: Sebbi, Romanow363, Nagilum99 und 7 andere
Wundert mich sehr, dass AMD diese umständlichen 2x 6+2 Pin Stecker weiterhin nutzt, anstatt einfach den unkomplizierten Schritt auf das bessere Design zu gehen.

eSportWarrior schrieb:
Freut mich sehr. Was anderes würde eigentlich keinen Sinn machen bei der TDP.
Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
 
  • Gefällt mir
Reaktionen: jandy, MalWiederIch und floTTes
Nighteye schrieb:
Overkill und nicht sehr Innovativ.
Habe mir selbst ein 200W - Limit auferlegt und ich bin echt gespannt was man hierfür bei der jeweils neuen Generation bekommt und ob sich ein Upgrade der 3060 ti lohnt. Was den Hersteller betrifft bin ich komplett offen.
 
  • Gefällt mir
Reaktionen: twixxn, netGuy, simonx und 3 andere
Nighteye schrieb:
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
Der Stecker ist aber nicht für Gaming Grafikkarten entstanden, sondern für PCIe Karten allgemein und sollte auch die Verkabelung in Servern vereinfachen.

Deine Aufzählung geht nur auf den Gesamtverbrauch ein. Bei Gaming kann ich dir da noch irgendwie zustimmen. Ansonsten gehört halt die Effizienz betrachtet.
 
Nighteye schrieb:
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
GTX 980ti 250W
GTX 1080ti 250W
RTX 2080ti 250W
Bis dahin war die Welt noch in Ordnung.
RTX 3090ti 450W
RTX 4090 450W+
RTX 5090 500W+
Overkill und nicht sehr Innovativ.

Was für ein Käse. Äpfel und Birnen.

Früher haben die Systeme dennoch genug Strom genuckelt, da noch haufen anderer Kram mit lief und die Energiesparmechanismen nicht da waren, wo sie heute sind.

Gibt zig Tests, bei Igor, PCGH, US oder UK Seiten etc. die genau belegen, dass zum Beispiel (!)
eine 2080 Ti mit 260 W Verbrauch gerade mal die Hälfte der fps bringt einer 4080 mit gleichem Verbrauch.

Effizienz gemäß fps/Watt stehen sich da 0,134 ( 2080Ti ) und 0,278 ( 4090 ) oder 0,280 ( 4080 ) gegenüber.

Wenn cih dann noch sehe wie ungezügelt manche Mobo + CPU Setups liefen um die GPUs auszulasten und mit Daten zu füttern.

Was war damals besser bitte ?!
 
  • Gefällt mir
Reaktionen: paulemannsen, stevefrogs, Zarlak und 14 andere
Holzinternet schrieb:
Schön zu sehen das AMD hier nicht hinterherläuft. Würde mich sehr freuen wenn es hier auf lange Sicht wieder einen Standard gibt.

Ich hab bei meiner 4070 gesucht bis ich einen Hersteller gefunden habe der den alten Stecker verbaut. Wurde dann KFA².

Hab mir das Drama um die erste und zweite Generation angesehen und auch oft bei der Bauer und Steve gesehen wie viel da daneben ging.

Gerade 4090 und aber auch 4080 sind nicht weniger weggekokelt. Und da die Energiemenge steigt mit jeder Generation sehe ich das kritisch.

Gibt es bei der 50 Serie den Zwang für HPR für alle Karten ? Weiß daß einer genau ?

Gruß
Holzinternet
Die 4070 er Reihe hat generell den 8Pin Stecker egal welcher Hersteller. Deswegen hatte ich mich für die 4070 entschieden.

Bei der 5000er Reihe wird jede Karte bzw Version den 12 Pin Stecker bekommen wenn ich das richtig gelesen habe,
 
  • Gefällt mir
Reaktionen: JMP $FCE2
Holzinternet schrieb:
Hab mir das Drama um die erste und zweite Generation angesehen und auch oft bei der Bauer und Steve gesehen wie viel da daneben ging.
Also bist du auch auf den Clickbait hereingefallen? Du hast dir bei deiner 4070 den alten Anschluss gesucht obwohl nie eine Karte unterhalb der 4090 betroffen war? Und bei der lag es nicht mal am Steckerdesign sondern an fehlerhaften Headern und Adaptern, bzw. Userfehlern.
Holzinternet schrieb:
Gibt es bei der 50 Serie den Zwang für HPR für alle Karten ? Weiß daß einer genau ?
Wahrscheinlich alle.
Nighteye schrieb:
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot...
Klar, es wäre ja viel sinnvoller 8 kleine Stecker zu nutzen, als einen einzigen.:D
Vom Materialtechnischen Aufwand wesentlich höher und in Zuge des Klimawandels natürlich genau das Gegenteil richtig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, Zarlak, MalWiederIch und 3 andere
Kalsarikännit schrieb:
Habe mir selbst ein 200W - Limit auferlegt
Ich hab eine RX6800. Laut Wiki zieht diese 231W bei einem Takt von 2105mhz.
Im Radeon Overlay werden wenn ich sie Default laufen lasse, ca 203W angezeigt.
1735546580651.png


Aber ich lasse sie immer auf lediglich 1901mhz Untertaktet + Undervolted laufen, und hab dadurch immer nur 120-133W im Overlay bei 100% GPU Auslastung.
1735546762646.png

1735546679942.png

1735547056970.png

Also grob 70W weniger nur durch underclock von 200mhz.
Daher solltet ihr bedenken, dass die Karten beim Test nicht immer am Sweetspot betrieben werden.
PCGH & Hardwareluxx & Computerbase testen diesen Sweetspot zu Release nicht da zu viel Mehrarbeit.
 
  • Gefällt mir
Reaktionen: nöörd, SweetOhm, Nebula123 und 14 andere
Das sind gute Neuigkeiten. Nach den ganzen News zu den "abgefackelten" Grafikkarten wäre mir auch nicht wohl bei dem Gedanken, einen solchen Stecker zu benutzen. Aber ich schätze mal, dass die Probleme mittlerweile behoben wurden, oder?
Aktuell brauche ich mich damit aber noch nicht auseinandersetzen da mir meine 7900GRE noch reicht.
 
  • Gefällt mir
Reaktionen: Sebbi und SweetOhm
Zurück
Oben