News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

Shio schrieb:
Afaik wurde schon berichtet, dass Partnerkarten über 300W ziehen können und somit dann 3 Stecker brauchen.
Oder die bauen da dann direkt 12V-2x6 drauf.
2x(6+2) reichen zusammen mit den 75W über den Slot für 375W. Drei Stecker wird es wohl nicht brauchen.

Habe mich auch gefragt, warum man ab der 4070 Super schon auf 12V-2x6 setzt. Damit sind leider viele gute Netzteile obsolet gemacht worden.*

*Man hat mich darauf hingewiesen, dass den meisten Karten ein Adapter beiliegt. Das ist schon mal gut, aber nicht so schön anzusehen. Ich baue nur fensterlose Gehäuse für mich, aber andere mag das stören. Neues Fazit: 12V-2x6 ist auch bei "kleineren" Karten nicht so wild.
Mir wäre 1x(6+2) für die Mittelklasse aber am liebsten. Mit 225W sollte man doch auskommen ...
 
Zuletzt bearbeitet: (Adapter liegt den Karten wohl häufig/immer bei.)
  • Gefällt mir
Reaktionen: Romanow363, JackTheRippchen und Chismon
@Shio was auch problemlos mit zwei Steckern möglich ist bis 375Watt dann aber ist man auf Maximum was keiner machen wird vermute ich aber 330W ohne Probleme möglich.
 
  • Gefällt mir
Reaktionen: SweetOhm und Shio
Mein Netzteil hat auch nur 4 x 8pin und ich würde mir selbst bei einer Nvidia Karte im nächsten Jahr kein neues Netzteil kaufen. Den letzten Karten die ich hatte, hat auch ein hochwertiger Adapter beigelegen. Ich hatte hier noch nie Probleme.
 
  • Gefällt mir
Reaktionen: JoHnnYsp, JackTheRippchen, Pro_Bro und eine weitere Person
Nighteye schrieb:
Ich habe den mitlesern genug "unglaubliche Gehirnleistung"
Sind wir unterschiedlicher Meinung... meine PCs verbrauchen seit Jahren etwa gleich viel im Idle und zwischen 250 - 600W unter Last, nur früher für 1024x768 Pixel und nun für 3440x1440 Pixel und gefühlt Faktor 100 bessere Grafik!

Er hat den gleichen Denkfehler wie du, ihr betrachtet irgedwelche absoluten Werte nicht die Effizienz!

Schau halt was Crysis in FHD mit SLI verbraucht hat und was es jetzt für die gleiche Bildausgabe (Anzahl/Qualität) benötigt, es gab da für Crysis mal nen Test.
 
  • Gefällt mir
Reaktionen: MalWiederIch, N0Thing und DJMadMax
Das wird immer chaotischer. Generell gefällt mir der klassische 8 Pin PCIe-Stromstecker auch um Welten besser als der 12VHPWR bzw. der 12V-6x2-Stecker, aber das Problem wird zwangsweise bei den Netzteilherstellern landen, wo man sich langfristig überlegen muss, den einen oder den anderen Steckertyp zu bedienen.

Aktuell hat man ja viele Netzteile, die beides bieten, also sowohl den klassischen Strang über diverse 6+2-Pin PCIe-Stecker, als auch den 12V-6x2 (ex. 12VHPWR) Stecker. Das verursacht unnötige Kosten sowohl auf Netzteil- als auch auf Kabelseite, wenn entsprechend immer zwei verschiedene Kabeltypen, Adaptierungen etc. beiliegen müssen.

Mein Wunsch wäre es, den PCIe 8 Pin-Stecker weiterhin wie gehabt zu verwenden und dass Nvidia sich vom 12VHPWR/12V-6x2-Design wieder abwendet. Wenn der Kabelquerschnitt entsprechend ausfällt, würde selbst ein einzelnes 8 Pin PCIe-Kabel bedenkenlos ausreichen, um eine Grafikkarte wie eine 4090 mit 450 Watt zu versorgen.
 
  • Gefällt mir
Reaktionen: Mr.House
Das Problem mit dem 12vhpwr sehen hier glaub nur Dramaqueens, die sich ihre AMD schön reden wollen! 🥱

Wer sich ne 5080 oder 5090 gönnt, hat bestimmt noch die 15€ für ein 90‘ Kabel oder kriegt das normale Kabel ordentlich reingesteckt und verlegt.

Trotzdem wäre es natürlich schön, wenn der neue Stecker von Beginn an Anwendungs-Fehler besser vermieden hätte.
 
  • Gefällt mir
Reaktionen: stevefrogs, MalWiederIch, Firefly2023 und eine weitere Person
SpartanerTom schrieb:
Es wurde ja nicht behauptet, dass die neuen Karten schlechter sind. Es geht nur letztlich darum, dass es auch weiterhin attraktive Karten mit geringerem Verbrauch geben sollte.

Gibt es doch genug. o_O Man muss sie halt kaufen und mit Abstrichen bei den Settings nutzen.

Gerade eine 4070 Super ist extrem effizient, bezahlbar und kann mit DLSS Q ( ggf. + FG ) ordentlich was reissen.

Bei AMD gibts ebenso effiziente günstige Karten.



Ich denke viele hier haben ne rosarote Brille auf, dass sie früher angeblich mit ner 100€ / 250 DM Karte alles auf max. Settings gezockt haben.

Wenn ich daran denke, wie sehr wir selbst mit GeForce 4 Ti 4200/4600 oder FX 5800 / 5950 Ultra und sogar mit einer 6800 @ Ultra unlocked in einigen damals aktuellen Games runterregeln mussten, vergeht es mir heute noch.

Da waren die Grafikoptionen noch etwas, was man aktiv ohne Murren genutzt hat und nicht wie heute - Regler nach rechts auf Ultra und wenn es mit der 3060 Ti dann nicht rennt in 2025 einfach sagen, dass die Games mies laufen und man nur noch mit ner 4090 alles zocken kann.

Mal rein preislich - eine 6800 Ultra kostete damals ~520€. Das wären inflationsbereinigt 835€.

Weit weg von heute, aber wenn man sich die leeren PCBs von damals ansieht und was die an Leistung geboten haben...

@Topic: Nice - ich freu mich drüber und ich hoffe inständig, dass AMD in Sachen FSR + FG und ev. RT endlich bissel nachziehen kann. Ich seh aktuell FSR 3 mit dem Steam Deck und meine Güte ist das ein unsauberes Bild in schnelleren Games im Vergleich zu DLSS Q. :/ Aber auch das bekommen die noch in den Griff.
 
  • Gefällt mir
Reaktionen: pacifico
Holzinternet schrieb:
Hab mir das Drama um die erste und zweite Generation angesehen und auch oft bei der Bauer und Steve gesehen wie viel da daneben ging.
Großes Drama um einen kleinen Stecker das viele Klicks für die beiden generiert hat

Steve hat( gefühlt) für Monate nur noch über Strromstecker referiert....
 
  • Gefällt mir
Reaktionen: KlaasKersting, MalWiederIch und Firefly2023
iron_monkey schrieb:
Schau halt was Crysis in FHD mit SLI verbraucht hat und was es jetzt für die gleiche Bildausgabe (Anzahl/Qualität) benötigt, es gab da für Crysis mal nen Test.
Schöner und definitiv passender Vergleich :) Mein brutal übertakteter Intel Core 2 Duo E8400 sowie die zwei dazugepackten 8800 GTS 320 im SLI-Verbund haben auch nicht schlecht gesoffen und dennoch konnte ich Crysis in 1600x1200 nicht einmal annähernd in höchsten Settings spielen.

Heute interessiert das selbst eine Einsteiger-Grafikkarte in 4K UHD nicht mehr (nicht die Remastered-Version).

https://www.computerbase.de/2008-01/test-nvidia-3-way-sli-triple-sli/#abschnitt_leistungsaufnahme

Hier der von dir angesprochene Test von damals.

EDIT:
Hier noch ein paar Werte, die dem Fortschrift weiterhin verdeutlichen, auch wenn einzelne Grafikkarten heute durchaus mehr Strom als früher verbrauchen KÖNNEN:

1735551825730.png

Knappe 60 Grad im Idle unter Windows bei nur einer Grafikkarte, ansteigend auf bis zu 78 Grad - erneut, Idlebetrieb im Windows. Da freut sich jede umliegende Hardware und jeder verbaute Lüfter.

1735551807004.png

... und wenn dann das System selbst mit nur einer Grafikkarte schon bei 51 dB(a) vor sich hindröhnt, dann hat man eigentlich schon gar keine Lust mehr, ein Spiel anzuwerfen.

Eine GTX 1080 kostet gebraucht was, 100 Euro? Wo eine einzelne 8800 GTX in 1024x768 und ohne Anti Aliasing in Crysis gerade einmal so ihre 50 FPS in der anfänglichen Strandszene hält, so wirft die GTX 1080 auf 1600x900 und allen Einstellungen auf Very High mal eben spielend ihre 100-120 FPS auf den Bildschirm - bei nur ca. 33% Auslastung (vermutlich wegen der veralteten Spiele-Engine, CPU-Last oder sonstiges).

Zu sehen schön hier im Video:

Da soll nochmal einer sagen, dass es keinen Fortschritt gäbe.

Meinetwegen kann eine Grafikkarte auch 1000 Watt beziehen - solange sie bei ~150 Watt eine weiterhin sehr viel bessere Figur macht, als der direkte Vorgänger bei ebenfalls 150 Watt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, valnar77 und SpartanerTom
iron_monkey schrieb:
Er hat den gleichen Denkfehler wie du, ihr betrachtet irgedwelche absoluten Werte nicht die Effizienz!
Der Denkfehler liegt hier bei dir. Man bezahlt für die absoluten Werte beim Stromanbieter, Effizienz hin oder her.
Mancher wünscht sich nunmal eine harte Grenze bei der Leistungsaufnahme und die soll das technisch Machbare abbilden.
 
  • Gefällt mir
Reaktionen: Balikon, SweetOhm, LamaMitHut und 3 andere
Shio schrieb:
Der 12V-2x6 bzw der alte 12VHPWR ist schon variabel.
Wenn die Karte zurückmeldet sie braucht nur 300W, liefert das Netzteil auch max nur 300W. Das ist ja der eigentliche Sinn des neuen Standards.
Die 12V wird dann in Richtung 24V erhöht? Grillt das dann nicht die übrigen Komponenten an der 12V-Schiene, die die Überspannung nicht aushalten können? Oder ist das bereits jetzt eine "entkoppelte 12V", die unabhängig von der eigentlichen 12V höher betrieben werden kann?
 
iron_monkey schrieb:
meine PCs verbrauchen seit Jahren.... 600W unter Last, nur früher für 1024x768 Pixel und nun für 3440x1440 Pixel

Er hat den gleichen Denkfehler wie du, ihr betrachtet irgedwelche absoluten Werte nicht die Effizienz!

Schau halt was Crysis in FHD mit SLI verbraucht hat
Du bist mit SLI/Crossfire und 600W aber auch eine Absolute ausnahme gewesen.
Ich hatte bei meinem Phenom II noch ein 300W Netzteil. Und nach dem Bulldozer (560W NT) mit Ryzen auch wieder nur ein 460W Netzteil.
Ich hab einen Kumpel der 2x RTX 5090 mit 32 Kern Threatripper wollte, und Sommer 2024 schauten wir auf Geizhals und konnten nur 3 Netzteile finden die überhaupt 1200W hatten.

Ich hatte mal eine Liste angefertigt, wo ich alle Verbräuche aller Gängigen Grafikkarten seit Radeon 9700 Pro bis heute aufgelistet habe. Finde die grad leider nicht.
Sah aber in etwa so aus.
Radeon 9700 Pro lage noch bei ca 35-50W.
Auch eine 6800GT hatte eine TDP von 67W.
Erst ab der Geforce 8 ging der verbrauch Historisch nach Oben, und lag bei einer 8800 GTS 640mb (Zu Release 2006 dass 2t teuerste und 2t schnellste Modell) 153W.
Und selbst dass ist ja ein Witz gegen die 480W die deine RTX 4090 verbraten kann.
Und jetzt mit der RTX 5090 wirds noch schlimmer.
Und mehr FPS pro Watt ist für mich kein Argument.
Die FPS pro Watt ist ja immer gestiegen, und dass sogar ohne mehr Strom aufwand.
Zb FX5700 Ultra vs 6600GT bei ca gleichem Verbrauch 240% der fps.
6600GT vs 7600GTS bei ca gleichem Verbrauch 220% der fps.

Leistung Pro Watt sollte nicht rechtfertigen dass wir irgendwann 2000W Grafikkarten benutzen.
Und diese simplen Gedanken habe ich bei den Lesern einfach mal mit vorrausgesetzt.
Dass jetzt hier einige nicht darauf kommen, und mich grundsätzlich falsch verstehen kann ich kaum nachvollziehen.
 
  • Gefällt mir
Reaktionen: katamaran3060, Wilfriede, Bänki0815 und 2 andere
Quidproquo77 schrieb:
Wundert mich sehr, dass AMD diese umständlichen 2x 6+2 Pin Stecker weiterhin nutzt, anstatt einfach den unkomplizierten Schritt auf das bessere Design zu gehen.


Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Meine Güte, hast du Probleme. Unpackbar.
 
  • Gefällt mir
Reaktionen: JarlBallin, Zocker1996, Pisaro und 14 andere
Sehr gut, sehe es nicht ein mir für eine neue GPU auch gleich ein neues Netzteil zu holen.
 
  • Gefällt mir
Reaktionen: Zocker1996, SweetOhm, Chismon und eine weitere Person
Na - das ist doch sehr clever von AMD. Da kann dieser 12VHPWR Bananenstecker weiter bei den Kunden des Markführeres reifen. Und allen die den 12VHPWR für eine gelungene Konstruktion halten empfehle ich mal einen Blick in die IEC60903. Dort sind Steckverbinder definiert die den Namen verdienen. Und dann macht mal einen Vergleich mit diesem 12VHPWR - G´lump. Die PCI SIG sollte einfach die Normung an dieser Stelle denen überlassen die davon Ahnung haben. Als Normenkonsortium der Elektronikindustrie für Bussysteme gestartet (die nie zur Übertragung solcher Leistungen gedacht waren) bewegt man sich hier in Gefilden die damit nichts mehr zu tun haben. Und das merkt man.
P.S. Nur durch eine Umbenennung von 12VHPWR zu 12V-2x6 wird die Konstruktion nicht besser. Ich habe gerade die Spezifikationen verglichen. Der einzige Unterschied sind die weiter zurück gesetzten - ich nenne sie jetzt der Einfachheit halber - "Steuerkontakte" mit denen die PSU "Feuer frei" bekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, Zocker1996, Balikon und 8 andere
Holzinternet schrieb:
Ich habe beim Militär mit LWL gearbeitet, viele Jahre und weiß wie schwer es ist Biegeradien einzuhalten. Das von einem Laien zu erwarten der lediglich ein Konsument ist finde ich ziemlich frech. Aber wie so oft werden Dinge schön geredet. Zeichen unserer Zeit.
Diese Biegeradien hat der alte 8 Pin PCIE Stecker aber auch. Blöd gelaufen, hm?
Google mal nach "Burned pcie 8 pin". Deine Weltbild wird in sich zusammenbrechen ;)

Und @Nighteye treibt hier wieder sein Unwesen und versucht den Leuten ihre Nvidiakarten schlechtzureden. Witzig.
 
  • Gefällt mir
Reaktionen: stevefrogs und Pro_Bro
Quidproquo77 schrieb:
Du musst halt 4 Stecker einstecken, anstatt einen. Das ist der 4fache Aufwand.
Ja genau, genau 1x. Oder wie oft schließt Du deine Grafikkarte neu an? 😀
 
  • Gefällt mir
Reaktionen: JarlBallin, Zocker1996, SweetOhm und 6 andere
Quidproquo77 schrieb:
Wundert mich sehr, dass AMD diese umständlichen 2x 6+2 Pin Stecker weiterhin nutzt, anstatt einfach den unkomplizierten Schritt auf das bessere Design zu gehen.

Ich vermute, es ist schlicht eine Kostenfrage (für AMD)
 
  • Gefällt mir
Reaktionen: MalWiederIch und Quidproquo77
Zurück
Oben