News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

Nighteye schrieb:
Willst du mich absichtlich Falsch verstehen ? Ich habe Extra die Watt aufgelistet.
Du hast behauptet der Stecker wäre weit weg vom Sweetspot, das ergibt hinsichtlich der Stromaufnahme keinen Sinn, da der "Sweetspot" aus Strombedarf und Produktionskosten schon lange nicht mehr im Bereich von 250W liegt, schon gar nicht im Profi Umfeld und zweitens auch bei 250W 2x 8Pin benötigt werden, die mehr kosten als ein 12V2x6 und damit auch kein "sweetspot" sind.

Im Grunde genommen ist der Stecker elektrotechnisch nichts anderes als 2x8Pin die optisch und mechanisch etwas anders funktionieren. Kleiner, genauere Abmessungen, höhere Qualität.
Nach der Spezifikation der Kabel kannst du über 2x8Pin auch 600W sorgenfrei übertragen, da hast du auch nicht mehr Pins.
6 bei dem 12V2x6 und 6 bei dem alten Standard. Wo Problem? Nur in den Köpfen einiger, hervorgerufen durch Qualitätsmängel, die nun eben mal vorkommen können.

Ihr kauft ja nach wie vor Grafikkarten, die Fehlerquoten bis zu 10% haben, kauft aber GPUs nicht mit einem Stecker, der eine Promille-Fehlerquote besaß, die es gar nicht mehr gibt. Logik quo vadis?

Screenshot 2024-12-30 122558.jpg

Nighteye schrieb:
Ich wollte damit sagen. Die Grafikkarten Verbrauchen zu viel.
Tun sie nicht. Es wäre viel aufwändiger eine GPU zu produzieren, die ein noch größeres Die hätte.
Da ist es ökonomisch viel besser den Chip auch auszureizen.
Nighteye schrieb:
Daher schrieb ich wenig Innovativ. Quasi Prinzip Brechstange.
Du ignorierst halt die Effizienz komplett, die bei deiner Berechnung die Hauptrolle spielen sollte.
Und das gilt auch für den neuen Steckerstandard. Du übernimmst völlig undifferenziert irgendwelche Narrative, die keinen Sinn ergeben.
floTTes schrieb:
Ich alter Fingerkünstler stecke die 6+2 immer zusammen rein.
Ich muss die beiden Stecker aber oft erst zusammenstecken, dass sie ordentlich halten und dann reinpfriemeln.
Wenn ein Mitarbeiter bei uns einen PC zusammenbaut, dann benötigt er bei 3x 8Pin effektiv die dreifache Zeit, als mit ner ordentlichen Lösung.

Letztendlich ungefähr so, wie wenn man sich gegen modulare Netzteile wehrt.

Discovery_1 schrieb:
Der beschissene Stromanschluss bei den Nvidia-Karten ist einer der Gründe, weswegen ich schon seit längeren mit dem Grafikkarten-Upgrade zögere.
Da gibt es nur überhaupt keinen Grund dafür, auch wenn dir x Hater etwas anderes erzählen.
ElliotAlderson schrieb:
Das Thema wird immer nur von Nvidiahatern bzw. AMD Fanboys hochgekocht.
Ich sträube mich wirklich hart gegen solche Zuschreibungen, aber ich kanns mir auch nicht mehr verkneifen und stimme dir zu 100% zu. Was ein Zirkus.
Die Problematik ist jetzt schon seit 1,5 Jahren totanalysiert und behoben und noch immer kommen sie aus den Löchern gekrochen.
floTTes schrieb:
Der Sicherheitsfaktor ist schon übelst klein.
Kommt auf die Definition und Berechnung an. Messungen haben gezeigt, dass der Stecker auch deutlich mehr als 600W verträgt, insofern kann ich dir hier nicht zustimmen.
Der Sicherheitsfaktor hängt maßgeblich von der Qualität eines solchen Steckers ab.
Gamers Nexus hat extra 6 Litzen von 8 entnommen um einen Extremfall zu simulieren.
Die Probleme liegen nicht am prinzipiellen Steckerdesign, sondern ganz woanders, das weiß man seit 1,5 Jahren.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Wozu soll ich einen doppelt so hohen Materialaufwand eingehen (2x6+8Pin) + Kabel um eine GPU zu versorgen die 260 Watt zieht?
Jedes Netzteil der letzen 15 Jahre das diese Karte versorgen kann hat die zwei 8Pin PCI-E Kabel schon dabei, für 12V-2x6 müssen bei jeder Grafikkarte Adapterkabel von 8Pin auf 12v-2x6 mitgeliefert werden.

Also wenn schon dann ist der Materialaufwand beim klassischen Stecksystem geringer.
 
  • Gefällt mir
Reaktionen: SweetOhm, Mr.House, Otsy und 2 andere
Überrascht mich nicht, bei AMD siehts bei den Grafikkarten eher nicht so gut aus, in so einer Lage sollte man bei der Kompatibilität so breit aufgestellt sein wie nur irgend möglich.

Die Leute sollen sich keine Gedanken machen müssen über Netzteil und/oder Adapterkabel, die Zielgruppe ist da wesentlich größer, vor allem bei den weniger versierten Nutzern.
 
Quidproquo77 schrieb:
Im Grunde genommen ist der Stecker elektrotechnisch nichts anderes als 2x8Pin die optisch und mechanisch etwas anders funktionieren. Kleiner, genauere Abmessungen, höhere Qualität.
Nach der Spezifikation der Kabel kannst du über 2x8Pin auch 600W sorgenfrei übertragen, da hast du auch nicht mehr Pins.
6 bei dem 12V2x6 und 6 bei dem alten Standard. Wo Problem? Nur in den Köpfen einiger, hervorgerufen durch Qualitätsmängel, die nun eben mal vorkommen können
Nicht ganz. Kommt ganz auf das Netzteil, beziehungsweise dessen PCIe Kabel an.

Im schlimmsten Fall hat es schrottige Terminals mit nur 6A Nennstrom und sind die Adern nur mit 18AWG Querschnitt und dann vielleicht sogar nur als Y-Variante. Da ist man dann selbst schon mit 300W eigentlich außerhalb der Spezifikation.

Beim 12V-2x6 ist dagegen 16AWG vorgeschrieben.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Holzinternet schrieb:
Gerade 4090 und aber auch 4080 sind nicht weniger weggekokelt. Und da die Energiemenge steigt mit jeder Generation sehe ich das kritisch.
Und trotzdem lag es in vielen Fällen auch am Benutzer. Und nachweislich angeraucht ist lediglich eine 4080. ich habe keine Probleme mit dem Anschluss. Und AMD hat zur Zeit ja nix interessantes an Karten im Portfolio. Die neuen Karten sind komplett für mich uninteressant.
Zu wenig Leistung.
 
  • Gefällt mir
Reaktionen: Pisaro
metoer schrieb:
Jedes Netzteil der letzen 15 Jahre das diese Karte versorgen kann hat die zwei 8Pin PCI-E Kabel schon dabei, für 12V-2x6 müssen bei jeder Grafikkarte Adapterkabel von 8Pin auf 12v-2x6 mitgeliefert werden.

Naja das ist immer das Problem bei "neuen" Technologien.
Überleg mal wie lang Adapter von Molex auf normalen PCIe Stecker oder 6pin auf 8pin bei Grakas dabei waren obwohl das alles schon länger der Standard war.
 
Nighteye schrieb:
Der 12V Stecker ist in Zeiten der Erderwärmung auch wirklich weit weg vom Sweetspot, und hätte nicht entstehen sollen wenn es nach der Vernunft gegangen wäre.
GTX 980ti 250W
GTX 1080ti 250W
RTX 2080ti 250W
Bis dahin war die Welt noch in Ordnung.
RTX 3090ti 450W
RTX 4090 450W+
RTX 5090 500W+
Overkill und nicht sehr Innovativ.
Die Welt ist immer noch in Ordnung.
 
  • Gefällt mir
Reaktionen: YY247 und DJMadMax
Quidproquo77 schrieb:
Also bist du auch auf den Clickbait hereingefallen?... Und bei der lag es nicht mal am Steckerdesign sondern an fehlerhaften Headern und Adaptern, bzw. Userfehlern.
naja, wie ich damals schon schrieb - kann man sich alles schönreden, und ja, die überschriften waren reißerisch. ABER: da wurden stecker auf den markt gebracht, die in der ersten serie schlecht gefertigt, und deren generelle konstruktion FÜR DEN VERWENDUNGSZWECK nicht optimal war bzw ist. denn so ein stecker muss zwingend von einem DAU bedient werden können, sonst müssen die sich was anderes einfallen lassen. andere stecker, bessere qualitätskontrolle mit besserer konstruktion (stabile rastnasen, kabelquerschnitt,...) ODER den zwang, einen elektriker hinzuzuziehen.

@Shir-Khan ja, ist behoben; es gibt ganz offensichtlich eine bessere qualitätskontrolle, der kabelquerschnitt und die anforderungen an die passgenauigkeit wurden leicht erhöht. da wird nV nach dem desaster sicherlich ein auge drauf gehabt haben.
daher sollten fehler, die durch nicht vollständig eingerastete stecker und dünne "heizdrähte" der vergangenheit angehören.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Du ignorierst halt die Effizienz komplett, die bei deiner Berechnung die Hauptrolle spielen sollte.
Tu ich nicht. Begründung schrieb ich bereits hier.
Nighteye schrieb:
Ich Kritisiere nur die RTX karten ab 450W weil dass einfach nichts für den Massenmarkt ist.
Aber wir sehen leider auf Steam, es gibt mehr RTX 4090 Besitzer die damit Zocken
Halte ich als schlecht für die Umwelt.
Natürlich könnte man jetzt auch versuchen eine RTX 4090 extrem Stark zu untertakten und zu Undervolten.
Oder sie gar nur im Powerlimit von 250W zu betreiben.
Aber ich vermute dass machen die meisten RTX 4090 Nutzer eher nicht.
Nighteye schrieb:
Ich wollte verdeutlichen, es gibt viel viel mehr leute die mit einer 4090 Zocken, als leute die sich eine Budget RX7600XT oder 7700XT oder 7800XT oder die Serien davor gekauft haben.
Also ist RTX 4090 schon irgendwo Massenware geworden.
Anhang anzeigen 1562671
Allein auf Mindfactory dieses eine Modell 13.000x Verkauft und kommt nichtmal an die RTX 4090 ran bei Steam.
Nighteye schrieb:
Geforce hat nicht umsonst über 86% Marktanteil. Und die Relation von RTX 4060ti zu RTX 4090 auf Steam sind 2,5% Unterschied. (RTX 4090 1,xx% vs RTX 4060ti 3,66%)
Dass bedeutet, pro 2 verkaufter RTX 4060ti wurde eine RTX 4090 verkauft.

Bei mir im Star Citizen Clan haben die meisten User eine RTX 4090. Ist da die häufigste Grafikkarte.
Mit einer RTX 4060ti spielt da keiner. Dass schwächste was jemand hat ist eine RTX 3070.
So und jetzt stell dir mal vor, die RTX 10900ti in 12 jahren würde 1200W bei Volllast saufen, wäre aber unglaublich Effizient in Leistung Watt.
Sollen dann dennoch jeder 3te Hinz und Kunz mit einer 1200W Karte Zocken ?
Laut deiner Logik ja, weil Effizienz steht ja über alles. Evtl liegts an deinem Alter, aber ich finde du hast kein sehr modernes Umweltbewusstsein.
Eben erst gelesen:
"2024 übertrifft Vorjahr um außergewöhnliche 0,3 Grad"
Das Jahr 2024 war das wärmste Jahr seit dem flächendeckenden Messbeginn im Jahr 1881. Das stand für den Deutschen Wetterdienst (DWD) bereits Mitte Dezember fest. Nun ist klar, dass das Vorjahr sogar deutlich - um 0,3 Grad - übertroffen wurde. "Das ist beschleunigter Klimawandel", erklärt DWD-Sprecher Uwe Kirsche in Offenbach. "Erschreckend ist vor allem, dass 2024 das Vorjahr gleich um außergewöhnliche 0,3 Grad übertroffen hat."
 
  • Gefällt mir
Reaktionen: Bänki0815 und SweetOhm
ElliotAlderson schrieb:
Es ist logisch, dass 4 Stecker ein höheres Risiko besitzen als einer.
im hinblick auf bedienfehler im totalen stimmt das, ja.
aber wenn bei einer 350W Karte durch 4 stecker je 7A fließen, durch EINEN aber 28A, dann ist die folge eines kleinen bedien- oder fertigungsfehlers um so schlimmer.

@Nighteye und das liegt jetzt an den grafikkarten von nV? oder was möchtest du mir damit sagen? gut, dass ich eine von AMD habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Firefly2023 und metoer
Shio schrieb:
Nee warum sollte was erhöht werden?
Lies mal meinen vorherigen Post (auch mit dem Verweis auf USB-C und Mildhybrid-Autos mit 48V Bordnetz). Mit höherer Spannung kann man die Leitungsquerschnitte reduzieren, weil bei gleicher elektrischer Leistung weniger Strom (Querschnitt) fließen muss. Somit kann man auch bei weniger parallelen Leitungen bleiben, die dann statt 12V halt 24V oder 48V bieten. Bei USB-C funktioniert das ja auch recht gut bis 28V und 140 Watt (48V und 240 Watt wird wohl in 2025 auch endlich für Consumerprodukte erscheinen).
 
  • Gefällt mir
Reaktionen: n8mahr
ElliotAlderson schrieb:
Es ist logisch, dass 4 Stecker ein höheres Risiko besitzen als einer.
Absolut nicht. Der 12V2x6 hat schon ein potenziell höheres Ausfallrisiko, das hatte der 8Pin gegenüber dem früheren 6Pin auch. Nur ist das völlig irrelevant und geht völlig im Grundrauschen der üblichen Materialermüdung unter. Jetzt kann ich natürlich 4 8Pin verbauen und dann was von Sicherheit erzählen. "Smarte Menschen" nutzen dagegen nur einen Stecker.

Gut, wenn ein Stecker natürlich komplett verbockt wurde, steigt das Risiko theoretisch.
Aduasen schrieb:
Ich vermute, es ist schlicht eine Kostenfrage (für AMD)
Ja, da könnte etwas dran sein. Da fehlt wohl einfach das Geld für die Validierung und die Entwicklung des circuit board.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Halte ich als schlecht für die Umwelt.
Natürlich könnte man jetzt auch versuchen eine RTX 4090 extrem Stark zu untertakten und zu Undervolten.
Oder sie gar nur im Powerlimit von 250W zu betreiben.
Aber ich vermute dass machen die meisten RTX 4090 Nutzer eher nicht.
Schlecht für die Umwelt sind ganz andere Dinge. Richtig! Ich kaufe ne 4090 weil ich das Maximum haben will. Da wird nix untervolted, nix untertaktet, da muss die Stromleitung glühen.
 
Habe selbst eine 4090 und betreibe sie mit Powerlimit, so ist sie von der Effizienz deutlich besser, während ich ~7% Leistung verliere.

Bei der 5090 werde ich mir die Effizienz ebenfalls sehr genau angucken, falls es ein großes Upgrade ist, wird sie gekauft, ansonsten bleibt es für weitere 2 Jahre die 4090.

AMDs Ansatz finde ich ebenfalls sehr gut, allerdings muss sich halt zeigen, wieviel mehr Leistung man aus dem gleichen Stromverbrauch herauskitzeln kann.
Ich hoffe jedenfalls auf eine positive Überraschung von AMD ;)
 
Nighteye schrieb:
Seit diesem E Auto Wahnsinn, und Speziell seit dem Ukraine Krieg, haben wir immer öfter Blackouts.
Hmm, komisch davon hört man gar nichts in der Presse. Also ich wohne in einer Metropolregion, in den letzen 15 Jahren, hatten wir 2 Stromausfälle, beide Wetterbedingt. Ich halte daher deinen Post für Stammtischgeschwafel.
 
  • Gefällt mir
Reaktionen: HageBen, DJMadMax, Kalsarikännit und 3 andere
Shio schrieb:
Naja das ist immer das Problem bei "neuen" Technologien.
Überleg mal wie lang Adapter von Molex auf normalen PCIe Stecker oder 6pin auf 8pin bei Grakas dabei waren obwohl das alles schon länger der Standard war.
Natürlich, ich wollte damit nur sagen das "zwei Stecker ist doppelt so hoher Materialaufwand wie einer" Blödsinn ist, weil da auch andere Faktoren eine Rolle spielen.

Hibble schrieb:
Nicht ganz. Kommt ganz auf das Netzteil, beziehungsweise dessen PCIe Kabel an.

Im schlimmsten Fall hat es schrottige Terminals mit nur 6A Nennstrom und sind die Adern nur mit 18AWG Querschnitt und dann vielleicht sogar nur als Y-Variante. Da ist man dann selbst schon mit 300W eigentlich außerhalb der Spezifikation.

Beim 12V-2x6 ist dagegen 16AWG vorgeschrieben.
Ja, da gabs besonders bei RTX 3000 und RX6000 mit den hohen Lastspitzen Fälle wo zu schwache Kabel in Kombination mit Adaptern schuld an Instabilitäten waren, gut das es da jetzt Vorgaben gibt.

Für mich bleibt der Hauptkritikpunkt die zu hohe Last auf einzelnen Pins/Adern. Meine 7900XTX hat 3x8Pin Anschlüsse und dürfte damit maximal 450W über die PCI-E Kabel ziehen. Vom Netzteil gehen auch 3x8-Pin Kabel weg. Im Gegenzug hat das offizielle 12V-2x6 Kabel das es von Corsair gibt auf der Netzteilseite nur 2x8-Pin Anschlüsse und dürfte aber 600W ziehen, das ist schon ein krasser Unterschied.
 
Nighteye schrieb:
Aber wir sehen leider auf Steam, es gibt mehr RTX 4090 Besitzer die damit Zocken, als Besitzer der RX 7000 Serie (Alle Modelle) zusammen.
Halte ich als schlecht für die Umwelt.
Natürlich könnte man jetzt auch versuchen eine RTX 4090 extrem Stark zu untertakten und zu Undervolten.
Oder sie gar nur im Powerlimit von 250W zu betreiben.
Aber ich vermute dass machen die meisten RTX 4090 Nutzer eher nicht.

Warum genau glaubst du, dass jeder mit einer 4090 Energie "verschwendet"?
Ich habe ein 4K/120Hz Display und ein globales Framerate-Limit von 118, die 4090 läuft mit 80% PL und in den meisten Titeln lande ich trotz der genannten Auflösung/Framerate bei weit unter 200W Verbrauch (z.B. Overwatch 2) und in einigen Titeln drossel ich die Framerate sogar auf 60/90 fps, weil es für mich ausreichend ist.

Zudem ist die Effizienz aller 4000er-Karten relativ ähnlich, glaube kaum, dass die meisten komplett uncapped mit 500-1000 fps (z.B. in Menüs) spielen, denn da gab es in der Vergangenheit ja auch einige lustige Geschichten ;)

Schauen wir doch einfach mal, was AMD mit den neuen Karten bei dem angepeilten Stromverbrauch bieten kann.
 
  • Gefällt mir
Reaktionen: DJMadMax
Millennial_24K schrieb:
Der 8-polige (6+2) PCIe-Stromanschluss ist nach wie ein guter Standard im PC-Bau. Normalerweise sollte jede Grafikkarte bis 300W TDP darauf setzen.
Dafür brauchst du halt mindestens 2 dieser Anschlüsse und nicht einen. Und wozu sollte man auf alte Standards setzen? Daraus ergibt sich kein Vorteil.
Millennial_24K schrieb:
Der "Nvidia-Stecker" ist allein aus der Not heraus geboren, um Grafikkarten jenseits der 450W mit einem kompakteren Anschluss-Formfaktor betreiben zu können.
Wie kommst du darauf, dass es "jenseits der 450W" sein sollte? Jede Karte die 2x8 Pin verbaut hat.
Und das sind in der Regel fast alle Karten mit >200W, wie etwa die 7800XT.
Die 7900XTX brauchte schon 3x8Pin und hat auch keine >450W TDP. Es gibt bis dato nicht mal Karten, die über 450W spezifiziert sind, außer ganz wenige OC Modelle.
metoer schrieb:
Und die Revision auf 12V-2x6 hat die PCI-SIG nur aus Spaß gemacht?
Das betraf nur sie Sense Pins. Dass der Stecker Strom geliefert hat, auch wenn er nicht voll eingesteckt wird, ist im übrigen bei den alten 8Pin Steckern immer noch so. Das hat man vermutlich also auch nur gemacht, damit die Clickbaiter Ruhe geben. Aber grundsätzlich war das natürlich ein Punkt der verbessert werden konnte.

Du kannst ja mal schauen wie viele RTX 3090Ti mit dem Stecker abgeraucht sind und mir mal Beispiele posten.
Du findest nicht eines im Netz.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Zurück
Oben