News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

Nighteye schrieb:
Und selbst dass ist ja ein Witz gegen die 480W die deine RTX 4090 verbraten kann.
Und jetzt mit der RTX 5090 wirds noch schlimmer.
Und mehr FPS pro Watt ist für mich kein Argument.
Die FPS pro Watt ist ja immer gestiegen, und dass sogar ohne mehr Strom aufwand.
Zb FX5700 Ultra vs 6600GT bei ca gleichem Verbrauch 240% der fps.
6600GT vs 7600GTS bei ca gleichem Verbrauch 220% der fps.

Da sehe ich aber kein Problem und die von dir erwähnte Steigerung z.B. zwischen FX 5700 Ultra und 6600 GT hast du doch heute genauso: eine RTX 4060 leistet mit nur 115 Watt gute 20% mehr als eine RTX 3060 mit ihren 170 Watt. Eine RTX 4060 Ti leistet sogar knappe 50% mehr als die 3060 und liegt mit ihren 160 Watt immer noch 10 Watt unter dem spezifizierten Limit der 3060.

Ich beschwere mich ja auch nicht, dass es immer leistungsstärkere Autos gibt. Lange Zeit war der Countach das stärkste, straßenzugelassene Fahrzeug der Welt... dann der F40, dann der McLaren F1, dann der Veyron und jetzt wird eh alles nur noch beknackt mit den weit vierstelligen PS-Zahlen.

Aber ganz ehrlich: ist das unser Problem? Meins? Deins? Kaufst du dir demnächst wieder nen neuen Koenigsegg? Oder tut's vielleicht doch auch der <enter any hot hatch here> für einen Bruchteil des Geldes bei ebenso immensem Fahrspaß?

Genauso verhält es sich doch mit Computer-Hardware sowie mit jedem anderen Hobby auch. Es gibt IMMER einen oben drauf. Kauf dir ne Angel, kauf dir nen Verstärker, nen Plattenspieler, ein Bücherregal. Da sind nach oben hin keine Grenzen offen.

Und wieso genau hängt man sich an einer Grafikkarte mit 300, 450, 600 Watt Verbrauch auf? Es obliegt ja dem Nutzer, ob sie so viel Strom ziehen darf.

Würde Nvidia von vorn herein einen Riegel bei einer High End Enthusiastenkarte vorschieben, dann wäre das Geschrei auch wieder groß.

Mir ist das so recht, wie es ist. Ich mag es, dass man mir selbst die Verantwortung überlässt. Wenn ich eine Grafikkarte für viel Geld kaufe, dann möchte ich auch viel Freiheiten haben - unter anderem auch, dass ich die Grafikkarte - wenn ICH das will - im Rahmen der hohen Herstellerspezifikationen betreiben kann (aber nicht muss, das ist das schöne).
 
  • Gefällt mir
Reaktionen: Volvo480, Rockstar85, iron_monkey und 3 andere
@E1M1:Hangar ich verstehe dein Vergleich, den du zu den Wattangaben und FPS bei gleicherm Verbrauch von @Nighteye gezogen hast.

Jetzt stell ich mir aber vor, was die 980er und die 1080Ti für Monsterkarten waren und die Leistung die Sie erbrachten, immer in nativer Auflösung getan haben, zumindest in den ganzen Benchmarks. Heutzutage wird ja überall DLSS und FSR, etc. dazugeschaltet um spielbar zu bleiben, teilweise kratzen die 800€+ Karten selbst da noch knapp über 60-70 fps.

Wenn man alle Grafikkarten heutzutage nur noch in Nativ anstatt mit der ganzen Technik laufen lässt, werden die Grafikkarten sicher noch knapp doppelt soviel Fps liefern wie die alten Modelle, aber wenn juckt es da wenn es mit 13 zu 35 fps immernoch unspielbar bleibt? (vergleich kann nicht auf 2000er betrachtet werden, die kann ja DLSS und wurde bei deinem Beitrag auch nur als vergleich hinzugezogen)

Damals hat die Grafikkarte halt eben alles noch so geschafft, jetzt muss Sie mit mehr Strom gefüttert werden, um mit Techniken und vielen Kernen spielbare FPS der wunderschönen Games herbeizuzaubern.

Aber was weiß ich schon als GTX 960 Besitzer ¯\(ツ)
 
  • Gefällt mir
Reaktionen: daknoll, PegasusHunter und Nighteye
lash20 schrieb:
Dann muss ich ja kein neues Netzteil extra holen... (hoffentlich :D)
Nächste Karte wird eh wohl eine AMD sein, bei den Preisen von Nvidia.... (und dann noch dieser 12+4 PIN :( )
Und läuft auch - seit mehr als einer Dekade - gescheit mit Linux.


Was nützt einem eine theoretische schnellere Karte von Nvidia, wenn sie

  • Nicht mit Linux verlässlich nutzbar ist, weil die Treiber immer noch quellgeschlossen sind.
  • Nicht finanzierbar sind, weil überteuert sind.
  • Und nutzbar, weil man den Strom dafür nicht bereitstellen kann.

Am Ende kauft eine Minderheit die tatsächlich Benchmarksieger aus der Presse. Die breite Masse will eigentlich eine verlässliche Grafikkarte die möglichst leise ist. Nvidia macht dort da das große Geld, mit dem Ausschuss. Kunden und Presse sind in der IT leicht “manipulierbar”.

Kaufe ich gleich AMD. Auf die paar Prozent Leistung verzichtet man unter Abwägung der Eigenschaften gerne.


PS: Für Intel ist das Spiel mit Benchmarksiegen zu Ende. Aktive Kühlung notwendig, deutlich höherer Stromverbrauch als bei AMD und Apple ist inkompatibel aber viel effizienter (deren Brot und Buttermodell ist passive gekühlt). Und das kann auch Nvidia passieren. Es sind schon so viele gefallen (SGI, Sun, Nokia, 3DFX…beinahe Apple). Und deren Mondpreise machen den aggressiven Einstieg in der Markt attraktiv. Und wer tut es? Intel. Welche Ironie.
 
  • Gefällt mir
Reaktionen: SweetOhm
ElliotAlderson schrieb:
Welche ganzen Probleme? Wenn man sich deinen Schwachsinn hier so durchliest, müsste man meinen, dass der GPU Hilfebereich in sämtlichen Foren voller Probleme mit 12 VHPWR Steckern ist, aber komischerweise findet man nicht eine einzigen aktuellen.
Der Sicherheitsfaktor ist schon übelst klein.
Nach modernen Kriterien wäre auch zu erwarten, dass diese User-Fehler nicht auftreten können. Da ist bei der Entwicklung imho schon Fahrlässigkeit im Spiel gewesen.

Zum Thema max power usage >= 250W und Effizienz sollte man sich ruhig mal ansehen, was die Laptop-Varianten der RTX 4080/4090 zu Stande bringen. Das ist schon beeindruckend und imho der Weg, den man hätte auch im Desktop einschlagen sollen.
So sehr ich nVidia auch den Vorzug vor (aktuellen) AMD-Karten gebe, man hat sich (spätestens) seit Ampere für die Brechstange entschieden.* :freak:

*Die 3080 konnte sich 95W bzw. 105W mehr gönnen als die 2080.
Zur selben Zeit hat man auch die Titan eingestampft und in den Mainstream eingeführt - mit einem noch höherem PT!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Nighteye
DJMadMax schrieb:
wieso genau hängt man sich an einer Grafikkarte mit 300, 450, 600 Watt Verbrauch auf? Es obliegt ja dem Nutzer, ob sie so viel Strom ziehen darf.
Ich bin bald 40 und Wohne seit ich 1 Jahr alt bin in der gleichen Siedlung.
Hier gab es in den 80ern und 90ern und 2000ern und 2010ern nie Blackouts.
Seit diesem E Auto Wahnsinn, und Speziell seit dem Ukraine Krieg, haben wir immer öfter Blackouts.
Ich finde da macht es schon was aus wie die Masse seinen Strom verwendet. (Alle Laden zb Gleichzeitig Abends ihr E Auto und überlasten dass Netz)
Und wie ich dir eben zeigte, eine RTX 4090 ist laut Steam Massenware.
Wenn dass mit der RTX 5090 Verbreitung auch so wird, hat dies durchaus einen Negativen Einfluss auf vieles.

DJMadMax schrieb:
eine RTX 4060 leistet gute 20% mehr als eine RTX 3060
Eine RTX 4060 Ti leistet sogar knappe 50% mehr als die 3060
Sorry aber du hast mir so eine gute Steilvorlage gegeben :D
1735554229699.png

1735554303545.png
 
  • Gefällt mir
Reaktionen: SweetOhm
Shio schrieb:
Der 12V-2x6 bzw der alte 12VHPWR ist schon variabel.
Wenn die Karte zurückmeldet sie braucht nur 300W, liefert das Netzteil auch max nur 300W. Das ist ja der eigentliche Sinn des neuen Standards.
Nein, es ist genau andersrum. Die Sense Pins signalisieren der Grafikkarte wie viel Leistung das Netzteil maximal zur Verfügung stellt, entweder 0W (Stecker nicht richtig drinn), 150W oder 300W. Je nachdem zieht die Grafikkarte dann nicht mehr oder der PC geht erst gar nicht an, wenn man zBsp eine 4090 an ein 400W Netzteil anschließt.

Netzteile liefern immer was gerade abgerufen wird, solange bis irgend ein Schutzmechanismus greift, zBsp. Überstrom oder Übertemperatur. Mit den Lastspitzen die deutlich höher liegen können als die Dauerlast wäre das auch gar nicht anders möglich.

Adapterkabel für ältere Netzteile umgehen das Ganze indem einfach die Sense Pins im Adapter entsprechend mit Masse belegt bzw. kurzgeschlossen werden.
 
  • Gefällt mir
Reaktionen: DJMadMax, Quidproquo77, Firefly2023 und eine weitere Person
floTTes schrieb:
Der Sicherheitsfaktor ist schon übelst klein.
Nach modernen Kriterien wäre auch zu erwarten, dass diese User-Fehler nicht auftreten können. Da ist bei der Entwicklung imho schon Fahrlässigkeit im Spiel gewesen.
Wenns Fahrlässigkeit wäre, müssten die Foren nur so von defekten Steckern überflutet werden. Fakt ist aber, dass es nicht so ist. Da kannst du noch so viel mit theoretischem "Wissen" kommen, die Praxis widerspricht dir.
 
  • Gefällt mir
Reaktionen: SweetOhm, DJMadMax und Otsy
ElliotAlderson schrieb:
Wenns Fahrlässigkeit wäre, müssten die Foren nur so von defekten Steckern überflutet werden. Fakt ist aber, dass es nicht so ist. Da kannst du noch so viel mit theoretischem "Wissen" kommen, die Praxis widerspricht dir.
Dass es dennoch halbwegs funktioniert, schließt nicht aus, dass es hätte viel besser sein können.
Man kann so arbeiten ... meine Messlatte wäre es nicht. So'n Teil würde nie zu einer DIN.
Sicherheitsfaktor von 1,1 ist lächerlich. Damit kriegt man höchstens noch seine seine Bachelor-Arbeit durch ... in Nordkorea ... nach dem Atomkrieg!

Das richtet sich auch nicht gegen nVidia, sondern gegen den Stecker, den nVidia mglw. zu "früh" eingeführt hat.

Die 24-Pin-ATX-Stecker für's Mainboard haben nur einen Sicherheitsclip: in der Mitte, einseitig. Das ginge sicherlich auch besser.

Wir können uns auch drauf einigen, dass es solide Ingenieursarbeit ist. Ingenieurskunst allerdings nicht! :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Warum sollten sie auch mehr Stecker benutzen ?
Wer net viel Leistung brauch brauch auch nicht viel Strom.
 
Holzinternet schrieb:
Steve Burke und der Bauer sehe ich nicht als Clickbait. Und es sind auch Karten unterhalb der 4090 betroffen. Liegt, für mich, am Zwang des Anschlusses.
Roman und ich meine auch Steve haben nie 12VHPWR an sich in Frage gestellt. Roman kritisiert nur die im Vergleich zum alten PCIe-Stecker geringe "Sicherheitsreserve". Er hätte also an der 4090 gerne 2x 12VHPWR gesehen. Wären ja immer noch 2 Stecker weniger, als mit den alten Steckern.
Aus seiner Sicht geht bei Volllast zu viel Strom über eine einzelne Leitung - und wenn die dann halt nicht richtig Kontakt mit dem Anschluss hat, wird es zu heiß und es brennt.
Allerdings muss man dazu sagen: Das sind und waren immer EINZELFÄLLE. Wenige Einzelfälle. Und betroffen war auch nur die 4090. Auch die 8-PIN-Stecker sind schon abgebrannt aufgrund verschiedene Gründe.

Warum hier bei einer Karte, die wohl im Bereich 250-260 Watt liegen wird, überhaupt ein Fass um den Stecker aufgemacht wird. Mit 12VHPWR hätten wir hier EINEN Stecker. Jetzt haben wir hier halt wieder mindestens 2 und der ein oder andere Hersteller wird vermutlich OC dran schreiben und einen dritten Stecker verbauen.
 
Es kommen also Treiber die die final zu erwartende Leistung noch mehr steigern werden!

Ich kann's kaum erwarten. Dieses kleine Performancewunder für $500-600 das jegliche RTX 4080 im die Schranken weisen wird. Die vorherigen Gerüchte sahen die Performance 5% unterhalb der 4080. Jetzt können wir wohl Performance erwarten die gleichauf ist. Und da gibt's noch die Partnermodelle die bis zu 330 Watt Leistungsaufnahme gehen dürfen. Da dürfte es noch 6-7% mehr Performance geben und die 4080 wird glatt geschlagen. Ist schon hart für Leute die 1200 euro für eine 4080 ausgegeben haben. Hätte ich eine, würde ich jetzt sofort verkaufen um den baldigen unausweichlichen Preisverlust zu entweichen.

Ich werde mir jedenfalls eine 9070 XT vorbestellen sobald es möglich ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
Der 8-polige (6+2) PCIe-Stromanschluss ist nach wie ein guter Standard im PC-Bau. Normalerweise sollte jede Grafikkarte bis 300W TDP darauf setzen.

Der "Nvidia-Stecker" ist allein aus der Not heraus geboren, um Grafikkarten jenseits der 450W mit einem kompakteren Anschluss-Formfaktor betreiben zu können. Wirklich notwendig ist dieser allerdings nicht gewesen - vor allem für deutlich genügsamere Mittelklasse-GPUs. Schlussendlich dient er nur dem Zweck, dass die Geforce optisch etwas besser als die Konkurrenz aussieht. (Stichwort: "Ich bin der Schönste.") Und dass der exklusive Stecker unverständlicher Weise auch noch etliche technische Pannen hatte, sollte ebenfalls erwähnt werden. Normalerweise ist das keine gute Werbung für einen Hersteller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr.House, Kalsarikännit, Bänki0815 und eine weitere Person
Die 4090 ist eigentlich weit weg von der maximalen Last des Steckers und trotzdem gab es dort solche Probleme das es zumindest Klagen, Rückrufe und erweiterte Garantie von manchen Herstellern gab.

Würde sich niemand Aufregen oder darüber berichten hätten wir noch den selben Müll-Stecker wie am Anfang und die Hersteller würden sich ins Fäustchen lachen weil die abgefackelten Karten ja durch "Anwenderfehler" entstanden sind und so die Garantie nicht greift.

12V-2x6 ist benutzbar aber für einen neuen Standard einfach ein kompletter Fail, würde mich nicht wundern wenn man in den nächsten 10 Jahren wieder davon weggeht.
 
g9robot schrieb:
Ist das Satire oder muss man unbedingt mit der Angst leben dass die 2k€ GPU wegen so einer Inkompetenz am laufen gehalten wird?
Ich denke nicht, dass die RX 9070 über 2000 Euro kosten wird.
Imkompetent ist für mich Dinge zu erzählen, die keinen Sinn ergeben.
Wozu soll ich einen doppelt so hohen Materialaufwand eingehen (2x6+8Pin) + Kabel um eine GPU zu versorgen die 260 Watt zieht?
 
E1M1:Hangar schrieb:
eine 2080 Ti mit 260 W Verbrauch gerade mal die Hälfte der fps bringt einer 4080 mit gleichem Verbrauch.
Ich hab diese Argumente nie verstanden, was hat denn eine 2080Ti mit einer 4080/4090 gemein?
Das ist doch Äpfel mit Birnen verglichen, denn die Titel, welche eine 2080Ti noch schafft im Vergleich zu einer 4090 ist gering bei selben Settings.
Somit - natürlich ist die FPS pro Watt hier kacke, weil: Achtung Übertreibung: jetzt ne 2080Ti bei nem Game 10 FPS schafft und ne 4090 60FPS.
Na und? Versteh das Beispiel echt nicht, die Karte ist ungeeignet für den Usecase, unabhängig der Leistung.

Natürlich würde eine 4090 bei selber FPS weniger Strom brauchen bei älteren Titeln, aber wer so rechnet, der hat das Konzept von technologischer Weiterentwicklung meiner Meinung nach nicht verstanden.
Natürlich kann man davon ausgehen, dass bei selber %-aler Leistungssteigerung zum Vorgänger eine ähnliche Energiedichte erhalten bleibt.

Genau das war die letzten Jahre nie der Fall, für kleine 2stellige Performancezuwächse hatte man die Karte stark vom Powertarget erhöht.
Das gefällt nicht jedem.
Manch einer hat kein Bock auf die Wärme, wieder andere machen sich wg. dem Stecker sorgen, wieder andere meinen es wäre zu teuer und manche sind ökologisch bedacht.

Jeder wie er will - mir persönlich ist es egal, kann auch gerne 2x 12VHPWR draufmachen und 1000W rein schieben.
Ich rette das Klima nicht und umbringen tun mich die paar Euro mehr Strom auch nicht.
Wir leben im Jahr 2024, da muss nicht alles LowEnergy sein, der Strom ist ja da....
 
ElliotAlderson schrieb:
Nicht nur Aufwand, sondern auch ein höheres Risiko für einen Defekt.
Stimmt, wer kennt sie nicht, die unzähligen Threads über defekte PCIe Kabel. Moment?
 
  • Gefällt mir
Reaktionen: SweetOhm, Otsy und Kalsarikännit
Zurück
Oben