News RTX 5000 an zu wenig Kabeln: RTX 5090 geht mit 3×8 Pin PCIe, RTX 5080 aber nicht mit 2×8

Bei mir heißt es eher: Kabel an zu wenig 5090...

Oder anders: an den Kabeln würde es nicht scheitern... Die sind da.
 
scryed schrieb:
Weg mit der Peitsche, was ist mit den semi nativen Kabel zb die von seasonic die ein Stecker an der graka und zwei 8pin (wo nur jeweils6 gepinnt sind) und auch 600w abkann
Kein Problem... - Kodierung ist ja im Kabel und diese sind bis 600W zugelassen.

Natürlich kann man auch die Kodierung vom beiliegenden Adapter ändern - testweise dauert es <30s^^
 
theGucky schrieb:
Nicht moderne Karten, sondern Karten mit 12VHPWR.
Meine aktuelle 4070 (keine Super) zieht ja auch nur 150W über einen 8-Pin, die restlichen 50W kommen aber vom PCIe-Slot.
Max OC sind 216W.
Es gibt auch 7900XTX Karten mit nur 2x8-Pin, also 300W. Deren TDP ist aber 355W, da ist die Grenze keine 11W entfernt.

Hast du das gemessen oder nur vermutet?

Gerade bei AMD würde es mich nicht wundern, wenn denen die Spezifikation nicht so wichtig ist und die trotzdem einfach etwas mehr aus den PCIe 8 Pins ziehen statt aus dem Slot.

Nvidia hat sowas auch schon gemacht.

Ist realistisch betrachtet auch absolut unbedenklich, die Spezifikation ist ultra konservativ.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Neodar schrieb:
Welches Feuerwerk? Wenn die Stromversorgung nicht ausreicht, funktioniert die Karte einfach nicht und fertig. Da explodiert nichts und brennt auch nichts.
Das Steckersystem hat sich bei der 4090 schon nicht mit Ruhm bekleckert und es hat ein paar Versionen gedauert bis die die Probleme einigermaßen im Griff hatten und Stecker und GPU nicht mehr zusammen geschmolzen sind. Bei 450W wohl gemerkt. Ob die ganze Bastelei auch über 500W stand hält werden wir bald herausfinden.

///////////////////////edit:
Heute ist bald:
https://www.reddit.com/r/nvidia/comments/1ilhfk0/rtx_5090fe_molten_12vhpwr/
rtx-5090fe-molten-12vhpwr-v0-26wiwqtmv4ie1.webp
 
Zuletzt bearbeitet:
Freiheraus schrieb:
Wo im Launch-Artikel findet man denn das Raytracing-Perfomancerating mit verringerter TDP (450W & 400W)? Soweit ich sehe gibt es auch dort nur Rasterizer-Perfomanceratings mit verringerter TDP.

Mit Raytracing wären die Unterschiede aber eben noch geringer zur RTX 4090, was bissi doof ist (aufzuzeigen).
Du hast mich falsch verstanden, ich meinte das CB schon seit dem Launch Artikel in den Nachfolgeartikeln keine RT Benchmarks liefert. Der Launch-Artikel hatte diese, aber halt nicht die speziellen Messungen / Vergleiche der späteren Artikel.

BTW, selbst der Launch-Artikel war jetzt nicht so geil wie ich es von CB erwarte (zugegeben von den Spiele-Tech-Reviews), IMO hätten da mehr native 4K Benches (oder noch besser, DLSS mit der höchsten Auflösung welche die Vergleichskarten nicht von der VRAM Menge überfordern) rein gehört, welche bei anderen Testern auch für eine etwas höhere Performance gegenüber der 4090 gesorgt haben (eher 30 bis 40% statt 15 - 30%)...
 
Liegt mir zwar fern warum man sich eine Grafikkarte jenseits der 1000€ kauft und dann nicht genug Geld für ein vernünftiges Netzteil übrig hat (oder ausgeben möchte), aber jeder wie er mag.

Viele warten noch auf eine vernünftige Verfügbarkeit der 5090… die Zeit kann man dann für das Netzteil Upgrade verwenden :)
 
  • Gefällt mir
Reaktionen: FR3DI
Die Stecker bzw. Buchsen sind eine Pleite. Was für ein Baum an der Karte.


Screenshot_20250203_235935.jpg


und für 4 FPS 125 Watt? Verstehe ich was falsch oder drehen alle durch?
 
  • Gefällt mir
Reaktionen: ghecko
Blaexe schrieb:
Warum ist es dann sO lOgIScH
Es ist logisch, das die Karte wie vorgegeben mit Strom versorgt wird. Das wenn dies nicht erfüllt wird, zu Problemen führt, sollte mitunter klar sein wie ein Glas voll Apollinaris.

Da tut es auch nicht zur Sache, das eine RTX 5090 eine Ausnahme stellt, weil diese dies erkennt und dementsprechend die TDP automatisch einschränkt.
Die TDP wird daraufhin auf 450 Watt gedeckelt – also genau so hoch, wie dreimal 8 Pin PCI Express spezifikationskonform bereitstellen können.
Mir ist auch kein Fall bekannt, wo es dies zuvor schon gegeben hätte.

Das Experiment ist weiterhin eine absolute Lachnummer. Schön für die, wo es funktioniert, weil das Nötige Kleingeld für ein passendes NT nicht auf Börse war.

Ich würde im Traum nicht drauf kommen, mir das einfallen zu lassen.
#ComputerBild-Qualität

Ich sehe schon die kommenden Mitternachts-Threads; Trotz High-End Hardware, Low FPS und oder so ähnlich.

Gruß Fred.
 
Ist eigentlich logisch und Standard der PCIe Definition (CEM 5.x), dass über die Schaltlogik im Adapter bzw. der Belegung im 12V2x6 Kabel die Leistungsfähigkeit des Netzteils and die Karte gemeldet wird. Es wäre eher schlimm, wenn es nicht so wäre. Die Karte kann auch nicht mit zwei Adapterkabeln betrieben werden, weil die Firmware der 5090 nach unten hin auf 400 Watt begrenzt ist. Das schaffen 2 Kabel nicht, also bleibt die Karte aus.

Gegentest: Brücken der 4 Sense-Pins und schon läuft die Karte wieder, allerdings würde ich sowas nicht machen :D
 
  • Gefällt mir
Reaktionen: TobiD79 und Zarlak
FR3DI schrieb:
Da tut es auch nicht zur Sache, das eine RTX 5090 eine Ausnahme stellt, weil diese dies erkennt und dementsprechend die TDP automatisch einschränkt.
Natürlich tut es was zur Sache. Beides sind Grafikkarten der gleichen Reihe, also würde man das gleiche Verhalten erwarten. Ist logisch, oder?
Oder?
 
Das Verhalten gibt s übrigens seit ATX 3.x und CEM 5.x ganz offiziell und es hat sich bisher niemand daran gestört. Selbst eine 4090 kann das bereits, es ist also schon lange die Norm. Dazu habe ich nicht nur einmal was geschrieben, auch über die Bedeutung der 4-Pin Seitenbandanschlüsse. Deshalb verstehe ich die ganze Diskussion nicht wirklich...

Das funktioniert seit 2 Jahren wie es soll und NVIDIAs Firmware hat das auch schon so lange sauber implementiert. Das heißt auch, dass eine Karte mit weniger verschalteter Logik als das BIOS es als minimales Power Limit setzt, nicht starten darf. Kann man nachlesen ;)

1738649479427.webp


Da der NVIDIA-Adapter laut Spezifikation den Fall mit 150 Watt generell nicht vorsieht, wird EIN Kabel nie also funktionieren können. Auch das ist bekannt. Dann muss man 3rd-Party-Kabel kaufen oder selbst Hand anlegen. Allerdings muss auch hier ein minimales Power Limit von >=150 Watt im BIOS hinterlegt sein.

Nachtrag
Die 300-Watt-Implentierung ist übrigens immer noch freiwillig. Wenn man es aus Sicherheitsgründen nicht will, dann nicht. Zumal man mittlerweile auf den Adaptermüll echt mal verzichten sollte. Es gibt genügend Netzteilkabel, die auch mit < ATX 3.x funktionieren.

Die 5080 ist auf 300 Watt++ limitiert. Wäre sie z.B. auf 290 Watt gesetzt, würde das wohl auch mit dem Adapter funktionieren, wenn es NVIDIA so im Adapter implementieren lässt. Der 3-Pin von NVIDIA hat aber nur eine einfache Schaltlogik, das kann man messen. Man möchte es einfach dort nicht. :D

1738651862055.png


Es liegt nur am Adapter selbst. Wer einen älteren 2-pin Adapter besitzt, wo das Seitenband noch offen oder komplett beschaltet ist, der kann auch mit zwei Kabeln arbeiten. Den NV-Adapter kann man aber austricksen, weil er auch nur die beiden Sense-Pins des 6+2 kontrolliert. Einfach den +2 kurzschließen, dann startet die 5080 auch mit 2 Kabeln :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TobiD79, YY247, Zarlak und 3 andere
Warum dann nicht gleich eine kleinere Karte holen, die weniger zieht und deutlich weniger kostet? Der Vorsprung der 5090 verringert sich so ja doch, nicht zwingend spürbar im Spiel, aber im Geldbeutel.
 
Afterburner geht auch und es ist im Prinzp ja nichts anders. 5090 mit Frame Limiter passend zum Monitor aus dem Treiber und etwas Spielerei an der V/F-Curve (offsets) im AB sind schon nice :D
 
  • Gefällt mir
Reaktionen: Zarlak
FormatC schrieb:
Einfach den +2 kurzschließen, dann startet die 5080 auch mit 2 Kabeln :)
Das man das austricksen kann, damit hatte ich gerechnet. Nur als potenzieller Käufer einer RTX 5090 sehe ich ich auch kein Problem darin, sich ein normgerechtes und gutes NT für 150€ dazu zu bestellen. Das macht den Kohl dann auch nicht mehr fett.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI und Zarlak
Gähn 😩 wieder mal ein Artikel über nicht existente Geister-Hardware ... 😠

Ich weiß, liebe ComputerBase-Redaktion, das ist nunmal Eure Arbeit, über RTX 50** zu berichten.
Bin trotzdem genervt. Nicht von Euch sondern wegen der Gesamtsituation.
 
Für mich wird relevant sein, ob die 5070TI an 2 Kabeln geht (an sich müsste es reichen - die 9070XT hat ja auch varianten mit nur zwei Steckern und eine höhere TDP)...
 
JackTheRippchen schrieb:
Und warum werden die zusätzlich möglichen 75W über den PCIe-Steckplatz nicht hinzu gezogen?
Man müsste das Mainboard entsprechen modifizieren, die sind teuer genug und dann werden die noch teuer. Und du bist dann der Erste, der hier um Forum meckert, warum die Mainboards so teuer sind!

Du verstehen ?
Ergänzung ()

an0n1man schrieb:
Gähn 😩 wieder mal ein Artikel über nicht existente Geister-Hardware ... 😠
Sollen die warten, bis du dir eine kaufst und dann berichten?
 
  • Gefällt mir
Reaktionen: Kai85
Erstens lässt das Mainboard am 12 Volt nur 5.5 Ampere zu, also 66 Watt und zweitens entfallen noch einmal 3 Ampere auf 3.3 Volt, was rund 10 Watt wären, würde man die noch nutzen. Daher kommt wohl vielleicht auch die urban legend mit den 75 Watt, die so aber nicht stimmen. 75 Watt währen es auch, wenn das Netzteil innerhalb der ATX-Spezifikationen stark übervolten würde, was aber kaum der Fall sein sollte. Die meisten guten Boards haben sogar noch einen PCIe-Anschluss am Mainboard, um den 24-pin zu entlasten.

Aber mittlerweile sind die Topologien so, dass man auf 3,3 Volt fast verzichtet, weil die kleineren Stepdown-Konverter mit den auf der Platine zentral geregelten 5 Volt besser klarkommen und man auch die Platine weniger komplex gestalten kann.

Die PCI SIG sagte anfangs 600 Watt in der Summe aus PCIe Slot (PEG) und 12V2X6, mittlerweile sind es laut Norm sogar 600 + 66, also 666 Watt für eine solche Karte (wenn man 3.3 Volt mal weglässt). Deshalb ist auch eine Asus-Karte mit z.B. über 620 Watt immer noch in der Norm, wenn am 12V2X6 nicht dauerhaft mehr als 600 Watt abgeholt werden. Da ist nichts Verbotenes dran.

Trotzdem ist es einfacher, einfach alle Phasen generell auf den 12V2X6 zu legen und nicht zwei oder drei auf den PEG. Das erleichtert das Monitoring ungemein und verringert auch wieder das Layout und damit letztendlich auch die Kosten.

Die ganze Thematik hat übrigens NICHTS mit Blackwell zu tun, da ging schon viel, viel früher los. :)
 
  • Gefällt mir
Reaktionen: TobiD79, Gravlens, Zarlak und 3 andere
FormatC schrieb:
Die meisten guten Boards haben sogar noch einen PCIe-Anschluss am Mainboard, um den 24-pin zu entlasten.

Einen? Ich biete drei von den Teilen... auch wenn zwei davon eher die CPU-Stecker zu stützen scheinen...

1738662978454.png


FormatC schrieb:
Die PCI SIG sagte anfangs 600 Watt in der Summe aus PCIe Slot (PEG) und 12V2X6, mittlerweile sind es laut Norm sogar 600 + 66, also 666 Watt für eine solche Karte...

Hmm... eine teuflische Karte, mit 666 Watt - da könnte man doch was im Marketing... :mussweg:
 
Zurück
Oben