News 12VHPWR-Stecker: Überlasteter Steckverbinder auch ohne Adapter möglich

Galarius schrieb:
Sie sind effizienter UND ziehen zusätzlich mehr strom ansonsten hättest du keine 40-70% perf sprünge von letzter gen zu dieser.
und letzteres müsste nicht sein. 600W für eine einzelne komponente in einem pc ist wahnsinnig
noch vor 5 jahren war higend alles komplett keine 500W, die entiwklung ist schlichtweg wahnsinnig mmn.
baller mwehr enenrgie auf ein problem, mehr energie wir es richten anstatt man endlich mal hergeht und effizenten code produziert.
 
  • Gefällt mir
Reaktionen: Hagen_67 und sikarr
Galarius schrieb:
Sie sind effizienter UND ziehen zusätzlich mehr strom ansonsten hättest du keine 40-70% perf sprünge von letzter gen zu dieser.
ok das ist aber ne schein performance Sprung.Ich verstehe bei ner richtigen Effizients Steigerung das es bei gleicher Leistung weniger Strom zieht oder bei gleichen Strom mehr Leistung aber halt so 20-30 % mehr Leistung.Das verstehe ich unter der richtigen Effizients Steigerung.Mir egal das es bei mehr Stromverbrauch auch mehr Leistung dabei raus kommt.
 
  • Gefällt mir
Reaktionen: sikarr und roket
Und Du verstehst nicht, dass man dennoch mehr Leistung pro Watt hat, also höhere Effizienz.
 
  • Gefällt mir
Reaktionen: Galarius und Miuwa
SSD960 schrieb:
Mal sehen ob die nächste Generation noch mehr verbraucht.

Die Schwierigkeiten bzw. das Theater mit dem Stecker kommen doch dadurch zustande, dass die Karten eben wesentlich weniger verbrauchen als nVidia gedacht hatte und der Stecker deshalb eigentlich nicht notwendig wäre.
 
Die hätten besser eps 8pin genutzt von mir aus auch 2

Zack 1000watt möglich
 
  • Gefällt mir
Reaktionen: SSD960
Vindoriel schrieb:
Und Du verstehst nicht, dass man dennoch mehr Leistung pro Watt hat, also höhere Effizienz.
Ich glaube schon das er das versteht aber dennoch steht am Ende ein Mehrverbrauch gegenüber der Vorgängergeneration im Raum. Wobei man sagen muss das Ada mit gesenkten PT extrem Sparsamer als seine Vorgänger ist.
 
Cardhu schrieb:
Naja, es ist eine Weiterentwicklung. Gibt es überall. Würde nicht sagen, dass man sich damit einen Fehler eingesteht.
Der Stecker ist eine komplette Fehlentwicklung. Frage doch die Personen deren Grafikkarte abgefackelt ist und die diese nicht ersetzt bekommen weil NVidia denen die Schuld in die Schuhe gibt.
 
Vindoriel schrieb:
Und Du verstehst nicht, dass man dennoch mehr Leistung pro Watt hat, also höhere Effizienz.
Und du verstehst nicht, dass das zwei Paar Schuhe sind, FPS/W und Gesamtleistungsaufnahme. Die bessere Peformance pro Watt hätte man ja immer noch, auch wenn die Teile bei <400W geblieben wären.
Ich müsste mir auch schon wieder ein neues Netzteil kaufen, hatte ich aber erst mit der Anschaffung der 6800XT machen müssen. Irgendwann ist mal gut...
 
Puh, man hat also schnell reagiert, um Sammelklagen aus dem Weg zu gehen. Sonst hätte man keinen Finger krum gemacht. Aber man wundert sich weiterhin: wer sitzt da im Gremium/Konsortium, dass solch ein Murks auf die Menschheit losgelassen wurde? Hochbezahlte ohne Kompetenz?
Ich bin weiterhin der Überzeugung, dass hier unter Zeitdruck (auf Druck von Nvidia) ein Stecker realisiert worden ist. Ohne das neuartige Kühlerkonzept der 4000er Serie mit dem geringen PCB-Platz wäre ein solcher Stecker nicht von Nöten. Und wir wissen ja, wie ein Mensch unter Zeitdruck arbeitet. Fehler können übersehen werden bzw. man nimmt manches hin, weil es zeitlich eben nicht besser umsetzbar ist. Oder es war bis zum Produktionsstart der 4000er-Serie nicht mehr die Zeit vorhanden, den Stecker auf alle Szenarien ausgiebig zu testen. Auf jeden Fall eine wilde Nummer dieser Stecker mit einigen unbeantworteten Fragezeichen, wie es dazu kommen konnte.
 
Zuletzt bearbeitet:
Spike S. schrieb:
Und du verstehst nicht, dass das zwei Paar Schuhe sind, FPS/W und Gesamtleistungsaufnahme. Die bessere Peformance pro Watt hätte man ja immer noch, auch wenn die Teile bei <400W geblieben wären.
Gibt doch Karten die unter 400W ziehen. Worauf willst du hinaus?
 
roket schrieb:
600W für eine einzelne komponente in einem pc ist wahnsinnig
Welche 4090 zieht 600W dauerhaft die nicht OCd ist? Und wenn dir die Watt nicht taugen und du meinst es muss nicht sein dann hau en Powerlimit auf 70% rein und du hast immernoch ne effizientere Karte.
Ergänzung ()

latiose88 schrieb:
.Ich verstehe bei ner richtigen Effizients Steigerung das es bei gleicher Leistung weniger Strom zieht oder bei gleichen Strom mehr Leistung aber halt so 20-30 % mehr Leistung.
guck dir doch mal die benchmarks and und dann siehst du genau das. 20-30% mehr Leistung als der orgänger bei gleichem Strom.
 
  • Gefällt mir
Reaktionen: Miuwa und Leereiyuu
Galarius schrieb:
Ergänzung ()


guck dir doch mal die benchmarks and und dann siehst du genau das. 20-30% mehr Leistung als der orgänger bei gleichem Strom.
Ja aber nicht bei allen GPUS der 4000 Serie.Also wenn man es halt genau nimmt.So war das zumindest früher so gewesen.Bei der Serie sieht das halt ganz anderst aus.
 
Miuwa schrieb:
Gibt doch Karten die unter 400W ziehen. Worauf willst du hinaus?
Stimmt schon. Aber dennoch für mich nicht nachvollziehbar, warum bei den oberen Klassen einfach nochmal ordentlich drauf gelegt wurde, beim Verbrauch. Warum reicht es nicht mehr 20-30% zur Vorgängergeneration zuzulegen?
Aber ist vielleicht die gleiche Kerbe wie bei Autos, wozu braucht man in der Stadt ein Auto mit 200+ PS? Ich verstehe es nicht :confused_alt:
 
Spike S. schrieb:
Warum reicht es nicht mehr 20-30% zur Vorgängergeneration zuzulegen?
Weil halt 80%-100% mehr Leistung wie davor schon sehr viel geiler sind wie nur 20-30%. So ne möglichkeit zu upgraden gabs ewigkeiten nicht mehr.
 
Bei CPUs ist dann immer von der Brechstange die Rede, was zurecht negativ ausgelegt wird. Warum sollte bei GPUs ein anderer Maßstab gelten?
 
Vileleicht weil gpu mehr Gewicht hat weil es halt so viele Zocker gibt und die dann sagen geil endlich richtig 4k genießen. Die sind dann auch bereit dafür mehr zu bezahlen. Zudem ist ne gpu größer und kann daher auf mehr Fläche abgeführt werden. Was bei CPU ja nicht möglich ist weil diese dafür viel zu klein sind. Es sollte keine ausrede sein. Es interessieren echt mehr Leute die gpu als die CPU. Darum kriegte ich ne gpu viel schneller wieder los als ne cpu. Warum das so ist kann ich nur aus Zocker sagen. Ich finde es dennoch traurig weil zum zocken ist ja eigentlich auch die CPU wichtig. Aber inzwischen liegt halt echt mehr der Fokus auf gpu.
Bei 4k wird die gpu auch viel wichtiger als die CPU weil diese halt mehr limitiert

Ich selbst bin jedoch kein richtiger Zocker mehr, weil full hd ist halt Standard und für richtiger Zocker eher nicht mehr so interessant weil es halt eben keine so hohe Auflösung mehr ist. Für so eine Auflösung würden die meisten gewiss keine 1600 € gpu ausgeben nur um dann in 60 oder 144 Hz bzw fps bei full hd zu zocken.

Nun gut man sieht da halt es wird mit zweierlei Maßstab gewogen. Als corona war hätte ich immer ne cpu kriegen können nur halt keine gpu. Weil es halt ne andere Welt ist. Darum auch die Gtx 1060 so gut weg bekommen obwohl die schon einige Jahre auf dem Buckel sind. Richtige Zocker sind manche echt verrückt.
Das kann ein nicht Zocker halt eben nicht wirklich verstehen. Und ein Gelegenheit Zocker versteht es zwar aber kann nur mit dem Kopf schütteln. Langfristig werde ich wohl immer mehr zu der unteren Liga gehören. Onboard gpu wird mit der Zeit auch immer besser werden und da komme ich wohl dann auch hin. Wäre auch merkwürdig wenn die Leistung nicht mehr sich steigern würde.
 
Spike S. schrieb:
Stimmt schon. Aber dennoch für mich nicht nachvollziehbar, warum bei den oberen Klassen einfach nochmal ordentlich drauf gelegt wurde, beim Verbrauch. Warum reicht es nicht mehr 20-30% zur Vorgängergeneration zuzulegen?
Welche Karten vergleichst du denn? Was ich do gelesen habe braucht die eher unter 20% mehr als der Vorgänger 4090 und sogar weniger als die 3090TI. Die Anderen 40er Karten brauchen alle deutlich weniger die Vorgänger.

Spike S. schrieb:
Aber ist vielleicht die gleiche Kerbe wie bei Autos, wozu braucht man in der Stadt ein Auto mit 200+ PS? Ich verstehe es nicht :confused_alt:
Bei High End geht's ja hier nicht um Stadtfahrten. Bei 4k+Raytracing wird die Leistung ja durchaus abgerufen. Und wenn die Rechenleistung Leistung nicht abgerufen wird auch keine (Strom-) Leistung aufgenommen.
Ergänzung ()

Spike S. schrieb:
Bei CPUs ist dann immer von der Brechstange die Rede, was zurecht negativ ausgelegt wird. Warum sollte bei GPUs ein anderer Maßstab gelten?
Weil hier eben nicht die Brechstange angelegt wurde (-> Betrieb weit jenseits des Sweetspots), sondern die 40er ab Werk ziemlich effizient betrieben werden.
Ergänzung ()

latiose88 schrieb:
Ja aber nicht bei allen GPUS der 4000 Serie.Also wenn man es halt genau nimmt.So war das zumindest früher so gewesen.Bei der Serie sieht das halt ganz anderst aus.
Ist jetzt die Beschwerde, dass diese Generation zu viel Strom braucht oder,cdass sie nicht genug Leistungszuwachs liefert?
Ich bin mir relativ sicher, dass du zu jeder 30er Karte eine 40er Karte findest, die bei gleich viel oder weniger Leistungsaufnahme 20-30% mehr Leistung liefert.


Davon ab war doch die Beschwerde eigentlich, warum die neuen Karten "so viel mehr" Strom verbrauchen. Bis auf die 4090 im Vergleich zur 3090 brauchen sie aber sogar weniger. Und auch da ist der Unterschied zum einen nicht groß, zum anderen liegt der Verbrauch immer noch unter der deklassierten 3090Ti und außerdem braucht die 4090 in vielen Szenarien weniger als die 3090, wenn man nen Framelimiter verwendet oder aus sonstigen Gründen (Fsync, reduziertes Powertarget, CPU-limit) nicht die volle Rechenleistung abgerufen wird. Wer also nen 3090 Nachfolger mit 20% - 30% mehr Spieleleistung aber deutlich weniger Verbrauch haben will bekommt auch das mit der 4090.

Hier wird sich wirklich über die falsche Generation beschwert.
 
Zuletzt bearbeitet:
Gibt's denn schon Meldungen, dass auch der 12V-2x6 nicht wirklich besser ist und ebenfalls abbrutzeln kann? Oder defintiv BESSER ist? 😅

Und andere Frage wäre, ob es Sinn macht vorbeugend den 12VHPWR auf den 12V-2x6 umbauen zu lassen und ob das über den Hersteller bei laufender Garantie möglich wäre.
Weiß da einer was zu?

Ansonsten habe ich in Erfahrung gebracht, dass das privat über Kleinanzeigen geht und ca 100€ kosten würde!

Ich selbst mache es erst mal nicht. Wenn überhaupt dann nur über den Hersteller und nur mit fortlaufender Garantie!

Natürlich kann man auch einen möglichen Brand abwarten und dann die Garantie in Anspruch nehmen aber sowas würde ich möglichst vermeiden wollen! 😆
 
Serandi schrieb:
Ansonsten habe ich in Erfahrung gebracht, dass das privat über Kleinanzeigen geht und ca 100€ kosten würde!
Das ist es nicht Wert. Steck den Stecker einfach ganz rein und gut ist, wenn die Kabel kein Platz haben da investier lieber in ein 90Grad adapater.
 
Zurück
Oben