News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
Ich kann mich noch erinnern als PCGHx Mal nen Schokohasen von zwei Radeon HD4870x2 hat schmelzen lassen. Das wurde damals als Hitzemonster bezeichnet.
Gegen dass was hier vorbereitet wird ist das wohl nur Midrange.:freak:
 
wie gut das ich noch kein NT gekauft habe, da grakas aktuell eh nicht verfügbar sind warte ich dann direkt auf den neuen standard.
 
holdes schrieb:
Wenn dann auch 100 Watt Karten den neuen Stecker bekommen wird es wohl öfter vorkommen, dass man ein stark unterdimensioniertes Netzteil an viel zu starke Karten steckt.
Ich gehe mal davon aus, dass ein Netzteil mit nur 500 Watt oder weniger keinen vollbestückten 16Pin-Stecker für 600 Watt besitzt und somit die Karte erkennt, ob das Netzteil ausreichend ist oder nicht, so als wenn du bei einer Karte nicht alle beide bisherigen Anschlüsse anschließt.
 
@Highwind:
Vielleicht habe ich es etwas ungluecklich ausgedrueckt...
Worauf ich hinaus will, ist das ein moderner Rechner, um die Leistung eines 15 Jahre alten Officerechners zu erbringen, deutlich weniger Energie braucht.
Aber hast du dir die modernen Officepakete mal angetan? Das braucht so viel Leistung... Ich persoenlich habe das Upgrade von meinem 6-Kern Intel i7 5820k zu meinem Ryzen 5900x auch in Office deutlich gemerkt.

Und das ist ja nicht nur das Office. Auch das Surfen im Internet. Ich moechte garnicht wissen wie hoch der Anteil der Werbung am lokalen Stromverbrauch ist, vom serverseitigen Aufwand noch garnicht gesprochen.

Es werden ohne Ende Layer ueber Layer, Framework ueber Framework in der Programmierung eingebaut, und sich damit immer weiter von der Hardware entfernt. Klar ist das Programmieren dadurch einfacher, und die Rechenleistung ist ja da. Aber die Effizienz geht vollkommen den Bach runter.

@Erzherzog: Die Regulierung kommt, bzw. gibt es schon. Aber nicht in der EU, sondern in den USA, bzw. unter anderem Kalifornien. Aktuelle Gaming-Komplettsysteme duerfen dort zum Teil aufgrund der Effizienzanforderungen nicht mehr verkauft werden. Ich hoffe dass das ausgeweitet wird, und dadurch der Druck auf die Hersteller steigt. Einen regulierenden Markt (an den ich eh nicht glaube) haben wir in dem Segment jedenfalls nicht. Ohne Regulierung wird sich das nicht aendern, oder die Energiekosten muessten nochmal deutlich steigen.
 
  • Gefällt mir
Reaktionen: branhalor
Ich fände es ja eleganter, wenn die Stromversorgung der Grafikkarten, ähnlich wie beim Mac Pro (MPX-Module) als Erweiterung des PCIe-Slots direkt über das Mainboard gehen würde. Keine Stecker und kein Kabelsalat mehr.
Aber für 0815-PCs wäre so eine Lösung wohl leider zu teuer. Außerdem wäre es ein kompletter Kompatibilitätsbruch und man wäre unflexibler gegenüber zukünftigen Änderungen (z.B. noch mehr Stromverbrauch).
 
owned139 schrieb:
Naja ist irgendwie trotzdem seltsam. Das Netzteil hat eine Nennleistung von 500W, aber einen Stecker der bis zu 600W liefern kann.

Ist doch nichts anderes als heute mit den ganzen 8 Pin Stecker. Werden teils auch massiv verbaut, auch wenn das Netzteil die nicht voll ausfahren könnte. Es gibt halt immer gewisse Bereiche, in denen man sich bewegen muss und für genau solche Themen steht ja auf dem Netzteil drauf, was man da wirklich ziehen kann. ich habe auf meinem Auto auch reifen drauf, die bis 300 km/h freigegeben sind, obwohl mein Auto nicht so schnell fahren kann.

Discovery_1 schrieb:
Die Hersteller können noch kreativer werden, wenn man sie politisch unter Druck setzt. Das funktioniert bei den Autos ja auch recht gut.


Oh ja das funktioniert super. Sieht man gerade in der engstirnigen Ausführung der deutschen Industrie und dem Fokus auf eine einzige Technik, die weder den eigentlich nötigen Reifegrad hat (als einzige Lösung) noch wirklich Erfolg im eigentlichen Ziel bringt.

Aber vielleicht fördert der Staat dann ja auch effiziente PC Hardware finanziell... lol. Ein Staat ohne technisches Verständnis der Regeln vorschreibt ist das schlimmste, was technologisch passieren kann,
 
mojitomay schrieb:
Ich vermute eher, dass das Messleitungen sind.
Bei so viel Leistung spielt der Verlust auf der Zuleitung durchaus eine Rolle. [...]
(so dass bspw. 13,5V vom NT ausgegeben werden, wenn der Spannungsfall auf der Zuleitung 1,5V beträgt, sodass auch volle 12V ankommen)
Bei 55A Belastbarkeit sind je 0,1V Spannungsabfall 5,5W Verlustleistung. Wenn das also wirklich Messleitungen sind, dann hoffentlich nur um eine ine Notabschaltung auszulösen. -.-
Naja und für ne Messleitung braucht es maximal zwei Drähte. Was das Netzteil an Strom einspeist weiß es und da die Stecker eh nur 12V führen muss man nur eine Spannung messen.

Bei 4 Kontakten würde ich auf einen SPI Bus wetten.

edit: Formulierung angepasst
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
aappleaday schrieb:
Viele holen sich ja meist auch ein zu überdimensioniertes Netzteil für ihre Grafikkarte, da fängt es ja schon an....
Was fängt denn da an? 😂
Aktuelle 1000W Netzteile sind effektiver als 450W Netzteile von gestern.

Bei einer 3090 beim Netzteil zu sparen ist ja fahrlässig. 😅
 
  • Gefällt mir
Reaktionen: bondage game
Grafikkarten werden halt wie Autos: Die Privilegierten geben keinen Kehricht auf den Verbrauch und können sich einfach die "großmotorisierten" Top-Modelle einsetzen, während der Rest sich halt sparsamer Mittelklasse zufrieden geben darf. Blöd, aber Trend geht ja eindeutig dahin. :freaky:
 
owned139 schrieb:
Naja ist irgendwie trotzdem seltsam. Das Netzteil hat eine Nennleistung von 500W, aber einen Stecker der bis zu 600W liefern kann.

Aber das ist doch überall so? dein USB Netzteil kann vielleicht auch nur 5 Watt aber dein Handy kann 30 saugen. Immer gut wenn die Leitung nicht der Bottleneck ist.
 
  • Gefällt mir
Reaktionen: DaBo87
Über die Kommunikationsleitungen werden mit Sicherheit die Informationen ans Netzteil geschickt, wieviel Ampere benötigt werden.
Das digitale Netzteil kann sich entsprechend umschalten bzgl. Effizienz. Netzteile, die über PCIe nur 200 oder 400 Watt bereitstellen können, sind mit dem Stecker kompatibel. Ein Stecker für alle Karten. Super.

Ich frage mich aber, warum man nicht gleich auf 24V oder 48V geht. Weniger Kabel und USB-C erfordert diese Spannungen heute und in Zukunft.
NameHere schrieb:
Effizienz hat nichts mit dem Gesamtverbrauch zu tun. Wenn Gamer-Systeme auf einmal das doppelte verbrauchen aber eine ausgezeichnete Performance(Frames)/Watt liefern, bleibt es beim doppelten Verbrauch.
Es ist ja nicht so das die Gamer dadurch weniger zocken.
Quatsch. Früher musstest du Sli haben, doppelte Leistung für doppelten Verbrauch. Heute kaufst du eine starke mit doppelten Verbrauch. Die Entwicklung ist nur gut. Ist ja nicht so, dass es keine Grafikkarten mit einfachem Verbrauch für einfache Leistung gibt.
 
Zuletzt bearbeitet:
der Unzensierte schrieb:
Aber dann die Türe gleich bis 600W (eigentlich 675W, 600 + 75 über den PCI-slot) aufzustoßen ist schon völlig daneben.
Ich zitiere Deinen Beitrag nur stellvertretend für andere mit gleicher Aussage.

Es ist und bleibt zunächst nur ein Stecker, der die Leistung für einen Energieumwandler bereitstellen kann - aber nicht muss. Der Verbraucher (hier der ökonomische Konsument) muss sich solche ja nicht zulegen.
Ohne selbst Techniker zu sein finde ich diese Lösung technisch sinnvoll, da sie Bestände Lösungen/Designs zukünftig weniger komplex macht.
 
  • Gefällt mir
Reaktionen: Recharging und Zwirbelkatz
Das ist ja alles schön und gut, aber wie soll man denn 450W oder gar 600W auf einer Grafikkarte kühlen?
Das geht doch mit Wasserkühlung...

Für den "normalen" Gamer sehe ich den Sweet Spot bei 200 - 250W. Alles daarüber ist nicht bezahlbar und leise kühlbar.
 
  • Gefällt mir
Reaktionen: bondage game
Ich kenn mich aktuell nicht aus aber ich kann von meiner GTX1080 berichten das sie kaum Leistung Verliert bei 50% Power Target. Wie sieht das Effizienz technisch aus wenn man diesen Karten einfach das Budget streicht. Wo geht bei einer 3090 die Effizienz hin ? Klar den längsten Balken zu haben ist toll. Aber 50% weniger Strom bei 10% weniger Leistung ist schon eher der Sweet Spot.
 
  • Gefällt mir
Reaktionen: R00tMaster71
Dann wird meine GTX 1080 noch lange bleiben dürfen... die zieht max. 180 Watt. Das ja nen Schnapper im Vergleich zu den neuen Karten 😅 mit UV lande ich bei 150 Watt bei minimalen Leistungsverlust. Da muss mein Stromanbieter mir ja noch bald was zahlen^^

Meine olle 150 Watt TPD CPU im Zusammenspiel^^

Kann man nur den Kopf schütteln. Und nicht mitmachen...

Gruß
Holzinternet
 
estros schrieb:
Quatsch. Früher musstest du Sli haben, doppelte Leistung für doppelten Verbrauch. Heute kaufst du eine starke mit doppelten Verbrauch. Die Entwicklung ist nur gut. Ist ja nicht so, dass es keine Grafikkarten mit einfachem Verbrauch für einfache Leistung gibt.
Nö! Schau dir Smartphone SOC's an. Die Verbrauchen mehr oder weniger seit Jahren das gleiche, leisten von Generation zu Generation immer mehr. Warum bringen die keine Grafikkarte raus die gleichem Total-Verbrauch
deutlich mehr leistet!? Die meisten aktuellen Grafikkarten sind in deren Leistungsklassen 1-2 Stufen im Verbrauch gestiegen, auch wenn diese jetzt mehr leisten ist doch die Mehrleistung meist durch mehr Strom erkauft.
 
  • Gefällt mir
Reaktionen: MGFirewater
branhalor schrieb:
Aber unser Gesamtproblem in Energiehinsicht ist wesentlich größer als hier und da ne einzelne HighEnd-Gamer-Grafikkarte mit bis zu 600 Watt.

Ohne dich in irgendeiner Weise persönlich angreifen zu wollen und zu sehr OT zu werden.

Doch, die eine HighEnd Grafikkarte ist Teil des Problems, denn tausende dieser einzelnen Grafikkartenbesitzer reden sich mit der gleichen 'Aber XY ist noch viel Schlimmer' Mentalität raus. Es ist eben nicht eine GPU, die nur mal am Wochenende ein paar Stunden läuft, es sind tausende einzelne GPUs, die in Summer tausende Stunden laufen.

Der 2,5 Tonnen SUV, der von Max Mustermann 300 Meter zum Bäcker gefahren wird, ist ein zusätzliches Problem.
 
  • Gefällt mir
Reaktionen: Recharging, R00tMaster71, sz_cb und eine weitere Person
estros schrieb:
Quatsch. Früher musstest du Sli haben, doppelte Leistung für doppelten Verbrauch. Heute kaufst du eine starke mit doppelten Verbrauch. Die Entwicklung ist nur gut. Ist ja nicht so, dass es keine Grafikkarten mit einfachem Verbrauch für einfache Leistung gibt.
Es ist sogar noch deutlicher: Früher mit Multi-Graka-Setups hatte man doppelten Verbrauch für im BestCase doppelte theoretische Performance. In der Praxis sah es deutlich düsterer aus. Selbst ohne AFR-Mikroruckler überhaupt Beachtung zu schenken war die Mulit-Graka-Skalierung nicht gut --- außerdem hat man effektiv die Hälfte des VRAMs verschwendet.

Auch waren früher die schnellsten Grakas meistens auch ohnehin schon die ineffizientesten --- heutzutage haben hingegen quasi alle Grakas einer Architektur in etwa die gleiche Effizienz.
 
ich glaube es wird sich zu sehr auf "Ultra-Settings!", Raytracing und und 4k versteift. Diese Leistungsgruppe muss irgendwie bedient werden und dafür sind völlig neue Grafikkarten mit Preisen jenseits der 600€ entstanden.

Mir genügt 1440p vollkommen, da endet das Interessengebiet daher bei 6700XT und RTX 3070. Dort befinden wir uns bei einer TDP von 230 bzw. 220W. Alles schick soweit, wenn die Preise auch mal wieder in Bereichen unter 600€ landen würden.
 
Eine 3090ti mit ~450 Watt verbrauch im peak soll es also sein.
Diese Karte bedient wohl nur den Enthusiasten, verstehe die Aufregung nicht.
Das ganze ist wie ein Supersportwagen. Es spricht die wenigsten an - sei es aus finanziellen Grünen oder weil man es einfach nicht braucht.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben