News Für Lovelace & RDNA 3: Bilder des 12+4-Pin-Steckers für 600 W nach PCIe 5.0

PeriQue1337 schrieb:
Was alle immer mit dem Strom haben.
Mich interessiert der Verbrauch an sich auch nicht sooo sehr. So super viele Stunden am Tag rennt die Kiste eh nicht unter Last; da verballert der Ofen für den Sonntagsbraten bedeutend mehr.

Allerdings hat man das Problem, dass moderne Grafikkarten gerne auch mal die gleiche Geräuschkulisse wie besagter Ofen bei Umluft erzeugen. 600 Watt kriegt man auch mit einem 3,5 Slot Monster nicht mehr leise gekühlt.
So lange auch die "kleineren" Karten weiter existieren ist das ja ok, aber für eine RTX 4090 braucht man dann wohl Gehörschutz.

0x8100 schrieb:
ich hätte mal gerne so einen einzelnen kleinen stecker gerne direkt fürs mainboard.
https://www.computerbase.de/2021-01/atx12vo-netzteile-design/
 
Ein einheitlicher Stecker ist für mich etwas Positives und ich glaube wirklich, dass die GPUs auch in den nächsten Jahren nicht deutlich mehr als 500W verbrauchen werden, sodass dieser Stecker hoffentlich für eine lange Zeit ausreichen wird.

Bei wieviel Watt man seine persönliche Schmerzgrenze hat (Abwärme und/oder Kosten und/oder Gewissen), steht auf einem anderen Blatt.

Ich z.B. ziehe diese Grenze bei ~300Watt.
 
cypeak schrieb:
ich bin normalerweise der letzte der nach regulierung ruft, aber offenbar sind wir gerade dabei eine grenze zu überschreiten, an der es sinnvoll wäre wenn die regulierungsbehörden den herstellern mal warnend auf die finger klopfen...

Ich bin der letzte der nach Regulierung ruft, aber ich rufe hier nach Regulierung. :lol:

Die absolute Energieaufnahme ist doch völlig egal. Was wichtig ist, ist die Effizienz. Aber irgendwie betrachtet die kaum einer.

Herdware schrieb:
Naja. Ich denke, bei 600W kommt man da auch an Grenzen, zumindest wenn es "nur" 3 Slots sein sollen.

Nein nicht wirklich. Muss man sich nur mal angucken, was dir großen Kühler bei den 3090er karten mit aufgezogenem Power Limit schaffen. Selbst die Titan 7 hat schon 375 Watt mit Winz Kühlern und einem Lüfter geschafft. 600 Watt sind da noch kein Problem, zumindest bei einem normal belüfteten Gehäuse.

sikarr schrieb:
Welcher Markt will das? Rechenzentren sind das eine aber im PC Sektor?

Also eigentlich wollen Rechenzentren sehr effiziente Hardware ;) Denn da kostet viel Leistungsaufnahme doppelt. Im Betrieb und der Klimatisierung. Zudem sind es Unternehmen die am Ende damit Geld verdienen möchten.

Im heimischen PC interessiert es viele nicht. In den meisten teilen der Erde ist Strom relativ günstig und auch die Wärmeentwicklung hält sich da in Grenzen, wenn man nicht gerade in einem 5m² Raum spielt. Alleine das alle Hersteller OC Modelle anbieten sollte ganz gut zeigen, was die Kunden wollen.

sikarr schrieb:
Auf der einen Seite deklassiert Apple mit seinem M1 gerade die PCs in CPU und GPU was die Effienz angeht und auf der anderen Seite werden Standards gesetzt um noch mehr Energie in Wärme umwandeln zu können.

Das ist aber buchstäblich auch ein Vergleich zwischen Äpfeln und Birnen, wenn man Produkte mit unterschiedlicher Fertigung vergleicht, die für komplett unterschiedliche Szenarien entwickelt wurden.
DaBo87 schrieb:
Jetzt wären Firmen aus der Heizungs- und Klimabranche gefragt, um die Abwärme von PCs direkt ins Heizungssystem einzuspeisen. Das macht langsam richtig Sinn und dann wäre auch die hohe Abwärme bzw der hohe Verbrauch nicht so sehr tragisch, wenn dadurch die Heizung weniger verbrauchen würde :)

Ist doch völlig egal, ob du die Wärme über den Heizkörper oder den PC selbst in den Raum bringst. Wobei man sagen muss, auch 600 Watt heizen einen ganzen Raum jetzt nicht wirklich stark auf.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
0x8100 schrieb:
mal abgesehen von der sinnhaftigkeit von 600W für gpus - ich hätte mal gerne so einen einzelnen kleinen stecker gerne direkt fürs mainboard. der alte atx-stecker + das extra 4/8 polige kabel nervt einfach nur...
Du meinst ATX12VO?
 
bad_sign schrieb:
Wird BeQuiet entsprechende Kabel für seine Serien anbieten?
Davon ist zumindest stark auszugehen. Alle großen Hersteller werden entsprechende Kabel nachreichen, zumindest für ihre gehobenen PSU-Serien.
 
  • Gefällt mir
Reaktionen: MasterXTC, Onkel Föhn und bad_sign
Shoryuken94 schrieb:
st doch völlig egal, ob du die Wärme über den Heizkörper oder den PC selbst in den Raum bringst. Wobei man sagen muss, auch 600 Watt heizen einen ganzen Raum jetzt nicht wirklich stark auf.
...möchtest du im Sommer neben einem 600W Heizgebläse sitzen? Ich nicht. Ich merke es jetzt schon deutlich an der Raumtemperatur wenn der Gaming-Rechner 450+W aus der Steckdose nuckelt. Im Winter kein Problem, im Sommer ist es mehr als lästig...
 
Casillas schrieb:
Tja solange es einen Markt gibt, der immer mehr Leistung haben will

So sieht's aus.

Aber gut, das soll ja jeder für sich selbst entscheiden, ob er 4K Raytracing mit 200+ FPS für sein Lebensglück benötigt. Wer das bejaht, der soll es sich gönnen dürfen.

Ich höchstpersönlich finde ja, dass ein Spiel selbst nicht durch bessere Grafik gewinnt. Wenn das Spiel mies ist, tröstet ne tolle Grafik nicht drüber hinweg. Ist das Spiel toll, bleibt es auch bei nicht ausgereizten Möglichkeiten toll.
Kenne jedoch genug, denen es genau andersherum geht und in der eine bessere Grafik immer auch ein besseres Spiel erzeugt.

Aber ich stamme auch aus einer Zeit, in der QBasic-Spiele in Schwarz/Weiß oder das großartige Accolade Grand Prix in Schwarz, Weiß, Magenta und Türkis dargestellt wurde oder in der mein Vater eine neue Grafikkarte (Tseng Labs ET4000) kaufen musste, weil Sim City 2000 in SVGA lief.
Oder in der Lara in Tomb Raider 1 mit ihren scharfen Kanten auf der PSX so lebensecht aussah.

Ich konnte mich immer mehr an einem tollen Soundtrack, ggf. Sprachausgabe hochziehen und entsprechend floss das Geld eher in Audioequipment. Und Audioequipment zieht u.U. auch viel Stom.
 
Shoryuken94 schrieb:
Die absolute Energieaufnahme ist doch völlig egal. Was wichtig ist, ist die Effizienz. Aber irgendwie betrachtet die kaum einer.
mit verlaub, das ist eine irreführende aussage.
würden wir wirklich über effizienz reden, hätten so einige produkte der hersteller die letzten jahre nicht den markt erblicken dürfen!

davon abgesehen: wenn die energieeffizienz ja steigt, heißt es ja dass wir aus den bereits vorhandenen maximalen leistungsaufnahmen wesentlich mehr performance herausholen können.
zumal der sprung der die letzten jahre vollzogen wurde, so langsam in eine ecke abdriftet die kaum einer gutheißen kann.
eine rtx2080 kam noch mit ~220w aus. wir reden hier von 600w steckern und zusätzllich bis zu 75w welche die gpu's per pci beziehen können und grakas die heute schon die 400w marke geknackt haben.

ich bin selbst kein "mönch" und weiß dass performante hardware auch einen gewissen stromhunger hat, aber ich glaube auch das keiner bestreiten kann dass diese entwicklung sicherlich nicht der effizienz dient!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slainer
mehr als einen Stecker dieser Art wird es auf keinem geben.
Multi-GPU ist also wirklich tot! Und Ich dachte, das sei ja nicht nur zum Spielen gut?

Gruss Fred.
 
catch 22 schrieb:
Fridays for Future oder ähnliches muss dir irgendwann einmal so richtig böse in deinen Bereich für die Familienplanung getreten haben, anders kann ich mir diese überaus pauschale, dumme und echt fade gewordene Textpassage von dir nicht wirklich erklären.

Nein da muss ich dich enttäuschen. Keine Ahnung wie du da überhaupt drauf kommst. Weil ich nicht pauschal über eine absolute Wattangabe weine?

catch 22 schrieb:
Es geht mir bei meiner Aussage aber weniger um den Stromverbrauch an sich, schließlich kann jeder nach eigenem Ermessen auf einem anderem Gebiet unabhängig vom Verbrauch seines Rechners elektrische Energie sparsam einsetzen oder verplempern. Die Zocker-GPU im eigenem Rechner sagt zu dem Thema nichts aus.

Das ergibt im Kontext zum Artikel aber wenig Sinn. Du sagst, dass du das Zocken mit 275 -300 Watt Karten als grundlegend falsch betrachtest, kaufst dir aber die übertaktete Version einer 300 Watt Grafikkarte. Klar kann man abseits des PCs Energie sparen oder nicht, sich über den verbrauch von Grafikkarten aufzuregen und dann im selben Satz zu sagen, dass man so eine hat ist nicht wirklich überzeugend. Zumal die Argumentation ein wenig ins Leere geht. Damit kann man so ziemlich alles egalisieren.

"Ich bin gegen ineffiziente Spritschlucker und das sage ich als Porsche Cayenne Turbo Fahrer" ist von der Aussage her gleich. Und das man irgendwo anders im leben Energie spart ist schön, ändert aber nichts an der Aussage des Satzes.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Und wieder diese ganze Aufregung für nichts. Niemand ist gezwungen, eine solche Karte zu kaufen.
Und nicht alle Karten werden solch eine TDP besitzen...
Zumal doch niemand 24/7 am zocken ist.
 
bad_sign schrieb:
Wird BeQuiet entsprechende Kabel für seine Serien anbieten? Also Kabel mit 12+4Pin Stecker direkt vom Netzteil? Mein SP E11 750W, letztes Jahr gekauft, werde ich auch in den nächsten 5-10 Jahren nicht tauschen.
Wäre natürlich schön, könnt mir aber vorstellen, dass es keine neuen Kabel gibt, auch wenn‘s für uns viel sauberer wäre, wenn man schon am Netzteil vier Anschlüsse zu einem Kabel kombinieren könnte - einfach, weil sie die Daten-Pins nicht belegen können und das deshalb womöglich als unseriös empfinden.
 
Ich bin mir noch nicht sicher, was ich davon halten soll, dass der neue Anschluss scheinbar keinen "Low Power" Mode vorsieht, bei dem die Graka z.B. "nur" 200/300W abrufen kann. So müssen die alten PCI-E Anschlüsse für NTs, die die 450W nicht liefern können eigentlich auf Dauer weiterbestehen (oder alle NTs unter ~500W sterben einfach entgültig aus).
 
Zuletzt bearbeitet:
knoxxi schrieb:
Aber 2x 8 PIN kann doch nur Max 300 Watt? Und die fehlenden 150 Watt im Falle des Falles kommen dann woher?
Der neue 12 Pin Stecker hat 6x 12V Pins, 2x 8 Pin PCIe haben zusammen auch 6x 12V.

450 Watt bei 12 Volt über 6 Pins sind 6,25 Ampere pro Pin bzw. Kabel.

Das ist bei den kurzen Strecken im PC mit 18 AWG Kabeln überhaupt kein Problem. Dünner als 18 AWG nutzt kein seriöser Netzteilhersteller für PCIe, hochwertigere setzen häufig sogar auf 16 AWG.

Mit 16 AWG Kabeln kannst du auch die vollen 600 Watt über deine 6 Pins bereitstellen, wenn du einen Adapter für die Sense Pins hast... sind auch nur 8,33 Ampere pro Pin.
 
kann ich so ein Netzteil denn mit meinem B550 MB betreiben oder muss ich meine ganze Plattform upgraden? Hab ja nur PCIe 4.0.

Hatte eigentlich gehofft, dass mein modulares 750W-Netzteil wenigstens halbwegs zukunftssicher wäre. Hab den Rechner erst letztes Jahr im Februar gebaut.
 
Naturtrüb schrieb:
...möchtest du im Sommer neben einem 600W Heizgebläse sitzen? Ich nicht.

Ich gehe allgemein mit meinem Rechner nicht auf Kuschelkurs. In meinem Zockzimmer (2 Rechner) werden die 600 Watt deutlich überschritten. Ich habe allerdings auch eine Klimaanlage. Wenn man in einem kleinen Raum sitzt und wenige cm vom Rechner entfernt sitzt, ist das was anderes. Dann sollte man da seine Komponentenwahl überdenken, den Platz wechseln etc. Aber dafür gibt es ja die Auswahl am Markt (und die Möglichkeit frei zu entscheiden, was die eigene Hardware verbrauchen soll. und wenn man die Leistungsaufnahme über den Treiber halt limitiert.)

cypeak schrieb:
mit verlaub, das ist eine irreführende aussage.
würde wir wirklich über effizienz reden, hätten so einige pridukte der hersteller die letzten jahre nicht den markt erblicken dürfen!

Effizienz ist nicht bei jedem Produkt die oberste Priorität. Aber selbst die als ineffizient verschrienen Produkte sind effizienter als ältere Hardware.
cypeak schrieb:
davon abgesehen: wenn die energieeffizienz ja steigt, heßit es ja dass wir aus den bereits vorhandenen maximalen leistungsaufnahmen wesentlich mehr performance heruasholen können.

Richtig können wir ja auch. Eine RTX 3090 mit 250 Watt Limit ist da effizienter, als eine 1080Ti oder 2080Ti. Selbst absolut mit 350 Watt ist die 3090 effizienter, als eine 2080Ti mit 250 Watt, auch wenn die Schere da enger zusammen geht.

Durch kleinere Fertigungen und der Möglichkeit viele Transistoren in kleine Chips zu bauen steigt aber das maximal Mögliche Limit nach Oben. Die Hersteller suchen das Mittel aus genügend Leistungssteigerung und Effizienz. https://www.computerbase.de/2020-09...bschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

cypeak schrieb:
eine rtx2080 kam noch mit ~220w aus. wir reden hier von 600w steckern und zusätzllich bis zu 75w welche die gpu's per pci beziehen können und grakas die heute schon die 400w marke geknackt haben.

Bei den 400 Watt Karten sprechen wir aber von übertakteten Modellen. Der vergleich zu nicht übertakteten Standardmodellen hinkt da etwas.

Aber wenn man z.B. eine 3080 mit 270 Watt und eine 2080Ti mit 270 Watt vergleicht, sieht man, dass auch bei gleichem Verbrauch die Effizienz höher ist:

https://www.computerbase.de/2020-09...bschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

Du siehst aber auch eine 320 Watt 3080 ist effizienter als eine 270 Watt 2080Ti, wenn auch der Abstand kleiner wird.
cypeak schrieb:
ich bin selbst kein "mönch" und weiß dass performante hardware auch einen gewissen stromhunger hat, aber ich glaube auch das keiner bestreiten kann dass diese entwicklung sicherlich nicht der effizienz dient!

Effizienz ist ein Beiprodukt. Wie sehr man maximale Performance gegen Effizienz tauscht ist eine Einzellfallentscheidung. nur durch mehr Strom kann man man nicht viel Mehrleistung generieren. Eine gesteigerte Effizient macht große Leistungssprünge erst möglich
 
  • Gefällt mir
Reaktionen: Beg1 und AlphaKaninchen
Katzenjoghurt schrieb:
Wäre natürlich schön, könnt mir aber vorstellen, dass es keine neuen Kabel gibt, auch wenn‘s für uns viel sauberer wäre, wenn man schon am Netzteil vier Anschlüsse zu einem Kabel kombinieren könnte - einfach, weil sie die Daten-Pins nicht belegen können und das deshalb womöglich als unseriös empfinden.
Da kommts drauf an, wie die Datenpins funktionieren. Ist ein Kontroller dahinter wirds schwer, aber ich sage mal ein "Kompatibiltätsmodus = 300W" wäre schon cool, denn das würde mir reichen.
 
kingdomsknight schrieb:
kann ich so ein Netzteil denn mit meinem B550 MB betreiben oder muss ich meine ganze Plattform upgraden? Hab ja nur PCIe 4.0.

Hatte eigentlich gehofft, dass mein modulares 750W-Netzteil wenigstens halbwegs zukunftssicher wäre. Hab den Rechner erst letztes Jahr im Februar gebaut.
Es liegt ja nur an Dir. :schluck: Mein PC wurde auch erst im Juli 2021 erneuert. incl. Netzteil BeQuiet Straight Power 11 850 Platinum.
Mach es wie ich, ignorier das ganze, musst ja nicht solche Stromfresser benutzen. :daumen:
Und meine beiden 280X im Crossfireverbund, im Zweitrechner, nutze ich eh nur zum Penathlon. :evillol:
 
  • Gefällt mir
Reaktionen: kingdomsknight
Ich verstehe nicht, warum die immernoch mit 12V rumeiern. Auf 24V, oder mehr, erhöhen und dann sind die Kabel nur noch halb so dick.
 
sikarr schrieb:
Welcher Markt will das? Rechenzentren sind das eine aber im PC Sektor? Auf der einen Seite deklassiert Apple mit seinem M1 gerade die PCs in CPU und GPU was die Effienz angeht und auf der anderen Seite werden Standards gesetzt um noch mehr Energie in Wärme umwandeln zu können. Das ist der Falsche Weg.
Da bin ich ja ganz bei dir. Aber so ist es nun leider. Man sieht es doch allein schon in jeder neuen Generation an Grafikkarten. Dort ist das Topmodel nie, oder sehr selten das effizenteste. Trotzdem wird es gekauft. Und ob da nun bei mal angenommenen 25% mehr leistung 40% mehr Energie verbraucht wird, interessiert die Käufer in dem Moment weniger bis gar nicht.

Und so wird es bei den neuen Generationen auch Abnehmer für Karten geben, die 600Watt verbrauchen. So bescheuert das auch sein mag. Einige brauchen halt jede Einstellung auf Max plus Raytracing und 100FPS reichen dann auch nicht.
 
Zurück
Oben