News Grafikkarten: Neuer Stromstecker für bis zu 600 Watt kommt

Status
Für weitere Antworten geschlossen.
Wer sich eine GPU mit 600+W in Zukunft in den Rechner verbauen möchte (umsonst werden Die Das wohl nicht machen) soll das gerne tun.Der generelle Tenor ist doch,dass Viele einfach nicht so eine Hitzequelle verbauen möchten und nebenbei den Stromverbrauch aus mehreren Aspekten monieren,was Beides völlig nachvollziehbar ist.Jeder so wie er mag.
 
  • Gefällt mir
Reaktionen: Piep00, Markenprodukt, Erzherzog und eine weitere Person
Beg1 schrieb:
Also zunächst einmal ist das einfach ein einheitlicher Stecker der bis zu 600W liefern KANN, auch an GPUs die nur 100 Watt verbrauchen.
Naja theoretisch schon, realistisch betrachtet, weiß man wo die Reise hingehen wird. Ansonsten gäbe es ja keine Veranlassung, die PowerLimits so derbe nach oben zu treiben.

Beg1 schrieb:
Die Effizienz der Karten steigt mit fast jeder Generation sehr deutlich an, denn es werden immer bessere Fertigungsprozesse genutzt, im absoluten High-End Bereich erkauft man die letzten paar Prozent eben mit schlechterer Effizienz, was für die Zielgruppe aber auch in Ordnung ist.
Die Zeiten sind vorbei. NV ist in der Effizienz eher schlechter geworden, wenn man die Entwicklungen von Pascal an verfolgt. Mit der 20xx gab es einen großen Sprung und mit der 30xx auch. Die 3070Ti ist fast nur durch die Leistungsaufnahmesteigerung nach "oben" gekommen, d.h. eine 3070 mit gleicher Leistungsaufnahme wie die 3070Ti bringt fast die gleiche Leistung.
Während altes Highend (1080) noch deutlich unter 200 W verbraucht hat, liegt die 3080 teilweise über 300W, trotz shrink und Optimierungen etc.
 
Laphonso schrieb:
Genau das ist aber individuell, Mike :)
Nach den Gegenüberstellungen von RDR2 oder jüngst Far Cry 6 mit Konsolen vs PC Settings gehöre ich zu der Gruppe, die gerne die "schönere" Optik genießt, insbesondere auf ultraweit.

Spiele sind für mich auch vor allem auch ein audio-visuelles Ergebnis, und die Grafik ist für mich seit jeher (im Singleplayer) ein Fundament für die Immersion und Atmosphäre.

Da kommen wir beide dann zu unterschiedlichen Prioritäten, was ja auch okay ist.

Ja im Prinzip bin ich da bei dir und bin mit meinem Setup auch im reinen, aber ich frage ich echt wo das alles noch hinführt. Ich gehöre auch zu dieser Fraktion die gerne jeden Grashalm beim Spiel sehen möchte, aber zu welchen Preis?
Denn irgenwann muss man sich tatsächlich die Frage stellen ob sich das noch rechnet P/L. Daher der Vergleich mit den aktuellen Konsolen die ebenfalls für reine Gaming eigentlich eine excellente Grafik bieten.
 
  • Gefällt mir
Reaktionen: Laphonso
600 W für eine Single GPU! haha... und die EU Verbietet die 100 W Glühbirne oder den 1200 W Staubsauger.... bald wird Brüssel wach dann gibt's die 3090TI nur noch in den USA und CHina :D
 
  • Gefällt mir
Reaktionen: Blende Up, chrigu und DagdaMor
Ich nehme an dass wir in Zukunft weiterhin für minimale Grafikupdates tief in die Stromkiste greifen müssen. Es gibt einfach einen abnehmenden Grenznutzen beim Polygon count und Effekten.

zoSMjXy.png


Meines Dafürhaltens gewinnt eine Grafik durch vernünftige (per Hand eingefügte) Beleuchtung und Texturen an Qualität und nicht durch extreme Tesselation-Faktoren und Polygon counts. Viele Spiele die auf "realistisch" getrimmt waren, sind nicht so gut gealtert wie Spiele, welche einen mehr einzigartigen/ künstlerischen Ansatz verfolgten.
 
  • Gefällt mir
Reaktionen: v_ossi, Wechhe und Cool Master
Glyphus schrieb:
Viele Spiele die auf "realistisch" getrimmt waren, sind nicht so gut gealtert wie Spiele, welche einen mehr einzigartigen/ künstlerischen Ansatz verfolgten.

Das stimmt, aber das bedeutet auch, dass man für Fotorealismus doch einiges mehr an Leistung braucht, als bisher zur Verfügung steht. Weniger um immer mehr Polygone darzustellen, sondern vor allem in Sachen realistischer Beleuchtung. Genau da setzt ja auch Echtzeit-Raytracing an.

Und immer hochauflösendere, realistische Texturen fressen vor allem VRAM.

Außerdem sind heutzutage auch stabile und hohe Frameraten gefordert, nicht nur bei VR.

Der Bedarf nach mehr GPU-Leistung und VRAM wird in den nächsten Jahren weiterhin ganz erheblich sein. Da ist kein Ende in Sicht.
 
  • Gefällt mir
Reaktionen: Laphonso
Moderne Grafikkarten werden immer schneller, benötigen aber auch immer mehr Energie.
kann man da überhaupt noch von entwicklung sprechen? Ein Auto fährt schließlich auch schneller wenn man ihm mehr Energie in Form von Treibstoff gibt.
Die Entwicklung geht definitiv in die falsche Richtung. Will gar nicht wissen, um wie viel das den Stromverbrauch von Mining weiter hochtreiben würde
 
  • Gefällt mir
Reaktionen: Mike_MTL
600W in der Spitze für eine Graka - Okay. Keine Ahnung wie das in der Dauerlast aussieht. Was ich mich eher Frage ist, wie das Kühltechnisch noch klappen soll.
Das die Entwicklung nicht zeitgemäß ist, habe ja hier andere schon gesagt. Aber wir sind es ja auch, die nach immer mehr Framerates bei höherer Auflösung lechtsen.
 
Jaaaaaaaa Hand hoch wer sich für die aktuelle Generation ein neues Netzteil gekauft hat (und dachte das reicht wieder ne Weile). ✋

Ansonsten ist das keine schöne Entwicklung. Ich hab die aktuelle 6900xt schon mit -10% PT laufen - vor allem damit in allen Lebenslagen Ruhe ist.
Als Fortschritt empfinde ich das nicht. Erinnert mich an sie us Autos vor der Ölkrise. Und danach haben es die Autobauer auch geschafft die Effizienz massiv zu steigern - nachdem der Staat interveniert hat. Vielleicht sollte die internationale Grüne hier Mal eine Petition aufsetzen. Lieber weniger Leistungszuwachs pro Gen als diese Verschwendung - zumindest solange wie der Strom noch mit Kohle und Gas erzeugt wird...
 
Rony Erikson schrieb:
Der neue Stromstecker wird 16-Pins haben, falls das deine Frage war. Die unteren 4-Pins werden auf dem Bild leicht übersehen.
Ups. Danke. Habe ich glatt auch übersehen
 
Beg1 schrieb:
Fairerweise muss man sagen, dass die Karten über die neuen Fertigungsprozesse quasi automatisch effizienter werden.
Eine 3070 hat etwa die Leistung einer 2080 Ti - bei ~20% weniger Verbrauch.

Ich würde jetzt nur über diesen Weg eine 4060 bei der Leistung einer 2080 Ti vermuten, allerdings bei ~40%+ weniger Verbrauch.

Im Endeffekt musst du entscheiden, wieviel Geld du ausgeben willst, welche Leistung du benötigst (144 Hz + 4K + RT) und wieviel Abwärme maximal erträglich ist, aber effizienter werden die Karten schon.
Da hast du natürlich recht, deswegen erwähnte ich ja die selektive Wahrnehmung und ich liebäugle ja auch mit der RX6900XT bzw. der RX6800XT, die werde ich in dieser Generation aber wohl eher nicht mehr zu "normalen" Preisen bekommen, wobei die RX6900XT ja immerhin näher an ihrer UVP liegt als die RX6800XT (jeweils von der Red Devil ausgehend).
Brauche ich die Leistung?
Stand heute vermutlich nicht, 4k brauch ich (noch) nicht (sogar mein TV hat noch 1080p), mir reichen die 1440p, 144Hz wäre schön, brauch ich aber auch nicht überall und RT ist mir stand heute auch noch egal und hat bei mir immer noch den Status "Nette spielerei".
Ich habe allerdings auch keine Lust wieder in die gleiche Situation wie mit meiner aktuellen RX480 (auch Red Devil) zu kommen der bei Fallout 4 @1440p mit 10 Mods (hauptsächlich Texturen und Fixes) schon fast die Puste ausging.
 
Siddig Obakro schrieb:
600watt???
wo führt das denn noch hin?
Gute frage. Frage mich, warum ich alle Glühbirnen mittlerweile gegen LED ausgetauscht habe. So ne´ aufgeblähte Graka macht das wieder zunichte. Wenigstens hätte man weniger Heizkosten im Winter.
Ironie bei Seite - wenn jetzt schon über einen neuen Steckerstandart diskutiert wird, dann kann man sich ja ausrechnen, wieviel die neue Grafikkartengeneration verbrauchen wird.
So schaffen wir den umstieg auf Ökostrom wohl wirklich nie habe ich so langsam das Gefühl.
 
Wenn hier die EU einschreitet, würde ich mich nicht mal beschweren. Andererseits gibt es kein Einschreiten hinsichtlich der 100kW SUVs oder der 20L 8 Zylinder Verbrenner. Der Besitzer muss sich den Spaß leisten können.

Ich sehe da langfristig keine Zukunftsperspektive für die GPUs. Die müssen ihre Leistung wo anders herholen, nicht immer mehr aus der Steckdose.
 
Beg1 schrieb:
Fairerweise muss man sagen, dass die Karten über die neuen Fertigungsprozesse quasi automatisch effizienter werden.
Eine 3070 hat etwa die Leistung einer 2080 Ti - bei ~20% weniger Verbrauch.
Mag schon sein. Aber am Ende wird eben der Strom verbraucht, der verbraucht wird. Und der muss irgendwo herkommen. Egal wie effizient. Aber es ist mir schon klar, wie du das meinst.
 
seas888 schrieb:
Turing ist zwar effizienter als Pascal, doch die einzige "Mid-Range"-Karte mit vertretbarem Verbrauch war die GTX 1660 Ti. Wenn Du diese Karte als Maßstab nimmst, muss man jede darauf folgende Mid-Range-Karte einfach nur noch als Stromfresser bezeichnen, denn die Mehrleistung wird seither 1:1 mit höherem Stromverbrauch erkauft. Seit 2,5 Jahren ist also Stillstand bei der Effizienz.

Beginnend mit Fermi war es bis zur 1660 Ti praktisch üblich, dass die 60er Karten von nVidia einen Verbrauch von ungefähr 100 bis maximal 150 Watt haben. Dieses Mantra hielt sich zumindest über mehrere GPU-Generationen und man konnte getrost den betagten PC ins aktuelle Mid-Range aufrüsten, ohne sich Gedanken übers Netzteil machen zu müssen. Mit der 2060 - und noch krasser mit der 3060 - wurde dieses Limit jedoch ad acta gelegt, sodass man sich nun auch noch zusätzlich mit irgendwelchen Peaks außerhalb des angehobenen Normverbrauchs beschäftigen muss und ob das eigene Netzteil das verkraftet.


Zum Stecker: Prinzipiell finde ich es eine gute Idee, wenngleich sie nur für diejenigen Karten eine Verbesserung ist, die bisher mehr als 1 8-Pin-Kabel benötigen. Für alle anderen Karten bedeutet der neue Stecker: mehr Kabel als eigentlich nötig und in der Übergangszeit zusätzliche Adapter... Naja...
 
  • Gefällt mir
Reaktionen: Kloin und Blende Up
Herdware schrieb:
Das stimmt, aber das bedeutet auch, dass man für Fotorealismus doch einiges mehr an Leistung braucht, als bisher zur Verfügung steht. Weniger um immer mehr Polygone darzustellen, sondern vor allem in Sachen realistischer Beleuchtung. Genau da setzt ja auch Echtzeit-Raytracing an.
Die Frage ist halt ob Fotorealismus das Ziel sein muss - ich denke das muss aber im Endeffekt jeder für sich selbst entscheiden.
Und immer hochauflösendere, realistische Texturen fressen vor allem VRAM.
VRAM Verbrauch steigt klar an - keine Frage. Aber der verbraucht auch nicht den meisten Strom auf der Karte.
Außerdem sind heutzutage auch stabile und hohe Frameraten gefordert, nicht nur bei VR.
Guter Punkt! Ich denke den meisten sind stabile Frametimes wichtiger als per se hohe Frameraten. Die Stabilität kommt doch aber mehr durch eine gute Engine und nicht durch brute force. Was die FPS ansich angeht scheiden sich die Geister. Mit persönlich reichen 144Hz. Vermutlich sogar 120. Mit den 360Hz Boliden kann ich wenig anfangen - vielleicht bin ich auch einfach zu alt für die eSports Titel bei denen das etwas bringen soll.
Der Bedarf nach mehr GPU-Leistung und VRAM wird in den nächsten Jahren weiterhin ganz erheblich sein. Da ist kein Ende in Sicht.
Davon gehe ich auch aus und ich begrüße auch die Entwicklung von Ray Tracing/ Path tracing. In den Bereichen kann man sicher auch noch mit entsprechend optimierten Funktionseinheiten viel an Effizienz rausholen. Die Frage ist halt ob der Bedarf an mehr Leistung allein über die strukturellen Updates wie neue Nodes, Cache (siehe RX6000) oder Funktionseinheiten erreicht werden kann. Oder ob man doch bruteforce alles mit Betriebspunkten außerhalb der sweetspots erreichen muss. Denn spätestens zwei Generationen später gibt die Leistung der Highend Klasse mit moderatem Verbauch in der Mittelklasse.

Ich bin ohnehin gespannt wie sich ein momentan gemunkelter MCM Approach von AMD in der RX7000 Serie auf die Skalierbarkeit auswirkt. Denn wie viele hier meinen ist doppelte FPS bei doppeltem Verbrauch nicht selbstverständlich.
 
Wieso braucht man wohl trotz gestiegener Effizenz immer mehr Leistung?
Schauen wir uns doch mal gängige alte und neue Auflösungen an:

W​
H​
Pixel​
Pixel/VGA​
Pixel/FHD​
VGA​
640​
480​
307200​
1.00​
0.15​
SVGA​
800​
600​
480000​
1.56​
0.23​
WXGA-H​
1280​
720​
921600​
3.00​
0.44​
SXGA​
1280​
1024​
1310720​
4.27​
0.63​
FHD​
1920​
1080​
2073600​
6.75​
1.00​
WQHD​
2560​
1440​
3686400​
12.00​
1.78​
Ultra-Wide QHD​
3440​
1440​
4953600​
16.13​
2.39​
4K UHD-1​
3840​
2160​
8294400​
27.00​
4.00​
5K​
5120​
2880​
14745600​
48.00​
7.11​
8K UHD-2​
7680​
4320​
33177600​
108.00​
16.00​

Wer also in Zukunft auf 8K zocken will, der braucht im Vergleich zu FHD die 16-fache Rechenleistung.
Im Bezug auf VGA ist sogar die 108-fache Rechenleistung nötig um das Bild in der gleichen Zeit zu berechnen.

Dazu kommt, dass heute niemand mehr auf 30hz spielen will. Selbst 60hz sind zu wenig. Es müssen 120,144 oder 240+ fps sein. Um 144 statt 60 Bilder pro Sekunde zu berechnen muss ich jedes Bild einem 2.4tel der Zeit berechnen können und brauche somit nochmals mehr Leistung.

Wer also auf 8k mit 144 fps statt VGA mit 60hz zocken will, der braucht eine Grafikkarte die ca. 260 mal schneller ist.

Wer hier übrigens meint die GPUs sind nicht deutlich effizienter geworden, der irrt meiner Meinung nach. Die Größe der Dies ist in den letzten Generationen gestiegen. Gleichzeitig wollen auch alle immer mehr VRAM. D.h. die verbauten Chipflächen werden immer größer, wodurch auch die statischen Verluste steigen. Aufgrund der kleineren Strukturgrößen kann man die Transistoren zwar mit weniger Spannung ansteuern, was zur erhöhten Effizenz führt, allerdings bringt das halt wenig, wenn man durch die erhöhte Fläche diese Gewinne direkt wieder verliert.

Das ist wie wenn ein Auto effizienter macht, so dass es weniger Sprit pro km/h braucht, man gleichzeitig aber die Geschwindigkeit erhöht und sich dann wundert warum der Verbrauch steigt.

Update: Man braucht natürlich für schönere Spielwelten zusätzlich nochmals mehr Rechenleistung. Aber nehmen wir man an mit jeder neuen Generation würden wir die GPUs so stark verbessern, dass wir schönere Spiele "umsonst" bekommen, so bräuchten wir alleine für die gestiegenen Wünsche der Spieler für Auflösung und fps immernoch mehr Rechenleistung, das war mein ganzer Punkt hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: goldeye und Raptor85
DagdaMor schrieb:
Nützliche UND notwendige Dinge, hier Glühbirne und Staubsauger, MÜSSEN vom Gesetz her immer effizienter werden; und eher unnütze Highend-Grafikkarten dürfen Energie ohne Ende verbraten.
Gebe dir vollkommen recht. Vor allem ist es nur die Grafikkarte von der wir reden. Die Kühlung muss ja auch angepasst werden und da wird man wohl auch nicht mit weniger sondern eher mit mehr Stromverbrauch rechnen müssen, um die Wärme noch weg zu bekommen.
 
Glyphus schrieb:
Ich nehme an dass wir in Zukunft weiterhin für minimale Grafikupdates tief in die Stromkiste greifen müssen. Es gibt einfach einen abnehmenden Grenznutzen beim Polygon count und Effekten.

Anhang anzeigen 1132483

Meines Dafürhaltens gewinnt eine Grafik durch vernünftige (per Hand eingefügte) Beleuchtung und Texturen an Qualität und nicht durch extreme Tesselation-Faktoren und Polygon counts. Viele Spiele die auf "realistisch" getrimmt waren, sind nicht so gut gealtert wie Spiele, welche einen mehr einzigartigen/ künstlerischen Ansatz verfolgten.

Du widerspricht dir mit deiner eigenen Agumentation. Die Spiele, die keinen artistischen Ansatz sondern eher einenrealistischen Ansatz bei der Umsetzung der Spielwelt verfolgt haben, sind ja gerade deshalb so schlecht gealtert, weil es in Bezug auf den technologischen Vortschritt in der 3D-Geslatung große Vortschritte gegeben hat. Natürlich greift ab einer bestimmten Polygonzahl der diminishing returns-Effekt, aber bis dahin müsste jedes Element in der Spielszene mit ausreichend vielen Polygonen gefüllt sein. Und bis heute schafft das keine GPU in Echtzeit mit min. 60fps.
Somit ist das Ende noch lange nicht erreicht. Pixel-draw und so...

 
Status
Für weitere Antworten geschlossen.
Zurück
Oben