News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen

Kettensäge CH schrieb:
Das ist durchaus ein Problem, aber auch da gibts Abhilfe wie Wasserkühlungen. Und natürlich kommen auch da andere Aspekte rein, z.B. ist es einfacher bloss eine kleine CPU zu kühlen als eine grössere GPU.

Seit wann eliminieren Wasserkühlungen die Abwärme?
 
SavageSkull schrieb:
Der

der Zähler von meinen elektrischen Smart hat mittlerweile schon 2500kwh drauf, das ist der Stromverbrauch von meinen PC ein Witz dagegen
Solange der Strom dafür von der PV auf deinem Fach kommt ist es eigentlich wurscht was sie viel verbraucht.

Das ganze Umweltthema wäre erledigt, wenn es unbegrenzt günstige und umweltfreundliche Energie gäbe...

Topic:
Ich hab sie 6900xt auch bei -10% power laufen, weil der Lüfter sonst von hörbar zu störend wechselt. Für ein paar % Leistung ist es mir das nicht wert.
Wenn sich die Gerüchte bewahrheiten bekomm ich den Regler am Ende gar nicht mehr wir genug runter, damit meine Ohren zufrieden sind.
 
Das die Spitzenkarten mehr verbrauchen ist einfach so und auch nicht weiter schlimm. Niemand sollte sich als Spieler aber diese Spitzenkarten kaufen. Kauft eben anstelle der 4090 "nur" eine 4070. Dann hat man mehr Leistung als bei der 3090 und gleichzeitig weniger Stromverbrauch als bei der 3090.

Positiver Nebeneffekt ist eine günstigere Karte!
 
aklaa schrieb:
Ich hatte so auf max. 150Watt GPU gehofft und selbe Leistung 3000er Serie :o Tja da muss der Hersteller sein Verkaufskonzept überdenken ... mit min. 400Watt +++ TDP werden viele Käufer abspringen. Es geht mehr Richtung Konsole PS5/Xbox/ Streamingdienst.
Ne Konsole ist kein Allroundgerät. Deswegen sehe ich das nicht so. Gerade die Coronasituation hat gezeigt, daß der PC der Standard für modulare Aufgaben ist.
 
  • Gefällt mir
Reaktionen: dohderbert
RTX 4060 600$ UVP oder was?
Das wird bestimmt einen ordentlichen Aufpreis geben... Oh man. 😕

Wenn man überhaupt eine Karte bekommt können noch die Kosten für den Verbrauch. Letzte Woche kam der Brief mit dem der Kostenerhöhung pro Wh. Für Zocker wird es nur noch Wasser und Brot geben. 😂
 
400 Watt hat man schon mit ner hochgezüchteten Custom Karte💁‍♂️
 
Da hilft dann nur Undervolting.

Meine 3080 braucht dank Undervolting bei praktisch gleicher Leistung ca. 100W weniger. Das macht auf Dauer einiges aus.
 
rentex schrieb:
400 Watt hat man schon mit ner hochgezüchteten Custom Karte💁‍♂️
Der News zufolge sollen es ja mehr als 400 W werden - wenn die Custom-Karten dann auch nochmal aufschlagen, hast du ein halbes Kilowatt zusammen.
Ergänzung ()

TheCounter schrieb:
Da hilft dann nur Undervolting.
Hoffentlich nicht - viel Undervoltingpotenzial bedeutet 'ne schlechte Auslegung ab Werk. Im Idealfall geht fast nichts, weil der Hersteller die Karten quasi schon selbst undervoltet hat und dem User die Mühe sich damit zu befassen erspart bleibt.
 
Meine suprene x ist mit 280 Watt schon hart an der grenze des akzeptablen für mich. Okay mit nem framelimit auf 60 ist sie deutlich sparsamer..Aber noch mehr ? No way..die 4000er wollze ich eh nicht kaugen..bin bei den 5000er oder 6000er wieder dabei..wenn der Stromhunger stimmt
 
... darauf deutet ein Tweet von kopite7kimi hin, der 400 Watt Leistungsaufnahme als nicht ausreichend nennt. Aktuell ist mit der GeForce RTX 3090 (Test) und der GeForce RTX 3080 Ti (Test) bei 350 Watt Schluss, bei der GeForce RTX 2000 lag die Ti mit 250 Watt in Front (alle Angaben betreffen die Referenz).

Das geht gar nicht, auch wenn fuer mich RTX 4080Ti oder 4090 Modelle aus Prinzip (wegen ganz mauem Preis-Leistungsverhaeltnis) sowieso nicht in Frage kaemen.

Wenn eine RTX 4080 an der 400W Grenze kratzt, faende ich das sehr bedenklich, zumal ich mir vor nicht langer Zeit ein 850W Seasonic Netzteil fuer den kommenden PC zugelegt habe, welches ich sicherlich nicht an der Kotzgrenze mit schlechter Effizienz und mit dann vergleichsweise hoher Lautstaerke nutzen moechte.

Eigentlich finde ich GPUs oberhalb von 250W schon genzwertig und mehr als 400W fuer eine Gaming-Grafikkarte waeren fuer mich wirklich sehr schwer zu rechtfertigen (was Abwaerme und Umwelt angeht), egal wie viel Leistung das Teil dann hat.

Ich wuerde auch eine RX 6800XT oder eine RTX 3080 wohl undervolten, wenn ich eine haette, zumal mir schon die Abwaerme meiner alten Gigabyte GTX 670 OC damals gereicht hat und die verbrauchte gerade einmal 170W unter Volllast.

Wenn dann kommende Lovelace 70er Karten ueber 300W liegen werden, auch wenn diese ausreichend Speicherausbau (also mindestens 12 GB, besser noch 16GB) mitbringen wuerden (was man bei nVidia ja grundsaetzlich im Voraus anzweifeln sollte), haette ich damit auch schon ein gewisses Problem (besonders bei effizienztechnisch verhunzten 70erTi Modellen, wie der aktuellen RTX 3070Ti), aber Geruechten zufolge, sollen RDNA3 Gegenstuecke von AMD/RTG zwar sparsamer (aber vermutlich nicht viel sparsamer) ausfallen, wobei die RX 6700XT und RX 6800 Modelle jetzt schon auch nicht gerade super sparsam sind.

Naja, warten wir es ab und es ist schon erstaunlich wie all die ehemaligen Effizienzler hier mittlerweile verstummt sind, die nVidia immer fuer den Verbrauch abgefeiert haben und bei denen letzterer wichtiger als alles andere bei einer GPU schien.
Schon komisch wie sich die Zeiten aendern, wenn Leute nicht ansatzweise glaubhaft die Effizienz abfeiern koennen, weil die Entwicklung beider Chiphersteller da eher in die falsche Richtung geht und nur noch Rohleistung (mit der Brechstange, wenn noetig) zu zaehlen scheint.

Gute/vernuenftige Kuehlloesungen/-designs werden dadurch auch kostspieliger und natuerlich wichtiger in Zukunft ...
 
  • Gefällt mir
Reaktionen: Optimus Heinz
silentdragon95 schrieb:
Ich vermisse die Zeiten, in denen ein 500W Netzteil für 99% der Single-GPU Systeme ausgereicht hat...

Und wo ist das Problem?

Dann kauft man sich eine RTX 3070 / 6700 XT.
Mit Undervolting und Powerlimit ist man bei weit unter 200W.
 
Noch höherer Verbrauch? Was rauchen die denn?

Meine 2070 Super heizt im Sommer einen relativ großen Raum schon ordentlich auf.
Mit was für Luftkühlern wollen die Hersteller dann leise, 400W+ kühlen?

Möchte mir bald ein neues Netzteil kaufen, jetzt muss ich wohl doch überdimensionieren, wer weiß was für Blödsinn denen noch einfällt.
 
Keine Sorge, bis die 5090 da sind wird es auch 8K Monitore geben (4K ist dann logischerweise Augenkrebs^^) damit man wieder unbedingt wieder investieren muss und einige werden es sicher auch bei 600W zu 1€ je kWh mitmachen.
 
ich weis schon warum mein nächstes netzteil 1000w anstatt 850w haben wird. könnte eng werden mit entsprechender cpu oc und wakü
 
Na ja, mit evtl. doppelter Leistung geht natürlich auch der Verbrauch hoch.
Wer 5k, 8k oder 4k mit 144 FPS braucht oder möchte wird wohl mit der Leistungsaufnahme leben müssen. Darunter geht es halt nicht.

Sowieso ein Rießensprung von der Leistung der hier geschafft wurde.

Wem Full-HD oder auch nur 4k 60FPS reichen, der wird auch mit weniger Strom zurecht kommen.
 
Es bleibt ja echt zu hoffen das Intel was Gescheites abliefert und sich der Markt ein bisschen aufmischt!
Ich liebe nVidia mehr als ich vielleicht sollte aber irgendwo wird´s dann langsam unsinnig. Zahle gerne ein paar € extra aber doch nicht für 400W!
 
  • Gefällt mir
Reaktionen: Wintermute
XashDE schrieb:
Es bleibt ja echt zu hoffen das Intel was Gescheites abliefert und sich der Markt ein bisschen aufmischt!
Naja, wenn Intel der TDP Logik der eigenen CPUs folgt, dann werden es eher 800W^^
 
  • Gefällt mir
Reaktionen: dohderbert
AleksZ86 schrieb:
mit der 3090 hast du 24gb und auch "keine" einschränkungen bei Raytracing - ausser dir reicht die RTX Leistung der 3090 nicht.
Mir zu teuer für das Gebotene im Vergleich zu den kleineren Karten.
 
Zurück
Oben