News GeForce RTX 3090 und 3080: Gainward Phantom GS mit bis zu 1.845 MHz bei 420 Watt

Hat hier schon jemand eine RTX 3000?
Undervolting funzt genauso gut wie bei den RTX 2000ern?

Dieses ganze "OC" von den Herstellern bringt ohnehin nichts.
Lotto-Chip erwischen, schön undervolten bei ~1900mhz = Perfekt
 
  • Gefällt mir
Reaktionen: bugmum
Mit meiner PV Anlage auf dem Dach ist mir die Leistungsaufnahme relativ egal, ich könnte den ganzen Tag über zocken und würde meinen Akku immer noch ein bisschen laden. Abends muss ich erst ab 22 - 23 Uhr für meinen Strom zahlen (im Sommer) weil dann der Akku in der Garage leer ist.

Ich frage mich eher wohin mit der Wärme. Luftgekühlt hab ich da glaub ich keine Lust drauf.
 
  • Gefällt mir
Reaktionen: poly123
Müslimann schrieb:
Ihr wollt mehr Leistung, dann wird beim Verbrauch geheult.
Mir geht es weniger um den Verbrauch sondern um die Abwärme - die muss ja wohin. Wir haben ja auch nicht 12 Monate Winter...
Vor allem bei Luftkühlung und einer Dachgeschosswohnung
 
PietVanOwl schrieb:
420 W TDP, na langsam übertreiben es die Graka Hersteller aber. Wär mir persönlich zu viel, wüsste auch nicht wie das noch aus meinem Sugo raus bekomme.

P.S. 100er Post, dafür geb ich an alle n Bierchen aus. :schluck: :D MFG Piet
GZ 👍
Das mit den 420Watt, daran merkt man das die Karten von nVidia eigentlich gar keinen allzu großen Spielraum mehr nach oben haben, wenn man sie gegenüber der FE schon um 100Watt erhöhen muss. Ist ja schon fast schlimmer, als bei den Intel-CPU´s :)

@SV3N
Die müsst ihr mal unbedingt testen, wenn ihr an eine rankommt. Nur um zu sehen, wie gut die mit der Abwärme klar kommt und wo sie sich im Feld der Konkurrenz befindet.
 
Leon_FR schrieb:
die frage die ich mir stelle, was zieht denn so ein 10900K übertaktet mit einer OC KArte die vl am ende 450W nimmt? da brauche ich doch minimum ein 850 W netzteil besser 1000?!

Das wird evtl. nicht reichen. Es gibt reihenweise reviews wo gute 850Watt NTs ausgestiegen sind (bei 3080OC und 3090stock), was im Grunde genommen auf die hohen Lastspitzen zurückzuführen ist. Und diese NTs haben teilweise nicht einfach abgeschaltet sondern sind hinüber.

Das hier ist eben das Problem:

1.JPG


Und über die VRAM Temperaturen spreche ich noch nicht mal. Auch das ist nahe an der Grenze. Es geht hier nicht um Geld sondern darum, dass die Karten so auf Kante genäht sind, dass neben dem Hardwarefail auch noch andere Faktoren zu Instabilitäten und Abstürzen führen können. Das gilt vor allem für die Fraktion die zwar die teuerste Karte haben muss aber am Rest spart. Wie gesagt smart geht anders.
 
  • Gefällt mir
Reaktionen: Piranha771, Torr Samaho, ghecko und eine weitere Person
poly123 schrieb:
Nicht falsch verstehen - aber man kann sich "Effizienz" halt auch auf diese Weise neuerdings schön reden, wenn man von FPS pro Watt spricht ;) Die Technologie ist ausgereizt, fertig - es wird auf Teufel komm raus versucht, die 4k100+ Marke mit egal was für einem (Leistungs-)Aufwand zu erreichen.

...alles gut, nur ist es ja ein Fakt , dass die Grakas momentan top 3 sind was Effizient angeht, ja sie verbrauchen viel, aber leisten auch sehr viel dafür....

...was die Leute nicht verstehen , warum auf AMD so rumgehackt wurde war, dass sie sehr viel verbraucht haben, aber nicht viel raus kam....

...ich hätte als Nvidia die 3080 z.B. um 50W schwächer gemacht , auf das Niveau der 2080ti und vielleicht 3 % Leistung eingebüßt, es hätte aber keiner mehr was zu meckern gehabt, im Gegenteil , der Tenor wär gewesen " schau mal mehr Leistung mit gleicher TDP der 2080ti" ...

...gleichzeitig hätts du mehr OC Spielraum gehabt für die Boardpartner und Leute, noch mehr Positives .....


...und nein ich bin kein Nvidia Fanboy, bei Gott ich hoffe dass BIGNAVI an die 3080 dran kommt und somit nur ca. 15 % von der Spitze weg ist, das wäre für alle ein FEST. ......
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herdware und poly123
Caramelito schrieb:
Falls du UV/OC betreibst, lass mich wissen, wie es läuft <3
Frühestens Mittwoch wird sie dann in den PC wandern, dank Spätschicht komme ich nicht früher dazu diese Woche.
Und UV auf keinen Fall, ausser sie wird dank fehlenden Wakü Block zu laut. OC werde ich schon mal schauen was so geht.
 
Eine RGB Phantom.
Bis auf den Namen hat die aktuelle Phantom Serie nichts mehr mit den einst so unauffälligen Kühlern gemein.
Schade eigentlich aber wie wir ja wissen, RGB steigert automatisch die FPS.
 
Dai6oro schrieb:
Ich hatte noch keine Zeit die Leistungs-Analysen von Igor zu schauen aber ich bin gerade beim unteren Balken fast vom Stuhl gefallen... und ich dachte, ich bin mit meinem 600W-Titanium-NT für "alle Ewigkeit" gerüstet :lol:
Über 400 W allein die GraKa im Peak...

Wobei mir das dann langsam zu blöd ist... dann wird es halt eine Stufe drunter oder (idealerweise) eine RDNA2-Karte...
 
yaegi schrieb:
wooooooow....! du sparst dadurch bei 4h Zocken/Tag krasse 20€ im Jahr
Ich glaube, es geht den meisten hier nicht um einen gewissen Betrag, den man im Jahr sparen würde.
Es geht darum, dass viele Systeme einfach nicht für das Abführen von so einer Abwärme konzepiert sind.
Das bedeutet, dass man unter Umständen neues Gehäuse, neue Wakü, neuen Stellplatz, Umbaukosten, Wärme im Zimmer, mehr Lautstärke etc. in Kauf nehmen muss. In älteren Häusern kann auch die Elektrik gar nicht für ausgelegt sein, dass man so einen Rechner mit 2 fetten Monitoren und was weiß ich noch alle dazu betreibt.
Und das alles nur, weil man sich eine Graka gekauft hat mit dem längsten Balken.
 
  • Gefällt mir
Reaktionen: Bornemaschine, Jowiesel und Vexz
GrooveXT schrieb:
Dann kaufe doch auch nicht die Highend Karte. Die 3060 und Co werden sicherlich deutlich weniger verbrauchen, eine 2080 sowieso. Wer die Leistung nicht braucht, muss doch auch nicht mit dem Verbrauch leben. Verstehe die Leute nicht.


So einfach ist das von Foxman genannte Problem leider nicht zu lösen. Wenn die High-End-Karten immer mehr Strombedarf anmelden, zieht das die kleineren Modelle zwangsläufig in ihrem Fahrwasser mit. Heutige Einstiegskarten verbrauchen mehr Strom als die High-End-Modelle aus den Retroartikeln hier bei CB.

Bei den CPUs gibt es diese Entwicklung nicht in diesem Ausmaß. Ein Mainstream-Pentium 4 von "damals" hatte meinetwegen eine TDP von 85 bis 115 Watt, dagegen stehen heute Mainstream-Ryzens mit 65 bis 95 Watt. Eine GeForce 3 Ti500 hatte 43 Watt TDP, heute sind wir mit der RTX 3090 bei fast der zehnfachen TDP für die Spitzenmodelle. Als PCIe irgendwann nicht mehr ausreichte, kam eben ein weiterer Stromanschluss dazu... Dann noch einer und nun noch einer... Diese Art des Fortschritts kann man schon kritisieren, unabhängig von irgendwelchen Umwelt- oder Stromkostengedanken.

Der absolute Strombedarf stagniert bei den CPUs mehr oder weniger, während die Leistung exorbitant ansteigt. Natürlich stecken moderne GPUs die alten Modelle bei Performance pro Watt auch komplett in die Tasche, aber der absolute Stromverbrauch blieb dabei eben leider nicht so konstant wie bei den CPUs über die Jahre. Optimierungspotenzial ist aber sehr wohl noch vorhanden, das zeigen Späße wie die "50 Watt weniger TDP resultieren in nur 4 % niedrigerer Leistung"-Messung aus dem 3080-Test von CB.

CPUs und GPUs direkt zu vergleichen, ist von meiner Seite zwar eine kleine Milchmädchenrechnung. Ich habe auch keine Meinung dazu, ob die Entwicklung jetzt gut oder schlecht oder notwendig oder nicht ist (ich bin nicht die Zielgruppe dieser Grafikkartenklasse). Aber diskutieren kann man darüber schon und eine Antwort wie: "Einfach die kleineren Modelle kaufen", klingt mir dann doch etwas zu einfach.
 
  • Gefällt mir
Reaktionen: russianinvasion, bugmum, floq0r und eine weitere Person
Blackvoodoo schrieb:
Frühestens Mittwoch wird sie dann in den PC wandern, dank Spätschicht komme ich nicht früher dazu diese Woche.
Und UV auf keinen Fall, ausser sie wird dank fehlenden Wakü Block zu laut. OC werde ich schon mal schauen was so geht.
UV/OC ist eine gute Möglichkeit die Leistung zu steigern - Siehe div. Berichte bzgl. RTX 2000.
Beinhart +MHZ draufknallen endet oft im PT :-)
 
GrooveXT schrieb:
Wenn du dein Leben lang Spiele mit State-of-the-Art von heute spielen willst, dann könnte man so eine Grenze fest schreiben. Die ist aber sehr willkürlich gewählt ohne fundierte Grundlage. Zocker von vor 15 Jahren z.B. würden bei solchen Leistungsangaben die Hände über dem Kopf zusammen schlagen. Da hat der ganze Rechner 200 Watt verbraucht.

Naja betrachten wir einfach mal die CPU Seite ...

Pentium 4 von 2000 Verlustleistung von bis 75 Watt ... etwas später sogar 89 Watt.
https://de.wikipedia.org/wiki/Intel_Pentium_4

eine aktuelle AMD CPU verbraucht kaum mehr. Rechnet aber um Welten schneller.

Ja vor 15 Jahren nutzten die PC´s noch kein eigenens Kraftwerk wird aber wohl bald Zeit das man ein Kraftwerk + ein Klimagerät braucht wenn man seinen PC einschaltet und nicht gerade das Haus beheizen will.

Und nein wir braucht aktuell keine 400 Watt Grafikkarten die wegen 150 Watt Mehrverbrauch 20 % schneller sind ... das ist absurd.

Wenn man das gesamte bedenken tut ... Intel CPU bis zu 100 Watt extra und dann bei der GPU auch noch 150 Watt extra.

Die Grenzen für den Verbrauch von Energie gibt es ja nicht nur bei Staubsaugern ... sondern ja auch bei Autos mit dem CO2 ausstoß der Flotte und ich finde schon das dort Regelungen her müssen die dem ganzen eine Grenze vorgeben.

Und sorry PC Gaming als Luxus Hobby abzutun ist wohl auch falsch... es ist auch ein Hobby was eine breite Nutzergruppe hat ... und nicht nur Ethusiasten die nur das besten wollen.
 
Was man auch nicht außer acht lassen sollte: Angebot bestimmt Nachfrage und in diesem Fall eher anders herum, Nachfrage regelt Angebot. Würde kein Markt vorherrschen in dem große Karten gefragt sind, wo auf Leistung und nicht auf Verlustwärme geachtet wird, würde es keine großen Grakas geben...

Der Vergleich hier zur Business Sparte bei Notebooks, hier werden immer kleinere und effizientere CPUs verbaut um die Akkulaufzeit zu pushen. Außerdem gibt es einen Trend hin zur gut integrierten Grafik (zuletzt Intel) die wenig Strom verbraucht und passabel abliefert... Diese Begehrlichkeiten gibt es im Desktop Bereich nicht oder nur in Nischen...
 
gua* schrieb:
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.
Könnte damit zusammenhängen, dass Deutschland die weltweit höchsten Strompreise hat.
 
Tapioka84 schrieb:
CPUs und GPUs direkt zu vergleichen, ist von meiner Seite zwar eine kleine Milchmädchenrechnung. Ich habe auch keine Meinung dazu, ob die Entwicklung jetzt gut oder schlecht oder notwendig oder nicht ist (ich bin nicht die Zielgruppe dieser Grafikkartenklasse). Aber diskutieren kann man darüber schon und eine Antwort wie: "Einfach die kleineren Modelle kaufen", klingt mir dann doch etwas zu einfach.
Bei den CPUs reden wir von einer Leistungssteigerung des P4 zu einem Ryzen 3900X um den Faktor ~25 (3-4 GFLOPS zu ~80GFOPS), bei den GPUs hingegen (von einer 9800 Pro auf eine RTX 3080) vom Faktor >1000 (25 GFLOPS SP zu 30 TFOPS DP). Das kann man in der Tat nicht miteinander vergleichen und mehr kann man dazu auch nicht sagen.
Die Karten sind ja nicht ineffizient, im Gegenteil sie sind weitaus effizienter als die alte Generation oder jede andere GPU bisher. Defakto kann man im Moment nur sagen, wer die Leistung braucht, kann nichts effizienteres kaufen. Und wem das zu viel ist, der muss halt auf kleinere Karten ausweichen. Es würde anders aussehen, wenn z.B. AMD mit einer bessere Effizienz gleich schnell oder schnellere Karten anbieten würde.
So wie es aber im Moment aussieht ist es doch so einfach. Wer weniger Verbrauch will kauft kleinere Karten. Die Effizienz stimmt so oder so.
 
Zurück
Oben