News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Ich erinnere mich an Zeiten, da war ein 400W-Netzteil für einen Gaming-PC komplett übertrieben...

Das ist schon ewig her und in den letzten 10? Jahren war es kaum nötig stärkere Netzteile zu kaufen. Es gab seither krasse Leistungszuwächse bei der Hardwarepower. Big Navi wird auch gut Leistung ziehen, da braucht man sich nichts vormachen und abgesehen vom High-End-Segment wird sich der Verbrauch doch vermutlich in Grenzen halten.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Zum Einten wird das Netzteil wohl auch nur einen Wirkungsgrad von ca. 90% aufweisen.
Dann wären wir bei: 315x0.9= 284W
Ganz schwerer Denkfehler denn die angegebene Leistung bezieht sich auf den Ausgang und nicht den Eingang des Netzteils. Die 315W wären also die Ausgangsleistung, was bei einem Wirkungsgrad von 90% am Netzstecker 346,5W bedeuten würde.
Ergänzung ()

Laphonso schrieb:
Die Gamer GA102 GPUs wurden als "cut downs" etikettiert, das inkludiert die 3090.
cut downs = kein Vollausbau.
Vollausbau = Titan.

DAS ist "logisch" ;)
Die Theorie steht auf seehr wackeligen Füßen denn die erste Titan war kein Vollausbau (erst Titan Black) und die Pascal Titan X auch nicht. (erst Titan Xp)
Ergänzung ()

CrustiCroc schrieb:
Da die Karten ( auch wenn man nichts ganz genaues weiß ), wohl sehr viel Strom verbraten werden, und nach dicken Netzteilen schreien....sagt das doch lange nicht über die Effizienz aus !

Von Thermi 2.0 zu sprechen ist absurd, denn WENN die Dinger massive Leistung raushauen, relativiert sich das doch sehr schnell.
Fermi war zu seiner Zeit auch schnell und der Verbauch wurde ebenfalls damit abgesegnet und nun?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cpt.Willard und PS828
@Laphonso Ja das ist doch meine Aussage?

Linmoum schrieb:
Wenn du Spiele unter richtiger GPU-Last (also z.B. in UHD) anschmeißt, dann wirst du auch die 350W zu Gesicht bekommen.
Ok bevor wir hier aneinander vorbeireden: Mir ist durchaus bewusst, dass die 350W verbraucht werden können. Ich wollte damit bloß sagen, wenn die Karte nicht voll ausgelastet ist verbraucht sie eben auch nicht die vollen 350W.
 
Zuletzt bearbeitet:
Na endlich.
Wird Zeit, dass die RTX 2080 günstiger wird..
 
MrNejo schrieb:
@Laphonso Ja das ist doch meine Aussage?
Nein? Du sprichst von der Titan im Gaming Bereich, "die Nvidia zurückbringen wolle" das ist das Gegenteil von dem, was Nvidia gemacht hat bei Turing, dort wurde die Titan als "Work" GPU platziert.

"TITAN RTX und RAPIDS sind ideal für Entwickler und Enthusiasten und bieten einen einfachen und schnellen Einstieg in die Nutzung von GPU-beschleunigten Workflows für die Datenwissenschaft auf Ihrem PC."

Hier wurde genau die Trennung vollzogen zu Gaming.
Es ist also genau das Gegenteil von dem, was Du schreibst.

Die cut downs sind Gaming Chips, und das Ampere Top Modell ist keine xx08Ti mehr, sondern eine 3090.

Es sei denn, nächste Woche erfahren wir etwas, was noch nicht geleaked wurde (mit Ausnahme der Preise).
 
Für Besitzer von Kleinstgehäusen wie mich dürften die 3080 sowie 3090 nicht nur zu teuer, sondern obendrein zu stromhungrig/heiß und schlicht zu voluminös werden. Momentan habe ich eine 1080 Ti in der Blower-Variante verbaut und werde mir natürlich anschauen, ob die neuen Nvidia-Grafikkarten Anreize für ein sinnvolles Upgrade bieten. An den kolportierten Daten zur 3070 stört mich, wie viele andere auch, dass 8 GB GDDR6 mit 256-Bit-Interface gegenüber 11 GB GDDR5X mit 352-Bit-Interface beim VRAM vermutlich eher einen Rückschritt darstellen dürften. Ob in puncto GPU der GA104 der 3070 tatsächlich mehr Rohleistung bringen wird als der GP102 der 1080 Ti, scheint mir auch zweifelhaft zu sein. Oder sind da signifikante Zugewinne zu erwarten? Lediglich bei der TDP bringt die 3070 mit 220 Watt eine Verbesserung gegenüber der 1080 Ti um 30 Watt und damit möglicherweise eine Verringerung der Temperaturen im Gehäuseinneren.
 
@Laphonso Nein, was ich meine ist: Sie bringen mit der 3090 eine Karte die von der Leistung und vom Namen (eben nicht 3080ti) sich deutlich vom restlichen Gaming Portfolio absetzt. Also genau das was zu Beginn die Titan ausgemacht hat, das es keine Titan mehr im GeForce Segment gibt, habe ich doch sogar im ersten Post geschrieben? Bei Turing war das noch die 2080ti, der Name 3090 lässt sich aber wahrscheinlich besser und teurer vermarkten (siehe zb Intel i9).
Also meinen wir doch essenziell das Gleiche oder nicht?:D
 
orlof schrieb:
Ich erinnere mich an Zeiten, da war ein 400W-Netzteil für einen Gaming-PC komplett übertrieben...
In der gesamten kurzen Geschichte des "Gaming PC", die erst irgendwo nach der Jahrtausendwende begann (irgendwo während der Übergangszeit von Single Core zu Dual Core Systemen), gab es nicht einen Tag, in der ein 400Watt Netzteil "komplett übertrieben" war.
Unter 550 Watt lief praktisch nie was, 625 bis 650 Watt ist immer schon der Mittelweg gewesen, bei dem man allerdings doch noch genau drauf achten sollte, was man verbaut, 750Watt ist (abseits von SLI / Crossfire und sonstigen extravaganten System Konfigs) das normale Maximum.
 
MrNejo schrieb:
Also meinen wir doch essenziell das Gleiche oder nicht?:D
Ja, vielleicht, also wenn wir das auf die Leistungsdaten sehen. Es war ja irritierend, dass bei Turing direkt die 2080Ti kam und nicht wie bei Maxwell und Ampere als späterer "Titan minus 5-9 %" cut down.

Ich mache das am Begriff Titan fest, den sie nun rausgezogen haben.

Die Turing Architektur mit Raytracing Recheneinheiten ist halt ewine Zäsur gewesen.

Aufgrundessen bin ich immer noch gespannt, was AMD dagegensetzt, und wie.
 
  • Gefällt mir
Reaktionen: MrNejo
MrNejo schrieb:
Dann wäre man eigentlich wieder beim Verlauf vor Turing: 80er Karte (3080) und Titan (3090) zu Beginn und später eine „ti“ (oder diesmal auch „Super“) nachgeschoben. Dieses „doppelte Abkassieren“ macht Nvidia schon lange und ist nichts Überraschendes.
Das "Nachschieben" ala Super ist diesmal aber wohl nicht mehr möglich, da die 3080 direkt den GA102 nutzen wird. Bei Turing wurde am Anfang der TU104 genutzt. (Pascal GP104)
Diesmal war wohl ein eigener Chip geplant (GA103) der aber wieder in der Versenkung verschwunden ist. Warum eigentlich? ;)
Diese direkte Nutzung des Big-Chips für die normale Oberklasse macht mich genauso, wie die sehr hohen TDPs ein wenig stutzig.
Warum machen die das, wenn sie es nicht nötig hätten?
Die einfachste Erklärung wäre noch: Sie haben ihre Designziele verfehlt und müssen nun auf anderen Wegen die Leistung herbei zaubern.
Andererseits war schon vor einem Jahr von einem "Nvidia-Killer" die Rede, wo alle (ich inklusive) herzlich drüber gelacht haben. Nebenbei war AMD aber komischerweise immer dann am besten, wen sie den Mund gehalten haben.

Daher noch die andere Erklärung: Nvidia hat letztes Jahr nicht gelacht, sich möglicherweise passende Informationen besorgt oder die (Navi) Leistung im (für sie) Worst Case hochgerechnet und quetscht diesmal schon von Anfang an alles aus den Chips heraus.
Entweder um ganz Vorne oder zumindest Wettbewerbsfähig zu bleiben.
Nachdem Nvidia Jahrelang den Effizienzkönig gegeben hat, warum sonst sollten sie diesmal alle Grenzen des guten Geschmacks niederreißen?
Alle, welche hier herum schwadronieren, wie: "Kein Problem, ich steck mir auch 500W in den Rechner", haben wohl noch nie so eine Dicke Karte gehabt. Die abzuführende Wärme ist der wahre Knackpunkt. Oder haben alle eine Klimaanlage zuhause?

Ich werde definitiv nichts kaufen, ohne mir vorher AMD angeschaut zu haben. Cyberpunk gibts im November / Dezember auch noch zu kaufen.
 
  • Gefällt mir
Reaktionen: Orok91, Cpt.Willard, chilchiubito und 2 andere
Wie sich BigNavi im Vergleich zu den RTX 3000 einordnet ist eher nachrangig.
Entscheidend ist wieviel Mehrleistung für EUR Aufpreis zu meiner jetzigen HW, aktuell Vega56 , da stehen.

Wie schon viele sagten wäre der Stromverbrauch selbst im Prinzip egal was die Stromkosten angeht, wäre da nicht die Abwärme und damit Lautstärke. Faktisch sind 300+ Watt eben nur mit enormen Aufwand zu kühlen und nur in gut gekühlten BigTower betreibbar.

Wäre noch der Kaufpreis.
Ich kaufe nach P/L und absoluten Preislimit 500EUR. Dazu müssen 40,50,60 und mehr Prozent an Mehrleistung sowie RAM drin sein.
Aus Leistungssicht ist das nur 2080 Ti und bald 3080 . Meh, Damit werde ich von nvidia direkt ausgeschlossen als Käufer.
 
  • Gefällt mir
Reaktionen: cookie_dent und Verak Drezzt
catch 22 schrieb:
In der gesamten kurzen Geschichte des "Gaming PC", die erst irgendwo nach der Jahrtausendwende begann (irgendwo während der Übergangszeit von Single Core zu Dual Core Systemen), gab es nicht einen Tag, in der ein 400Watt Netzteil "komplett übertrieben" war.
Unter 550 Watt lief praktisch nie was, 625 bis 650 Watt ist immer schon der Mittelweg gewesen, bei dem man allerdings doch noch genau drauf achten sollte, was man verbaut, 750Watt ist (abseits von SLI / Crossfire und sonstigen extravaganten System Konfigs) das normale Maximum.
Das ist einfach Quatsch... 400 bzw 450w waren normalerweise gut. Egal ob 3770k mit gtx980 oder was auch immer da rumflog.
 
  • Gefällt mir
Reaktionen: Pastafari, Wichelmanni und Faranor
Ich als alter Nvidia Fanboy hoffe auch auf AMD. Der Preisanstieg ist mir einfach zu viel. Eine schöne Karte von AMD die ca 80% schneller ist, als meineGTX 1070 für um die 400€ und ich bin zufrieden :)
Warscheinlich muss ich noch mit 8 Jahre altes 530W BQ Netztwil in Rente schicken....
 
Das Teil soll 34 Millionen Transistoren haben, also fast doppelt so viel wie die 2080Ti und doppelt so Speicher und auch noch den schnellsten.
Billig wird das nicht, aber ich bin ganz ehrlich froh das NV sowas released für Enthusiasten.
 
Also ich glaube auch, dass da was starkes von AMD kommt. Schauen wir mal auf die 3090. Boost takt * 2 * Schäfer = 17.790Tflops + 10% IPC(BEISPIEL) = 19.570Tflops verglichen mit Turing

19.570Tflops/13.448 von der 2080Ti = 1,4553 = 45,53% mehr Performance theoretisch.

Speicher 936/616GBps = 1,5195 = 51,95% mehr Bandbreite

Dafür 350 Watt vs 250 Watt = 1,4 = 40% mehr Stromverbrauch für ungefähr 40% mehr Performance?

Tsmc/Samsung 7nm vs 16nm Tsmc

So viel mehr Power der Grafikkarte zu geben nur um Performance rauszuquetschen muss doch heißen, dass amd entweder leistungsmäßig oder preislich extrem wettbewerbsfähig sein wird oder vielleicht sogar beides.
 
Die 3090 ist brachiale Versuch die Leistungskrone zu behalten. Ob BN eine 3080 angreifen kann wird sich zeigen.
 
Die hätten ja die 3090 auch nur mit 12 GB-Speicher anbieten können. Haben sie aber nicht. Warum?
Ganz einfach. Weil 24GB vermutlich das Argument sein wird eine RTX3090 statt einer RX6950XTX zu kaufen. 😉
 
  • Gefällt mir
Reaktionen: Cpt.Willard
catch 22 schrieb:
In der gesamten kurzen Geschichte des "Gaming PC", die erst irgendwo nach der Jahrtausendwende begann

Die Geschichte des "Gaming PC" begann spätestens mit dem ersten PC-Besitzer, der eine EGA (oder gar eine Adlib) Karte in seinen IBM PC steckte um sich an "Leisure Suit Larry in the Land of the Lounge Lizards" oder "Defender of the Crown" zu erfreuen. Alles was danach kam waren nur weitere Schritte auf dem bereits existierenden Pfad.
 
  • Gefällt mir
Reaktionen: Apocalypse, Retroyer, Sophisto und 4 andere
satis schrieb:
nie so vorschnell reagieren... werdens sehn ^^

Sag das auch mal den Kollegen die der Meinung sind, dass es AMD viel besser machen wird 😉
 
Zuletzt bearbeitet:
Huhu,

da sag ich mal Byebye nividia. Die einen fressen mir Zuviel Strom und die 3070 hat zu wenig VRAM.

Meine 2080 bleibt dann erstmal. 😁
 
Zurück
Oben