News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

300w+ tdp is ne el. heizung.

wie viel UV muss man da betreiben um im sommer keinen schmelzofen zu haben?
 
Ja, 3080 vs 2080Ti scheint die Geschichte von 2080 vs 1080Ti zu wiederholen, etwas schneller aber weniger VRAM, nur diesmal nicht mit einem so großen VRAM Nachteil.
 
  • Gefällt mir
Reaktionen: fox40phil
Nvidia hatte es bisher einfach nicht nötig in einen Preiskampf zu gehen. AMD will Marktanteile erobern, das geht eben nur über Leistung plus Preis. Ist doch bei den Prozessoren genauso. Intel verkauft da teilweise auch einfach nur so viel, weil es den meisten komplett egal ist, ob der Prozessor auf Kante genäht ist. Intel war früher gut, muss auch jetzt gut sein. Meistens passt für den 0815 User ja auch alles, weil alles läuft. TDP etc. interessieren den Mainstream einfach nicht.
 
  • Gefällt mir
Reaktionen: fox40phil und NMA
Mhm, dann behalte ich meine 1080Ti eben noch ne Gen. Geht scho. :D
 
  • Gefällt mir
Reaktionen: Irrlicht_01
Hoffentlich gibts Karten direkt mit Fullcoverblock. Warum Nvidia nicht direkt sowas liefert ist mir ein Rätsel.
Custom Loops sind keine Nische mehr.
Bei Release werden die Blocks wahrscheinlich wieder überall ausverkauft sein.
 
  • Gefällt mir
Reaktionen: Ratterkiste
Banned schrieb:
Da wird bei vielen ein neues Netzteil fällig sein.

Den Gedanken hatte ich heute auch schon.

Banned schrieb:
350W ist einfach krank. Kann mir nicht vorstellen, dass die Mehrleistung das ansatzweise rechtfertigt. Noch dazu so nen dicken Trümmer im Gehäuse.

Letztens hatten wir im Discord über die neuen GPUs gesprochen beim daddeln. Alle wünschten sich effizientere Karten. nVidia scheint genau den anderen Weg zu gehen. 350W ist einfach...ja du hast es gut getroffen, krank.


Banned schrieb:
Vielleicht wird die 3070 interessant. Die anderen beiden riechen irgendwie nach Brechstange.

Ja da muss man mal schauen. Über die 8GB Vram bin ich generell ein wenig enttäuscht, da wir das schon bei der 1070 hatten. Mal sehen was der Preis so hergibt, aber wenn sich die 500+ € bewahrheiten, finde ich das schon recht unattraktiv.

Turing war eine recht enttäuschende Generation, vor allem was Preis/Leistung angeht. Viele erhoffen sich da von Ampere mehr, aber momentan sind die Vorzeichen nicht sehr positiv.

Und das nVidia die 3090 so auf Kante näht, wundert mich ein wenig. Vll. wissen sie bezüglich RDNA2 Vollausbau mehr und wollen das direkt mit allen Mitteln kontern. Dann knallt man halt mehr Strom drauf...
 
  • Gefällt mir
Reaktionen: Ratterkiste
Doch, Custom-Loops sind eine Nische. Entsprechende Foren sind kein Abbild des Mainstreams. Aber diese Meinung ist ja irgendwie weit verbreitet.
 
Mucho79 schrieb:
Bei Release werden die Blocks wahrscheinlich wieder überall ausverkauft sein.

Geh mal eher davon aus, dass es zu Release noch gar keine geben wird. So wie man hört, haben die Partner noch keine Referenz-PCB's erhalten, damit sie ihre Produkte anpassen können.
 
aldaric schrieb:
. Vll. wissen sie bezüglich RDNA2 Vollausbau mehr und wollen das direkt mit allen Mitteln kontern.
Genau deshalb sollte AMD direkt nach Nvidia ihre Specs teasern, sonst verlieren sie direkt wieder den fetten Geldsegen der 3080er und 3070er Käufer, denn wer keine Alternative kennt, wartet nicht.
Und dann wundern sich alle, warum man so viele 3000er (bzw. generell Nvidia) in den Signaturen findet.
 
  • Gefällt mir
Reaktionen: fox40phil, Orok91, KlaraElfer und 3 andere
Linmoum schrieb:
Ich werde darauf zurückkommen. ;)

Kannst du gerne machen :) Erste Aufschlüsse liefert ja die Xbox Series X schon. Die wurde von Microsoft mit maximal 255 Watt spezifiziert. Da nur eine relativ moderat taktende Abwandlung von Renoir als CPU verbaut ist, dürften auf die 52 CU starke GPU ca. 180-200 Watt entfallen. Wohlgemerkt bei 1,825Ghz Takt. Bei 80 CUs (ca 54% mehr) nähert man sich schon bei gleichbleibendem Takt den 300 Watt sehr stark. Die PS5 zeigt, dass deutlich höhere Taktraten möglich sind und damit als dedizierte GPU auch zu erwarten sind. Wenn wir statt 1,825Ghz also eher ~2,1 Ghz annehmen, dann wird das unter 300 Watt eher ein Wunschdenken. Und wenn sich das 512 Bit Interface bestätigen sollte, dann führt am Ende eigentlich fast nichts an 300+ Watt vorbei bei der Anzahl an Shadern.

Mit HBM2e und moderaten Taktraten wären um die 300 Watt realistisch machbar, wäre aber auch entgegen AMDs Strategie der letzten Jahre, wo man die Chips auf den Desktop Grafikkarten ziemlich ausquetscht und am oberen Ende des möglichen betreibt. Realistisch betrachtet erwarte ch bei AMD bei gleicher anzahl der Shader keinen großen Unterschied bei der Leistungsaufnahme. Einzig der Speicher könnte einen Unterschied machen (z.B. wenn Big Navi nur normal langsam taktenden GDDR6 und kein GDDR6X bekommt oder evtl doch HBM2e / HBM mit 4 Stacks). Als HBM Ausführung würde ich mir dann aber keine zu großen Hoffnungen beim Preis und der Verfügbarkeit machen.

Laphonso schrieb:
Genau deshalb sollte AMD direkt nach Nvidia ihre Specs teasern, sonst verlieren sie direkt wieder den fetten Geldsegen der 3080er und 3070er Käufer, denn wer keine Alternative kennt, wartet nicht.

Genau das ist der richtige Weg! Wenn AMD jetzt schweigt, dann müssen sie sich nicht wundern, wenn Nvidia den markt leer fegt. Gerade im gehobenen und High End Bereich warten die Leute seit Ewigkeiten auf neue Karten. Der Erfolg von Big Navi hängt maßgeblich vom Marketing ab.
 
  • Gefällt mir
Reaktionen: fox40phil, ChrisM, MrNejo und 2 andere
Taxxor schrieb:
24GB VRAM samt Speichercontroller sind da schon mal gut 100W von diesen 350W, bei der 3070 sieht man ja, dass sich die TDP zur 2070S nur um 5W erhöht hat
Da stellt sich die Frage, wieso die 3080 dann so durstig ist? Nach dem Leak scheint sich ja nichtmal wirklich höher zu takten
 
@Revan1710 Naja die 3080 nutzt eben den gleichen GA102 Chip wie die 3090, der Abstand zur 3070 wird daher auch größer ausfallen als zur 3090
 
Das sind doch alles nur Leaks bisher. Würde mich nicht wundern, wenn Jensen bei der
Laphonso schrieb:
Genau deshalb sollte AMD direkt nach Nvidia ihre Specs teasern, sonst verlieren sie direkt wieder den fetten Geldsegen der 3080er und 3070er Käufer, denn wer keine Alternative kennt, wartet nicht.
Und dann wundern sich alle, warum man so viele 3000er (bzw. generell Nvidia) in den Signaturen findet.

Sehe ich auch so. AMD sollte richtig frech dazwischengrätschen. Fragt sich nur, wann das beste Timing dafür ist. Kurz vor der Ankündigung oder kurz danach? Wäre natürlich feist, wenn Jensen die 3090 mit 100k Punkten TSE teasert und einen Tag später gibt's einen Leak: Big Navi mit 110k Punkten.
 
  • Gefällt mir
Reaktionen: Orok91, NMA, cookie_dent und eine weitere Person
orlof schrieb:
Doch, Custom-Loops sind eine Nische. Entsprechende Foren sind kein Abbild des Mainstreams. Aber diese Meinung ist ja irgendwie weit verbreitet.

Ne 3090 zu kaufen ist mindestens genau so eine Nische! Ich behaupte mehr Leute haben einen Custom-Loop als sich eine 3090 kaufen werden.
 
Shoryuken94 schrieb:
Genau das ist der richtige Weg! Wenn AMD jetzt schweigt, dann müssen sie sich nicht wundern, wenn Nvidia den markt leer fegt. Gerade im gehobenen und High End Bereich warten die Leute seit Ewigkeiten auf neue Karten. Der Erfolg von Big Navi hängt maßgeblich vom Marketing ab.

Relevant:

AMD Can’t Hide RDNA 2 Forever

Ergänzung ()

ZeroStrat schrieb:
Sehe ich auch so. AMD sollte richtig frech dazwischengrätschen. Fragt sich nur, wann das beste Timing dafür ist. Kurz nach der Ankündigung oder kurz danach?
Ich denke nach bekannten Preisen und ersten unabhängigen Benchmarks. Man muss schon sehen, wie die 3000er performen in "echten" Bedingungen und wie groß der gering der Abstand ist zu den 2000ern, RTX on und off.
 
  • Gefällt mir
Reaktionen: robertsonson
Taxxor schrieb:
Naja damit haben sie eigentlich nur bewiesen, dass mehr als 65W bei ihren 8C CPUs so gut wie nichts bringt^^
Trotzdem ok, zumal der nächst höhere der 3800X mit 95W angegeben nicht wirklich besser ist im Verhältnis :)
 
Revan1710 schrieb:
Da stellt sich die Frage, wieso die 3080 dann so durstig ist? Nach dem Leak scheint sich ja nichtmal wirklich höher zu takten


Die TDP sagt über die wahre leistungsaufnahme nichts aus, Die 2080Super ist auch mit 250 Watt angegeben, genauso wie die 2080 Ti, obwohl die beiden schon deutlich auseinander liegen. Auch eine GTX 770 damals mit 230 Watt lag auf dem papier nicht weit entfernt von einer 780Ti mit 250 Watt, in der Praxis lag aber auch da sehr viel dazwischen. Zumal die offiziellen Nvidia Taktangaben eh immer sehr unaussagekräftig sind, da die Karten meist deutlich höher takten. Evtl. darf die 3080 freier takten, als die 3090. Das war bei kepler damals auch so, dass die 680 z.B. auf dem Papier höher taktet, die 670 aber deutlich freier Takten konnte und in der Praxis auch deutlich mehr Boost takt auf den basistakt gelegt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Vitali.Metzger schrieb:
Die 10 GB VRAM bei der 3080 sind ein Witz. Wahrscheinlich kommen bei der 3070 und 3080 noch Versionen mit doppelten Speicher, wenn man den G
Ja, die sind wirklich ein Witz und das was in der News zu lesen ist haut mich jetzt auch nicht wirklich vom Hocker.
Ich hatte ja auf eine 3080 mit 16GB gehofft, aber so wird halt erstmal kein Geld ausgegeben.
Und die 8GB der 3070 sind ja wohl die Höhe der Frechheit.
Mal warten was AMD so bringt und ob die wirklich mit 16GB Karten um die Ecke kommen.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
..::Borni::.. schrieb:
Ne 3090 zu kaufen ist mindestens genau so eine Nische! Ich behaupte mehr Leute haben einen Custom-Loop als sich eine 3090 kaufen werden.
Natürlich ist die 3090 ein Nischenprodukt. Der Rest hast du dir ja einfach ausgedacht und hat auch überhaupt nichts mit dem Thema zu tun.
 
Zurück
Oben