News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Ich finde die Entwicklung gelinde gesagt "spannend".
Wie soll es denn in paar Jahren aussehen. Entspricht dann irgendwann die TDP der Mittelklasse dem Preis in € oder wie stellen die sich das vor? Irgendwie nimmt ja seit einigen Jahren der Preis und die TDP mit jeder Generation zu.
Das wäre doch mal ein interessanter Artikel für CB. Verlauf der Zunahme des Verbrauchs und der TDP der letzten 10 Jahre. Ich glaube, dies ergäbe interessante Kurvenverläufe.
 
Der-Orden-Xar schrieb:
Die TDP der 80er und 90er ist weit über denen der aktuellen Titan. Hat nvidia es wirklich nötig hier den Intelweg zu gehen bzw den früheren AMD-Weg und durch massiven Stromhunger Leistung zu erzeugen?

Was ein Schwachsinn. Ohne die Leistung zu kennen kannst du den Stromverbrauch doch überhaupt nicht einschätzen. Erst recht nicht anhand der TDP.

Oder soll AMD die Threadripper einstellen? Die sind ja mit 280 Watt spezifiziert. Und die 5700XT muss dir dann ja auch sauer aufstoßen. Die ist mit 225 Watt spezifiziert, eine 50% schnellere 2080Ti nur mit 250 Watt.

Und ganz ehrlich, wer glaubt das AMD einen 80 CU Chip mit anständigen Taktraten unter 300 Watt bringt, der lebt auch im Traumland. Selbst bei gleichbleibenden Taktraten und 50% mehr Effizienz wird das nichts, wenn man mal von Navi 10 ausgeht. Besonders nicht mit angeblichem 512 Bit Interface und 16GB GDDR6X
 
  • Gefällt mir
Reaktionen: fox40phil, Alex1966, adAstra und 4 andere
Da wird bei vielen ein neues Netzteil fällig sein.

Nee, im Ernst: Ich kauf mir doch keine Grafikkarte mit über 300W TDP und zu dem erwarteten Preis. :freak:

350W ist einfach krank. Kann mir nicht vorstellen, dass die Mehrleistung das ansatzweise rechtfertigt. Noch dazu so nen dicken Trümmer im Gehäuse.

Vielleicht wird die 3070 interessant. Die anderen beiden riechen irgendwie nach Brechstange.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828 und aldaric
tomasvittek schrieb:
für DICH ist der preis zu hoch, andere kaufen die karte aber dennoch wie wild.
Eine 3090 oder vorher ein 2080Ti verkauft sich mit sicherheit nicht wie "geschnitten Brot"

Und Luxus ist Ansichtssache. Wir sind nach wie vor ein sehr reiches Land, indem sich viele sehr teure Dinge leisten können. Das gilt aber so nicht überall. Und so können sich hier auch Dinge "wie geschnitten Brot" verkaufen, und sind für 85% der Weltbevölkerung trotzdem unerreichbarer Luxus.

Edit:
Aber um das nochmal zu verdeutlichen..hier ist deine Karte die sich "wie geschnitten Brot" verkauft.
1598649037508.png

0.71% in der Spitze der Steamstatistik. Wie ich sagte..Luxusgegenstand.
Du kannst niumal nicht danach gehen wie viele hier im Forum solch eine Karte besitzen.

Bei der Ti sieht das nicht besser aus.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BlackhandTV
Spike Py schrieb:
Der Strompreis ist mir da auch egal, für die Umwelt find ich es natürlich blöd aber ok, so einen riesen unterschied macht das jetzt auch nicht am Ende. Was mich daran stört ist, dass beim Zocken die Wärme auch irgendwo hin muss und im Sommer bei über 30 Grad Außentemperatur wird es im Gaming-Room schnell unangenehm warm ohne eine Klima! Das ist der wahre Grund, warum ich mir das Teil wahrscheinlich nicht holen werde 😢

Für die Umwelt wäre es viel sinniger Heizkosten zu sparen(1grad im Winter die Heizung runter, soviel Strom kannst du garnicht sparen um den gleichen Effekt zu erzielen)... denn die machen den größten Teil unseres Energieverbrauches aus. Auch läuft ja so ne Grafikkarte nicht immer nur mit 100%, ich stell mir immer so bildlich vor wie dier allgemein CB User mit seinem Auto immer nur mit Vollgas oder garnicht fährt.

Mich stört primär auch eher die Lautstärke der Kühler daran.

Ist halt schon ein fettes Teil^^ Für VR würds mich sehr interessieren, was mit so ner 3090 da am Ende möglich wäre.

Mir fehlt bei der 3080 beim Vram so n bischen der Mittelweg. 10GB erscheint mir auf 3-4 Jahre Nutzungsdauer und 4k grenzwertig, 20GB wiederum ist irgendwie etwas overkill. So 16GB wären in meinen Augen ein guter Mittelweg.

Aber ich habs eh nicht eilig und werd auch mal schauen was AMD so liefert, was die neuen Konsolen so machen und mich dann entscheiden.
 
  • Gefällt mir
Reaktionen: Apocalypse
drunk_chipmunk schrieb:
Exakt. Nvidia verzichtet sicher nicht auf Marktforschung. Die wissen ganz genau, bei welchem Preis sie mit welcher Nachfrage rechnen können und welche Preise sie aufrufen müssen, um den maximalen Umsatz zu machen.

Naja, sah man ja beim Turing Release, als nVidia zugeben musste, dass die Verkäufe weit hinter den Erwartungen lagen.
 
  • Gefällt mir
Reaktionen: cookie_dent und PS828
aldaric schrieb:
Naja, sah man ja beim Turing Release, als nVidia zugeben musste, dass die Verkäufe weit hinter den Erwartungen lagen.
Stimmt, deshalb geht es ihnen ja auch so schlecht.
Weil sie nicht wissen wie es geht.

Achso, gibt keine Alternative im High end? Ja, das wissen die eben auch :)

Ich hoffe AMD bringt ein vernünftgiges Preis/Leistungs-Paket.

Ich brauche nicht mehr jeden letzten Frame.
 
Roy Schwarz schrieb:
Wow. Wie hier einige jetzt schon das Geld raushauen wollen für ne 3090 oder 3080 mit 20gb obwohl sie noch eine recht aktuelle high end gpu haben ist schon krass.
Die hatten auch schon die 1080 und 1080ti davor. Und suchen immer noch nach der GPU die sie bei 4k wirklich zufrieden sein lässt.

Also das nvidia diese Kunde auch bedienen will ist schon verständlich 8GB für die 3070 wirkt trotzdem sehr kümmerlich. Das reicht wahrscheinlich für max Texturen bis Ende des Jahres noch und dann kommen die neuen Konsolen Ports. ;-)
 
  • Gefällt mir
Reaktionen: t3chn0 und Fighter1993
Taxxor schrieb:
300W sehe ich bei RDNA2 auch als Minimum an für das Topmodell, eher etwas mehr, wie sollte es auch anders sein, wenn man auf 72 oder gar 80CUs geht
Abwarten möglich ist alles, wenn das Top Modell mehr wie 300W frist dann ist es auch nicht viel besser, bin gespannt auf was die setzen.
 
Die Herateller entwickeln sich mit Mondpreisen mittlerweile am Massenmarkt vorbei. Jenseits der 3xx Marke wird es dünn, selbst ich als passionierter Zocker hab mich mit der RTX 2070 schwer getan in 2018, aber vlt. bin ich gar nicht mehr Zielgruppe. Der Hauptmarkt sind eh Firmenkunden und fürs Zocken greifen mehr Leute mittlerweile (schon seit Jahren?) zur Konsole.
 
Toni_himbeere schrieb:
Für die Umwelt wäre es viel sinniger Heizkosten zu sparen(1grad im Winter die Heizung runter, soviel Strom kannst du garnicht sparen um den gleichen Effekt zu erzielen).
Ich hab eine R9 290, ich heize gar nicht im Winter, ich mach die Fenster auf um auf 24° zu kommen. ;-)
 
  • Gefällt mir
Reaktionen: Unnu, Acedia23, Toni_himbeere und eine weitere Person
I:r:O:n:I:C schrieb:
Abwarten möglich ist alles, wenn das Top Modell mehr wie 300W frist dann ist es auch nicht viel besser, bin gespannt auf was die setzen.
RDNA2 soll 50% effizienter werden, daraus kannst du schon einiges ableiten....
Wenn so eine 3090 50% schneller als eine 2080Ti wird, dann müsste Big Navi 120% schneller als die 5700XT werden, um im gleichen Bereich wie die 3090 zu liegen.

Selbst mit 50% besserer Effizienz würde das immer noch auf 325W hinauslaufen und idR gelten diese Perf/Watt Verbesserungsangaben nie für das Topmodell, dort ist die Effizienz meist schlechter. Dann bekommt sie ja vmtl auch 16GB statt 8GB VRAM und wir sind bei den 350W.


Und beim Verbrauch gilt das gleiche wie beim Preis, wenn die Konkurrenz auf 350W hochgeht um die Leistung zu pushen, warum sollte man seine eigenen Karten künstlich auf unter 300W halten und Leistung liegen lassen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrNejo, NMA und Apocalypse
Palatas schrieb:
Ist doch nix Handfestes, am Dienstag wissen wir es genau. Es wäre auf jeden Fall erstaunlich, wenn Nvidia eine Käuferschicht ignoriert - die Kluft zwischen 899,-€ zu 1999,-€ wäre einfach zu groß.

Die 3080 wird halt auch über 1k kosten
 
Diese Zeiten kommen vielleicht zurück... ^^
1598649694392.png


Und mit diesem Fazit von @Wolfgang, im übertragenen Sinne natürlich.

Apropos Preis: In Deutschland setzt AMD mit 499 Euro ein aggressives Zeichen. Der Preis liegt deutlich unter dem der in etwa gleich schnellen GeForce GTX Titan (um die 820 Euro) und selbst unter dem der langsameren GeForce GTX 780 (um die 515 Euro). Damit hat die Radeon R9 290X in Sachen Preis-Leistungs-Verhältnis klar die Nase vorn. Wer dieser Tage eine High-End-Karte kaufen möchte, sollte daher zur AMD-Karte greifen.
 
  • Gefällt mir
Reaktionen: Unnu, fox40phil, tochan01 und 2 andere
Ich freue mich schon wenn das die ersten Preise eintrudeln und das Forum Implodiert vor lauter Postings :volllol:
 
  • Gefällt mir
Reaktionen: fox40phil, Mucho79, Apocalypse und eine weitere Person
LipsiaV schrieb:
Jo da kann AMD wieder im Highend einpacken, spielen eh eine immer kleinere Bedeutung bei dedizierten GPU´s wenn man den Meldungen aus den letzten Tagen glauben darf.

Schon alleine das Featureset was Nvidia bietet.

Leistung+
NVenc + DLSS 2.0 + Raytracing (natürlich Hardwareseitig) usw...

Welcher Technik-Affine (welcher kein Markenfetischist oder Nvidia Hater/ AMD Fanboy ist) kauft denn noch oberhalb der Einstiegs/- Mittelklasse AMD?

Auf die Preise bin ich gespannt.

Ich bleibe aber bei meiner 2080 :)
Stecke mein Mana in Ryzen 4000.

Du wirst dich noch wundern was RDNA2 auf den Tisch zaubern wird.
z.B: Raytracing (natürlich Hardwareseitig)

HotChips32: AMD gibt Ausblick auf RDNA 2 mit Raytracing-Beschleunigung
link

"Die verbaute GPU unterstützt ein Sampler Feedback Streaming (SFS), Variable Rate Shading (VRS), D3D Mesh Shading und besonders interessant eine Machine Learning Acceleration und das DirectX Raytracing (DXR). All dies wird von den zukünftigen Radeon-Grafikkarten auf Basis der RNDA-2-Architektur für den Desktop erwartet. Insofern bietet sich hier ein Blick durch ein Fenster, welches sich für den PC-Spieler erst im Herbst öffnen wird.

Schlussendlich hat man noch ein paar Worte zur Raytracing-Leistung verloren. NVIDIA verwendet zur Hardwarebeschleunigung der Raytracing-Berechnungen in der Turing-Architektur einen RT-Kern pro SM. Bei AMD sind es nun offenbar vier Raytracing-Beschleuniger pro CU. Die Angaben der Leistung sind etwas verwirrend, denn AMD spricht von "380G/sec ray-box peak" und "95G/sec ray-tri peak". AMD scheint auch die Shadereinheiten zur Berechnung der Bounding Volume Hierarchy (BVH) verwenden zu können.

Microsoft attestiert den Raytracing-Beschleuniger eine geringe Chipfläche im Vergleich zur um den Faktor drei bis zehn höheren Leistung durch deren Unterstützung. Dies gilt auch für die Machine-Learning-Beschleunigung, die bei einer Skalierung der Auflösung unterstützen soll. Plant AMD hier ein Gegenstück zu NVIDIAs DLSS?"
 
  • Gefällt mir
Reaktionen: Unnu
Taxxor schrieb:
RDNA2 soll 50% effizienter werden, daraus kannst du schon einiges ableiten....
Wenn so eine 3090 50% schneller als eine 2080Ti wird, dann müsste Big Navi 120% schneller als die 5700XT werden, um im gleichen Bereich wie die 3090 zu liegen.

Selbst mit 50% besserer Effizienz würde das immer noch auf 325W hinauslaufen und idR gelten diese Perf/Watt Verbesserungsangaben nie für das Topmodell, dort ist die Effizienz meist schlechter. Dann bekommt sie ja vmtl auch 16GB statt 8GB VRAM und wir sind bei den 350W.


Und beim Verbrauch gilt das gleiche wie beim Preis, wenn die Konkurrenz auf 350W hochgeht um die Leistung zu pushen, warum sollte man seine eigenen Karten künstlich auf unter 300W halten und Leistung liegen lassen?
Ja ist ja gut hast gewonnen, die werden schon alle so im Rahmen sein mit der TDP, aber vllt. kitzeln die aus dem RDNA2 noch etwas mehr raus, AMD hat es z.b. mit dem Ryzen 7 3700X (65W) auch bewiesen :D
 
Shoryuken94 schrieb:
Und ganz ehrlich, wer glaubt das AMD einen 80 CU Chip mit anständigen Taktraten unter 300 Watt bringt, der lebt auch im Traumland.
Ich werde darauf zurückkommen. ;)
 
  • Gefällt mir
Reaktionen: s0UL1 und MR2
I:r:O:n:I:C schrieb:
AMD hat es z.b. mit dem Ryzen 7 3700X (65W) auch bewiesen :D
Naja damit haben sie eigentlich nur bewiesen, dass mehr als 65W bei ihren 8C CPUs so gut wie nichts bringt^^
 
  • Gefällt mir
Reaktionen: MrNejo
Finde auch, dass die 3080 so auf den ersten Blick keine gute Figur macht. Verbrauch kratzt an der 3090 bei deutlich weniger Shadern und 10 Gb sind für eine Karte, die wohl schneller als eine 2080 Ti wird, auch nicht gerade ein Pluspunkt.

Bin gespannt welche Messlatte die 3090 vorlegt und ob diese brachiale Karte dazu dient, um den nächsten Preisgipfel zu erklimmen oder ob man wirklich ein paar Register ziehen musste, um die Krone zu behalten.
 
Zurück
Oben