News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

aldaric schrieb:
Ist ganz einfach. Architekturvergleich von Turing vs. RDNA1 zeigte schon, dass RDNA minimal im Vorteil ist. Es war lediglich nicht lohnenswert einen Big-Navi in einem frischen 7nm Prozess zu bauen. Die Kapazitäten wurden für die CPU's benötigt.

RDNA2 ist genauso eine Weiterentwicklung wie Ampere. Wieso sollte AMD nun also leistungstechnisch auf die Architektur bezogen weit zurück fallen? Die Frage ist nur, wann baut AMD den großen Chip.

AMD hat selbst gesagt, dass RDNA 1 Big Navi möglich war, aber in Sachen Leistung etc. nicht da ist, wo man sich Big Navi vorstellt. Also ging die Entwicklung weiter. Scheinbar wird erst Big Navi 2.0 auf den Markt kommen.

Ich vergleich es mal von der Entwicklungsreihenfolge so - analog zu den Ryzen CPUs.

Ryzen 1000 - der nette Anfang, dem etwas Power fehlte, aber zeigte wo die Reise hingeht
Ryzen 2000 - minimale Verbesserungen, man lernt verbessert, konnte man überspringen
Ryzen 3000 - die großen Probleme sind beseitigt, der Speichercontroller und die DRam Taktraten deutlich verbessert, die IPC gestiegen, der Takt gestiegen und ein sehr gutes finales Produkt ist am Markt

Big Navi 1 kann man sich wie Ryzen 1000 vorstellen gemäß dem gemachten Erfahrungen.
RDNA 1.5 Big Navi war sicher mal ein Entwicklungspart, der ebenso nicht gut genug war oder ein "Meilenstein" auf dem Weg zum Ziel war - ergo nicht für den Markt taugte.
Big Navi 2 könnte nun das werden, was der Ryzen 3000 ist - ein rundes Produkt, noch nicht ganz highend, aber sehr sehr gut.

Da muss AMD nun beweisen, was sie können und wollen.

Ich freu mich auf beide Seiten und ihre Karten, da so Bewegung in den Markt kommt und mal ehrlich - es kann nur besser für den Kunden werden. Siehe AMD vs Intel.

WIR profitieren massiv davon.
 
xexex schrieb:
Einfach geschätzt? Weil der Name "verbrannt" ist.
Und falls eine Titan Ampere GPU kommt? Schweigen wir über den Irrtum als Gentlemen? ;)
 
Laphonso schrieb:
Und falls eine Titan Ampere GPU kommt?

Dann kommt halt eine, den Namen Titan schlichtweg durch 3090 zu ersetzen erscheint in Anbetracht der Ausstattung der kommenden Karte trotzdem logisch und passt zu den ganzen 3900X oder i9 Modellen die in letzter Zeit kamen.
 
Eine 3090 soll die neue (Titan) sein? Aber hat keinen Vollausbau? Das ist wohl eher unwahrscheinlich.
Die Titan kommt noch da gibt es schon eher keine TI mehr, weil die 90 die neue TI ist.

Ein 2080ti SLI nutzer würde doch niemals auf 2x 3080 umsteigen, wenn sie Nichtmal nvlink kann.

Wenn jeder auf 1300-1500 besteht, wird sie schon soviel kosten nicht das erstmal, das Nvidia kurz vorher die preise nach unten korrigiert hat, wenn hier jetzt aber jeder 2000 rechtfertigen möchte, obwohl die niemals soviel wert besitzt dann guten Nacht.
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
den Namen Titan schlichtweg durch 3090 zu ersetzen erscheint in Anbetracht der Ausstattung der kommenden Karte trotzdem logisch
War bei der 2080Ti auch so begründet, war auch falsch.

Die Gamer GA102 GPUs wurden als "cut downs" etikettiert, das inkludiert die 3090.
cut downs = kein Vollausbau.
Vollausbau = Titan.

DAS ist "logisch" ;)

Deiimos schrieb:
Eine 3090 soll die neue (Titan) sein? Aber hat keinen Vollausbau?
This!
 
  • Gefällt mir
Reaktionen: Apocalypse
cookie_dent schrieb:
Hmm, weis ich nicht. Wenn die Preise wirklich so hoch angesetzt sind wie geleakt wurde, werden einige (incl. mir) auf AMD warten. Ich werde mir mit Sicherheit keine 1000€+ Graka in den Rechner zu hauen.
ArrakisSand schrieb:
2080ti FE = 68SM (4352)
1.635GHz
616GB/s

6800XT = 56CU (3584)
ca. 2GHz
672GB/s
(Bei ca. 225W analog 5700XT???)

(3584x2)/(4352x1.635)x100 = 100.7% (ohne IPC Steigerung)

Beim Preis für einen bei TSMC gefertigten 7nm (e?) 300-340mm2 Die würde ich
max. 600€ sehen.

Bei welchem Preis startete die 5700XT bei ca. 400€?
Als der Prozess noch relativ frisch war und die Yield rate noch deutlich tiefer.
Daher denke ich sind 600€ sicherlich realistisch für einen 300-340mm2 Die.


Ist so auch in etwa zu erwarten und realistisch, wenn RDNA2 gut mit den Shadern skaliert. Die 2080Ti wird kräftig im Wert fallen mit den neuen Karten. Die spannende Frage ist, mit welcher Amperekarte wird sich die Lösung am markt befinden.

Das die 2080Ti geschlagen wird, ist wohl wenig verwunderlich und überraschend. Ich denke eine 3070 könnte auch in etwas auf dem Niveau landen und auch um die 50-60 SMs haben. Mal sehen. Ich denke gerade in der Mittelklasse und der Oberklasse werden sich AMD und Nvidia nicht viel schenken.
 
  • Gefällt mir
Reaktionen: cookie_dent
so_oder_so schrieb:
Was kaufen die <300€ Gamer nun?

Entweder sie kaufen günstig AMD oder eben günstig nVidia, aber keiner von der großen Masse kauft die teuersten RTX Karten.

Ich sags auch immer wieder - wir Foren-Jockel und Hardware Nerds sind mit solchen Karten die Nische in der Nische. Das ist kein Abbild des Marktes.

AMD hatte übrigens NIE den Anspruch in 2080Ti oder 3090 Sphären vorzudringen. Das wünschen sich einige, aber ob das was wird, ich denke nicht. Das ist nicht AMDs Baustelle. Mit Highend baut man sich keine breites Fundament auf. Das geht nur mit Entry und Midrange.

PS: Glaubst du echt, dass die Masse so clever ist die 10GB Karten zu ignorieren, wenn eben jene auch wie blöd die GTX970 Krüppel gekauft haben? :D NEVER!

Darum ging es mir auch nicht, mir ist schon klar, dass Entry-/Midrange die breite Masse kauft:
https://store.steampowered.com/hwsurvey/videocard/

Aber das Segment interessiert mich halt nicht, daher brauche ich einen Anbieter der richtig Power liefert und da gibt es seit Jahren leider nur noch nvidia. Wenn AMD etwas ändern kann wäre es für alle gut, aber das bezweifel ich halt.

Wobei sie mit RDNA2/Big Navi ja von einem Halo-Produkt geredet haben, was High-End bedeutet.
 
Shoryuken94 schrieb:
Ob ich darauf viel geben würde. Wenn die Konsole tatsächlich so wenig verbraucht, dann hätte sich Microsoft wohl nicht zu dem 315 Watt Netzteil hinreißen lassen, was dann völlig überdimensioniert ist.

Zum Einten wird das Netzteil wohl auch nur einen Wirkungsgrad von ca. 90% aufweisen.
Dann wären wir bei: 315x0.9= 284W dann sind normalerweise mindestens 10% Sicherheitsmarge mitein- zukalkulieren: 256W
Jetzt sollte man die Zen2 8 Core CPU die zwar deutlich niedriger Taktet und auch im L3 beschnitten ist
im Vergleich zur 65W Desktop Variante die je nach dem auch noch etwas mehr schlucken kann noch miteinbeziehen.
Daher würde ich mal von 35-40W ausgehen die alleine der CPU zuzuschreiben sind.
Dann kommen noch andere Verbraucher hinzu: SSD, Blu-ray etc. 6GB langsamer angebundenen 334GB/s GDDR6 zusätzlich zu den 10GB schnell angebundenen 560GB/s.
Daher 130-140W für die GPU und max. 60-70W (eher weniger) für die 10GB GDDR6 + Board und Lüfter sind sicherlich als realistisch zu betrachten.
Die Konsole an sich wird wohl schätzugsweise zwischen 240-260W verbrauchen.
Ergänzung ()

Shoryuken94 schrieb:
Ist so auch in etwa zu erwarten und realistisch, wenn RDNA2 gut mit den Shadern skaliert. Die 2080Ti wird kräftig im Wert fallen mit den neuen Karten. Die spannende Frage ist, mit welcher Amperekarte wird sich die Lösung am markt befinden.

Das die 2080Ti geschlagen wird, ist wohl wenig verwunderlich und überraschend. Ich denke eine 3070 könnte auch in etwas auf dem Niveau landen und auch um die 50-60 SMs haben. Mal sehen. Ich denke gerade in der Mittelklasse und der Oberklasse werden sich AMD und Nvidia nicht viel schenken.

Es gab da am 9.Juni einen Hinweis das die 3070 / 3070ti analog der 2080 / 2080 super 2944 (46SM) / 3072 (48SM) Shader haben könnte. 256Bit 8GB bzw. laut diesem Beitrag für die 3070: 512GB/s, GDDR6X mit 16Gbps, 220W.

Bei diesen beiden Karten bezweifle ich allerdings ob sie es mit der 6800(XT) aufnehmen können.
Siehe 56CU's / Speicherbandbreite.
Bei der 3070ti könnte ich mir vorstellen das diese mit 18Gbps bzw. 576GB/s kommen könnte.

Die Karten sollen ja auf einem separaten Die (GA104-300/400) basieren und entsprechend wohl auch nur
extrapoliert Pi x Daumen so 360mm2 groß werden und entsprechend günstig in der Herstellung:
628 / 84 x 48 = 359mm2
Wenn der Preis stimmt könnten es trotzdem sehr interessante Karten werden.


3070 307ti.png
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Was ein Schwachsinn. Ohne die Leistung zu kennen kannst du den Stromverbrauch doch überhaupt nicht einschätzen. Erst recht nicht anhand der TDP.
Lies nochmal, was ich in dem Beitrag zitiert hatte und dann sag, was hier Schwachsinn ist.
 
#stype schrieb:
Die TDP ist so hoch, ich neige fast dazu, dass sowas reguliert werden müsste, wie der Schadstoffausstoß von Autos.
Genau, weil es keine wichtigeren Probleme gibt als eine GPU die 350W verbraucht.
Darkscream schrieb:
Ich würde mich eher fragen warum sie so hoch ist, irgendwas müssen die Karten verdammt viel schneller können als ihre Vorgänger, sonst wäre das ja nicht so von 12nm auf 7nm.
Am Ende kann man wohl erst nach der Vorstellung Bzw zum Release genaueres sagen, erstens ist die Angabe nicht gleich dem echten Verbrauch dann wissen wir nicht wie viele Tensor-/RT-Cores verbaut sind. Eventuell gibt es ja auch eine bessere Verteilung des Stroms auf die einzelnen Bereiche des Chips um eben bei Raytracing weniger stark einzubrechen (das Szenario könnte ich mir vorstellen).
Krautmaster schrieb:
:) wie ich vermutete geizt Nvidia also bei der 3080 mit Speicher. So treibt man viele Käufer eben zur margenträchtigeren 3090, meint man zumindest. Es kann auch aufgehen... Dann ordnet sich die AMD Karte mit 16GB dazwischen ein und ich halte es für denkbar dass je nach AMD Konter 2021 eine 20GB quasi 3080 kommen kann. Vllt eine 3080 TI.
Dann wäre man eigentlich wieder beim Verlauf vor Turing: 80er Karte (3080) und Titan (3090) zu Beginn und später eine „ti“ (oder diesmal auch „Super“) nachgeschoben. Dieses „doppelte Abkassieren“ macht Nvidia schon lange und ist nichts Überraschendes.
aldaric schrieb:
Alle wünschten sich effizientere Karten.
Aber die bekommen sie wahrscheinlich doch? Niemand muss die 350W Karte kaufen, sondern kann auch eine 150W Karte nehmen und wird dafür relativ sicher mehr Leistung bekommen als bei der vorherigen Generation.
ArrakisSand schrieb:
Allein daher kann man schon erahnen das Big Navi nicht nur 16GB ins Feld führen wird sondern auch ein gutes
Stück schneller als die 3080 FE werden könnte.
Sollte dieses Szenario eintreffen, dann wäre Nvidia allerdings relativ gut aufgestellt: Ist man leistungsmäßig in der Nähe der 3090 tritt man gegen 24GB an und würde sich wahrscheinlich preislich nicht zu weit weg bewegen; ist man nur in der Nähe der 3080 könnte Nvidia eine 20GB Version rausbringen. Optimal wäre also eine Karte genau zwischen 3080 und 3090, dann müsste Nvidia entweder eine neue Karte bringen oder Preise senken. Aber das ist Spekulation einfach mal abwarten was kommt.
so_oder_so schrieb:
In Sachen VRam liegen sie eh über nVidia
Aktuell produzierte Karte mit dem meisten VRAM (Gaming sprich GeForce und Radeon):
Nvidia: 11GB
AMD: 8GB
Sonst noch: 2070S vs 5700XT sind 8 vs 8GB oder 2060 vs 5600XT sind 6 vs 6GB.

Auf welcher Basis triffst du also deine Einschätzung?
Laphonso schrieb:
btw sagten viele bei der 2080Ti hier auch "ist die neue Titan". Lagen alle falsch ^^
Naja platziert wurde sie schon dort wo die Titan vorher war, aber Nvidia hat die Titan inzwischen umfunktioniert als Stufe zwischen GeForce und Quadro. Nebeneffekt war eben das man die Preise der XX80ti erhöht hat. Mit der 3090 möchte man anscheinend jetzt die Titan zurück in den Gaming Bereich bringen entweder weil man es kann oder weil man es muss.
 
xexex schrieb:
Es war mal lustig, als man damit eine besonders teure GPU verkaufen wollte und sie namentlich von den Consumer Karten differenzieren wollte.
Und unter dem RTX 3090 Label kann sie (die eigentliche Titan), wieder den Preisbrecher spielen, für eine 3080 im Preisbereich von nur 1200€. Kostet ja nur die Hälfte und ist beim Zocken „knapp“ dran an der 3090. Da kann man doch nichts falsch machen... Und die 3070 erst für nur 700€... ein Träumchen. Und was erst mit der 3060 gehen wird... für noch nicht mal 400€

Je nachdem wo sich RDNA2 platzieren wird, wird es Vielleicht natürlich noch kleine Abweichungen und Anpassungen geben, neuesten Zusatzkürzeln sei dank.
So oder sehr ähnlich wird es doch kommen, alles andere würde mich brutalst überraschen
 
  • Gefällt mir
Reaktionen: poly123, Cpt.Willard und xexex
MrNejo schrieb:
erstens ist die Angabe nicht gleich dem echten Verbrauch dann wissen wir nicht wie viele Tensor-/RT-Cores verbaut sind. Eventuell gibt es ja auch eine bessere Verteilung des Stroms auf die einzelnen Bereiche des Chips um eben bei Raytracing weniger stark einzubrechen (das Szenario könnte ich mir vorstellen).
Doch, die 350W sind der tatsächlich Verbrauch. Wir reden hier schließlich von der TGP, die alles inkl. GPU, Speicher, Wandlerverluste etc. umfasst. Wenn du Spiele unter richtiger GPU-Last (also z.B. in UHD) anschmeißt, dann wirst du auch die 350W zu Gesicht bekommen.
 
Ich habe mir extra ein Sparkonto für die 3xxx Generation angelegt, stattdessen hol ich mir lieber die Valve Index mit Alyx, und behalte die 2070 Super👍🏻
 
  • Gefällt mir
Reaktionen: p4z1f1st und chilchiubito
RayAlpha schrieb:
will die Spezifikationen der RTX-3000-Generation in Erfahrung gebracht haben (...) kann nicht garantiert werden, dass es sich um Tatsachen handelt (...) Angeblich (...)
Du weißt schon, das CB einer NDA unterliegt?
Nimm doch den fanservice an und störe die nicht am fehlenden "angeblich" in der headline.

Ich denke Mal, die Karten werden ziemlich so kommen wie es im Text steht.

Es wurden doch bisher immer nur Gerüchte veröffentlicht, die Nahe dran waren. Oder weiß da wer was anderes, lasse mich auch gerne korrigieren.

rumpel01 schrieb:
Nein. Wie jede Redaktion unterliegt auch CB einem NDA gegenüber nvidia, d.h. sie dürfen (natürlich) schreiben und das zitieren, was andere verzapfen,

Beim weiterlesen gesehen, rumpel01 hat es schöner beschrieben.

Hatte mich auch gewundert, warum so viele User mit "hohem Rank" das geliked haben.

Deshalb nochmal: hat da wer Gegenbeispiele?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23
MrNejo schrieb:
Mit der 3090 möchte man anscheinend jetzt die Titan zurück in den Gaming Bereich bringen entweder weil man es kann oder weil man es muss.
Nein. Entbehrt jeder Grundlage.
Auf der Turing Titan Seite findet man nicht einmal das Wort Gaming.

Das hat alles nix mit einer Titan zu tun.
Das ist eher der Ausbau der Top End GPU und Flaggenzeigen, weil AMD ggf, dieses mal doch einer Nvidia xx80 Paroli bietet, so dass die 3090 die GPU Gamer in Sachen Performance anbietet und eine 3080Ti oder 3080 Super kann ideal noch die Lücke füllen
 
Fuchiii schrieb:
Eine 3090 oder vorher ein 2080Ti verkauft sich mit sicherheit nicht wie "geschnitten Brot"

Und Luxus ist Ansichtssache. Wir sind nach wie vor ein sehr reiches Land, indem sich viele sehr teure Dinge leisten können. Das gilt aber so nicht überall. Und so können sich hier auch Dinge "wie geschnitten Brot" verkaufen, und sind für 85% der Weltbevölkerung trotzdem unerreichbarer Luxus.

Bei der Ti sieht das nicht besser aus.

du zitierst mich, aber dir ist schon klar das ich eben der meinung war das sie sich eben NICHT wie geschnitten brot verkauft ;-)
 
Da die Karten ( auch wenn man nichts ganz genaues weiß ), wohl sehr viel Strom verbraten werden, und nach dicken Netzteilen schreien....sagt das doch lange nicht über die Effizienz aus !

Von Thermi 2.0 zu sprechen ist absurd, denn WENN die Dinger massive Leistung raushauen, relativiert sich das doch sehr schnell.

Diese ´"Stromverbauchsdebatte" ist doch auch albern. Würde SLI oder Crossfire in jedem Spiel linear skalieren, das heißt also : Zwei Karten / Doppelte Leistung, sowas hätte doch jeder.

Wenn dann parallel der Stromverbrauch verdoppelt wäre, würden diese Leute dagegen nix einzuwenden haben.
Ergänzung ()

Bunny_Joe schrieb:
Sollte wohl eine 3070 bei mir werden.


Zeit wirds...
Anhang anzeigen 959811
Geil :-D
 
aldaric schrieb:
Letztens hatten wir im Discord über die neuen GPUs gesprochen beim daddeln. Alle wünschten sich effizientere Karten.

Gut dass Du diese überraschende Entwicklung mal erwähnst. Weiß man, was aus den ganzen Leuten geworden ist die sich im Discord bei den aktuellen GPUs ineffizientere Karten gewünscht hatten?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, Sophisto und jemandanders
Die Hersteller von Netzteilen machen gerade Luftsprünge und die Stromanbieter öffnen gerade die Champagnerkorken vor Freude.
 
  • Gefällt mir
Reaktionen: crogge
Zurück
Oben