News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

aldaric schrieb:
Alle wünschten sich effizientere Karten. nVidia scheint genau den anderen Weg zu gehen. 350W ist einfach...ja du hast es gut getroffen, krank.

Du kennst die Effizienz doch nicht.... Warum verallgemeinern alle einen hohen Verbrauch (Den Realverbrauch kennen wir auch noch nicht) mit einer schlechten Effizienz?

Ohne Leistungsangabe kann man keinen Bezug zur Effizienz herstellen.

Vergleichen wir doch mal eine Vega 64 mit einer 2080Ti. Beide verbrauchen fast das gleiche. Die 2080Ti ist dabei aber ca. 80-90% schneller. Ist die 2080Ti also nun eine super ineffiziente Karte?

Auch eine 20 Watt GPU Kann extrem ineffizient sein, genauso kann eine 400 Watt GPU deutlich effizienter als alles andere am markt sein.

Und das alle sich effizientere Karten wünschen, möchte ich mal etwas in Frage stellen. Gibt nicht unbedingt wenige Leute, die sich deutlich mehr Leistung wünschen, denen aber die Leistungsaufnahme relativ egal ist.
 
  • Gefällt mir
Reaktionen: t3chn0, Toni_himbeere, Hubbe73 und 4 andere
Taxxor schrieb:
Naja die 3080 nutzt eben den gleichen GA102 Chip wie die 3090, der Abstand zur 3070 wird daher auch größer ausfallen als zur 3090
Aber alleine 14 Speichermodule weniger würden grob ja schon 35 W ausmachen oder sehe ich das falsch?

Shoryuken94 schrieb:
Die TDP sagt über die wahre leistungsaufnahme nichts aus, Die 2080Super ist auch mit 250 Watt angegeben, genauso wie die 2080 Ti, obwohl die beiden schon deutlich auseinander liegen
Finde schon, dass das was aussagt - die 2080 Ti ist deutlich effizienter als die 2080 S und genau danach sieht es bei 3080 / 3080 auch aus.
Aber ich gebe dir Recht, dass die einzige Erklärung für die hohe TDP der 3080 ist, dass diese auch deutlich höher takten muss, auch wenn sich der Boost-Takt hier kaum unterscheidet. Boost-Takt ist sowieso eine ganz schwammige Angabe, die nicht wirklich etwas aussagt.
 

Anhänge

  • ZOTAC-GAMING-GeForce-RTX-3090-Trinity-Holo.jpg
    ZOTAC-GAMING-GeForce-RTX-3090-Trinity-Holo.jpg
    30 KB · Aufrufe: 342
  • Gefällt mir
Reaktionen: Palatas
Shoryuken94 schrieb:
Was ein Schwachsinn. Ohne die Leistung zu kennen kannst du den Stromverbrauch doch überhaupt nicht einschätzen. Erst recht nicht anhand der TDP.

Oder soll AMD die Threadripper einstellen? Die sind ja mit 280 Watt spezifiziert. Und die 5700XT muss dir dann ja auch sauer aufstoßen. Die ist mit 225 Watt spezifiziert, eine 50% schnellere 2080Ti nur mit 250 Watt.

Und ganz ehrlich, wer glaubt das AMD einen 80 CU Chip mit anständigen Taktraten unter 300 Watt bringt, der lebt auch im Traumland. Selbst bei gleichbleibenden Taktraten und 50% mehr Effizienz wird das nichts, wenn man mal von Navi 10 ausgeht. Besonders nicht mit angeblichem 512 Bit Interface und 16GB GDDR6X
Und die 2080 super hat ebenfalls 250W.

Es war schon immer so das die Kombination vieler Einheiten mit gleichzeitig, niedrigerem Takt die bessere Energieeffizienz geliefert hat.

Also der Max. Boost der 3090 = 1.695GHz / 3080 = 1.710GHz sollten für Big Navi keine nennenswerte Hürde darstellen, wenn bereits der auf RDNA2 basierte Konsolen SoC der XBOX (52CU's) mit 1.825Ghz) taktet.

Weiter stellen die von AMD verlautbarten 50% wohl auch nur das untere Ende der Fahnenstange dar und beim
XBOX SoC: 52CU, 1.825GHz, 320Bit 10GB GDDR6, geht man von einer TDP von 130-140W aus.
Die TBP sollte entsprechend bei max. 200W liegen.

Wenn man den SoC inklusive SI nun auf 512Bit, 16GB, 80CU's hochskalieren würde, käme man bei 1.825GHz Takt auf ca. 210W TDP / 300W TBP.

Ganz interessant wird es auch bezüglich der Speicherbandbreite werden:

Die 3080 FE hat ja anscheinend 760GB/s
und die 3090 936GB/s

Big Navi mit seinem wohl 512 Bit SI wird voraussichtlich mit langsameren energieeffizienten GDDR6
mit 14Gbps - 16Gbps gepaart was 896GB/s - 1024GB/s entsprechen würde.

Allein daher kann man schon erahnen das Big Navi nicht nur 16GB ins Feld führen wird sondern auch ein gutes
Stück schneller als die 3080 FE werden könnte.
 
Shoryuken94 schrieb:
Da nur eine relativ moderat taktende Abwandlung von Renoir als CPU verbaut ist, dürften auf die 52 CU starke GPU ca. 180-200 Watt entfallen. Wohlgemerkt bei 1,825Ghz Takt.
Nein, die GPU der XSX verbraucht so viel, wie die originale Xbox One. Siehe die Präsentation von MS auf der Hot Chips. Die lag in der Spitze bei 120W. Lass es zu einem kleinen Teil übliches Marketing sein und zieh ein paar Watt ab, dann bist du vielleicht bei 130-140W - wohlgemerkt bei 1825MHz und 52CU. ;)
 
Titel: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Dritter Satz: (Es) kann nicht garantiert werden, dass es sich um Tatsachen handelt.

Clickbait!
 
  • Gefällt mir
Reaktionen: Hardwarious, Fighter1993, Grundgütiger und 2 andere
johnieboy schrieb:
In China sind die Karten immer ein Stück teurer, aber wenn das stimmt dann reden wir hier von einer >2000€ Karte

Und Colorful gehört jetzt eher zu den günstigeren Anbietern... die Asus schießt den Vogel ja total ab dann.

@Shoryuken94

Ja da haste schon recht. Aber keiner will hier eine Brechstangen-Karte im Discord. Vielen würde 2080 Ti Leistung mit deutlich weniger Stromverbrauch reichen, wirds aber halt nicht geben. Ich würde mir auch keine 350 W Karte ins Gehäuse setzen, egal wie gut die Leistung davon sein könnte.
 
Also mir kommt der Unterschied in der Leistungsaufnahme von der 3080 zur 3090 mit 30 Watt zu gering vor. Allein die eingesparten 14 GByte Speicher dürften schon darüber liegen. Wenn ich mich recht entsinne wird mit etwa 2.5 Watt pro GByte gerechnet. Da wären wir dann schon bei 35 Watt. Und die GPU hat ja auch mal eben 17% weniger Shader. Und die 3070 liegt dann schon massiv darunter mit 220 Watt?
Kommt mir komisch vor
 
Shoryuken94 schrieb:
Genau das ist der richtige Weg! Wenn AMD jetzt schweigt, dann müssen sie sich nicht wundern, wenn Nvidia den markt leer fegt. Gerade im gehobenen und High End Bereich warten die Leute seit Ewigkeiten auf neue Karten. Der Erfolg von Big Navi hängt maßgeblich vom Marketing ab.

Hmm, weis ich nicht. Wenn die Preise wirklich so hoch angesetzt sind wie geleakt wurde, werden einige (incl. mir) auf AMD warten. Ich werde mir mit Sicherheit keine 1000€+ Graka in den Rechner zu hauen.
Ich hab schon bei Turing ausgesetzt, 75% mehr Kohle (2080Ti) für 30% Mehrleistung (zur 1080Ti) stehen in keinem gesunden Verhältnis und die Gimmicks RTX+DLSS brauche ich auch heute noch nicht.
Ich kann im Moment noch nicht sehen das die RTX 3xxx wieder ein angemesseneres P/L Verhältnis haben werden, eher im Gegenteil.

aldaric schrieb:
Vielen würde 2080 Ti Leistung mit deutlich weniger Stromverbrauch reichen, wirds aber halt nicht geben. Ich würde mir auch keine 350 W Karte ins Gehäuse setzen, egal wie gut die Leistung davon sein könnte.

Genau. Mir hätte seinerzeit schon eine abgespeckte GTX 2080 Ti gereicht - gab´s aber auch nicht.
 
  • Gefällt mir
Reaktionen: Revan1710
Garack schrieb:
na klar ist halt ne titan warum weniger als 2000`?
Ich erinnere mich an eine 32 GB VRAM leaked Ampere mit mehr Shader Units als die 3090.

Eine Titan nennt Nvidia auch Titan. Und nicht 3090. Oder 2080 Ti ;)
 
  • Gefällt mir
Reaktionen: jemandanders, PS828 und Shoryuken94
ArrakisSand schrieb:
Also der Max. Boost der 3090 = 1.695GHz / 3080 = 1.710GHz sollten für Big Navi keine nennenswerte Hürde darstellen, wenn bereits der auf RDNA2 basierte Konsolen SoC der XBOX (52CU's) mit 1.825Ghz) taktet.

Wie gesagt, auf die Taktangaben würde ich bisher nicht viel geben. Bislang takten allen Nvidia Chips deutlich höher, als die Angaben im Datenblatt. Denke nicht, dass Ampere unterhalb von Turig takten wird. Davon ab bleibt es abzuwarten, wie gut RDNA2 nach oben skaliert, hier lag bislang immer eine große Hürde. Ob man die mit RDNA2 gelöst bekommen hat, muss sich zeigen.

Linmoum schrieb:
Nein, die GPU der XSX verbraucht so viel, wie die originale Xbox One. Siehe die Präsentation von MS auf der Hot Chips. Die lag in der Spitze bei 120W. Lass es zu einem kleinen Teil übliches Marketing sein und zieh ein paar Watt ab, dann bist du vielleicht bei 130-140W


Ob ich darauf viel geben würde. Wenn die Konsole tatsächlich so wenig verbraucht, dann hätte sich Microsoft wohl nicht zu dem 315 Watt Netzteil hinreißen lassen, was dann völlig überdimensioniert ist.

Aber wenn man wieder auf den Hypetrain aufsteigen möchte bitte. Ende des Jahres werden wir es ja in Form der fertigen Karten sehen.
aldaric schrieb:
Und Colorful gehört jetzt eher zu den günstigeren Anbietern...
Ganz im Gegenteil. Deren aufwändige Cusommodelle wie die Vulcan gehören sogar mit zu den teuersten am markt. Von den Sonderserien ganz zu schweigen.

aldaric schrieb:
Vielen würde 2080 Ti Leistung mit deutlich weniger Stromverbrauch reichen, wirds aber halt nicht geben.

Auch das wissen wir doch noch nicht, wenn wir die Leistung der Karten nicht kennen... Gut möglich, dass die 3070 in etwa auf 2080Ti Niveau sein wird und die dürfte bei den spekulierten 220 Watt ein gutes Stück sparsamer als eine 2080Ti sein

aldaric schrieb:
Ich würde mir auch keine 350 W Karte ins Gehäuse setzen, egal wie gut die Leistung davon sein könnte.

Das ist etwas was jeder selbst entscheiden kann. Ich würde mir beispielsweise auch eine 500 Watt Karte verbauen, wenn die Leistung stimmt. Wenn man das nicht möchte, vollkommen okay. Hab ich Verständnis für. Aber deshalb über die schlechte Effizienz zu reden ist etwas daneben.

cookie_dent schrieb:
Hmm, weis ich nicht. Wenn die Preise wirklich so hoch angesetzt sind wie geleakt wurde, werden einige (incl. mir) auf AMD warten. Ich werde mir mit Sicherheit keine 1000€+ Graka in den Rechner zu hauen.

Um dann Verkäufe zu generieren, müsste AMD dann aber auch entsprechend günstig sein. Ob Ein 80CU Chip da deutlich güpnstiger ist, wage ich zu bezweifeln, zumal Nvidia da relativ einfach mit einem 3080Ti Modell oder Preisanpassungen reagieren kann.

Bei den Preisen mal schauen. Mittlerweile gibt es Leaks in alle Richtungen (gleiche preise wie Pascal bis weit über 2000$). Bei preisleaks bin ich aber vorsichtig, da kein Shop die finalen preise haben wird und GPU preise auch schon nach Ankündigung gesenkt wurden. Bestes beispiel ist Navi. In Gerüchten oft als 500-600$ Karte gehandelt, angekündigt für 449$ und vor Release schon auf 399$ gesenkt. Preise sind jederzeit anpassbar und daher "Leaks" eher wenig vertrauenswürdig.

Aber ja, natürlich muss preis und leistung am Ende passen. Aber in der breiten Masse wird es AMD schwer haben Aufmerksamkeit zu bekommen, wenn sie nichts zeigen. Denn wer auf nichts wartet, den können auch niedrigere Preise nicht zum Kauf verlocken. AMD sollte schon vorher zeigen, dass sie auch ein heißes Eisen im Feuer haben, wovon ich fest ausgehe.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ich erinnere mich an eine 32 GB VRAM leaked Ampere mit mehr Shader Units als die 3090.

Eine Titan nennt Nvidia auch Titan. Und nicht 3090. Oder 2080 Ti ;)

Ne die nennen eine Titan 3090 ne Titan wirds nicht geben. 24 Gb das ist die Titan. ne Ti wird kommen später denke ich.
 
Laphonso schrieb:
Genau deshalb sollte AMD direkt nach Nvidia ihre Specs teasern, sonst verlieren sie direkt wieder den fetten Geldsegen der 3080er und 3070er Käufer, denn wer keine Alternative kennt, wartet nicht.
Und dann wundern sich alle, warum man so viele 3000er (bzw. generell Nvidia) in den Signaturen findet.

AMD wird nichts dergleichen machen.

Die warten schööön in Ruhe die Vorstellung inkl. Specs und Preise seitens nVidia ab und können dann ihren Preis noch anpassen.

In Sachen VRam liegen sie eh über nVidia und dann zählt nur noch die Gesamtleistung vs Verbrauch vs Preis.

Wird keine 2 Wochen dauern und AMD teasert was an.

Und mal ehrlich, alle wissen, dass AMD was bringt, wieso sollten die total im Wahn nun alle RTX 3000 Karten kaufen? Um wieder so einen RTX Flop zu erleben? Wo sind denn die zig angekündigten RTX Games hin, die 2018 noch vollmundig angeteasert wurden? Ich seh da 4-5, das wars.

Dann heulen die grünen Fanboys ewig wegen AMDs Verbrauch rum und bekommen jetzt Thermi 2.0 vorgesetzt.

Na herzlichen Glückwunsch!

Wieso hat AMD nicht den Zugzwang wie manche ihn sehen?

Weil nVidia auf teuren Karten hockt, die kaum einer kaufen will - wohlwissend, dass beide Lager bald was bringen werden.

Auf nVidias verkümmerten VRam hat kaum einer Bock, auf die miesen Preise ebenso nicht, dazu nun der hohe Verbrauch der next-Gen.

AMD kann hier aktuell nur gewinnen - wenn nicht über die Gesamtleistung, dann immernoch mit Verbrauch und Preis. Den VRam Sieg haben sie ja sicher.

nVidia wollte sich ja laut Händlermails NACH Big Navi Vorstellung positionieren in Sachen Preis etc. pp. - was da wohl nun anders gelaufen ist ... ;)

Ich bin echt gespannt was da kommt.

Wenn das wieder so ein Solala-Sprung wie von 1080Ti zu 2080Ti wird, können die auch diese Gen behalten.
 
  • Gefällt mir
Reaktionen: Hardwarious und Fighter1993
RTX 3080 4352 CUDA, 10 GB, 760 GB/s, 320 W, 7 nm process
RTX 2080 Ti 4352 CUDA, 11 GB, 616 GB/s, 250 W, 12 nm process

Da nun in 7nm, irgendwie nicht so dolle.
 
  • Gefällt mir
Reaktionen: inge70 und dohderbert
so_oder_so schrieb:
Und mal ehrlich, alle wissen, dass AMD was bringt, wieso sollten die total im Wahn nun alle RTX 3000 Karten kaufen?

Weil die 2080er und Ti nach 30 Minuten ausverkauft waren als der Preorder lief?
Weil viele schon ihre Turing Karten verkauft haben, um sich Ampere zu holen?
Weil viele zu Cyberpunk eine neue GPU haben wollen?
Weil nur wir eine Minderheit hier sind, und der "normale" Gamer kauft, was er jetzt braucht und ungeduldig ist?

Ergänzung ()

Garack schrieb:
Also keine. Danke ;)

btw sagten viele bei der 2080Ti hier auch "ist die neue Titan". Lagen alle falsch ^^
 
@Garack Wie schon oben erwähnt mit 32GB und mehr Shadern. Warum auch nicht über 2000€? Das ist ne Profikarte, da spielt der Preis eher eine geringe Rolle, zum zocken kauft man sich eine Titan nicht.

Aber es heißt sowieso warten. Momentan ist das ja alles nur geraten.
 
Zurück
Oben