News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Tja, wird nicht langweilig mit all den "Leaks".
Da ich mit der 2070S und 8GB auf 3440x1440 nicht glücklich bin, wollte ich auf die 3080er aufsteigen, aber die 320W + 10GB sind doch arge Minuspunkte.
Also beim Preis der 3090er bleiben nur 2 Möglichkeiten:
1.) auf 3080 (Ti) mit 20GB warten bis....
2.) AMD bringt was gutes
 
  • Gefällt mir
Reaktionen: GERmaximus
Kacha schrieb:
Uff, wenn die Daten sich bestaetigen, dann wird das ziemlich enttaeuschend. Erst recht wenn das die Daten fuer die Founders Edition sind.

Fehlt die Steigerung der IPC, die in deiner Rechnung nicht vorkommt, also vermute ich mal, dass du gerne hättest, dass die Karten relativ schlecht abschneiden?
Kacha schrieb:
Das sind zusammen gerade mal 25.4% oder 32.6% mehr Rohleistung. Denn so wie es aussieht hat sich da nichts gross geaendert, ausser dass es mehr Einheiten wurden (A100).

Wenn da noch 20% mehr Leistung/Takt draufkommen, sind es gut 50%.

Kacha schrieb:
Worauf ich allerdings am 1. September bei der Vorstellung tippe ist Bullshitbingo mit folgenden Buzzwords: DLSS, RT, RT Cores, Tensor Cores, KI.

Tja, das ist nun einmal die Zukunft, da kann es ziemlich egal sein, ob es für Leute die im letzten Jahrzehnt feststecken, Bullshitbingo ist, die haben auch beim Turing Launch herumgemeckert, nur hat sich die Industrie und der Markt einfach nicht für interessiert.
 
Mir hat mein Vega-Ausflug auch gereicht, will keine Karte mehr mit so viel Watt Verlustwärme. Im Winter ja ganz nett, wenn nach einer Stunde zocken das Zimmer angenehm warm ist, aber im Sommer unterm Dach dann doch mehr als nervig.

Hoffe da auf weniger von AMD, dauert wohl noch einige Monate für einen glaubwürdigen Vergleich.
 
  • Gefällt mir
Reaktionen: Chismon
Linmoum schrieb:
Was für 7nm und bei 350W quasi ein Desaster wären.

Nicht wenn bereits eine 3070 2080Ti Leistung mit 220 Watt bringt.
Ob es ein Desaster oder nicht ist, hängt vor allem auch von der Effizienz mit RTRT ab, da bist du mMn schon ein wenig voreilig. ;)
 
  • Gefällt mir
Reaktionen: Salamitaktik, GERmaximus und MrNejo
KlaraElfer schrieb:
Nicht wenn bereits eine 3070 2080Ti Leistung mit 220 Watt bringt.
Das wären 30W (12%) weniger als die 2080Ti für die gleiche Leistung bei neuer Architektur und Shrink von 12/16nm auf 7nm, klingt immer noch nach Desaster.
 
  • Gefällt mir
Reaktionen: dohderbert, Hardwarious, Chismon und 2 andere
KlaraElfer schrieb:
Nicht wenn bereits eine 3070 2080Ti Leistung mit 220 Watt bringt.
Bei 7 mm erwarte ich das sie so viel verbraucht wie meine 1070.
 
  • Gefällt mir
Reaktionen: dohderbert
Taxxor schrieb:
Das wären 30W (12%) weniger als die 2080Ti für die gleiche Leistung bei neuer Architektur und Shrink von 12/16nm auf 7nm, klingt immer noch nach Desaster.

Die 2080 Ti hatte eine TDP von 275 Watt.
 
  • Gefällt mir
Reaktionen: dohderbert und KlaraElfer
Taxxor schrieb:
klingt immer noch nach Desaster.
Wenn aber die Gerüchte von über 34Mrd Transistoren für den GA102 stimmen, dann kommt da halt ein wenig mehr auf uns zu als ein einfacher Shrink. Nimmt man also die reinen Transistoren 34,5 zu 18,6 dann sind wir bei gerundet 485W (ausgehend von 260W FE). Also 350/485 = 0,72 also immerhin eine Reduktion um 28%. Was ich damit sagen will es ergibt einfach derzeit keinen Sinn über die Effizienz zu raten wenn wir nicht wissen was am Ende rauskommt. Nvidia wird sicher keine Transistoren einfach verschwenden.
 
  • Gefällt mir
Reaktionen: Darkscream und adius
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Das würde ich so nicht sagen. Stromverbrauch bedeutet indirekt auch Lautstärke. Wenn du nicht eine Custom WaKü hast, dann bedeuten 320 Watt schlicht und ergreifend Terror im Gehäuse.
 
  • Gefällt mir
Reaktionen: firejohn
KlaraElfer schrieb:
Nicht wenn bereits eine 3070 2080Ti Leistung mit 220 Watt bringt.
Ob es ein Desaster oder nicht ist, hängt vor allem auch von der Effizienz mit RTRT ab, da bist du mMn schon ein wenig voreilig. ;)

Du aber auch. Woher willst du wissen das eine 3070 die Leistung einer 2080 Ti bringt ?

Das wurde bei der 2070 genauso behauptet, und sie war von einer 1080 Ti weit entfernt.
 
  • Gefällt mir
Reaktionen: dohderbert und cookie_dent
KlaraElfer schrieb:
Fehlt die Steigerung der IPC, die in deiner Rechnung nicht vorkommt, also vermute ich mal, dass du gerne hättest, dass die Karten relativ schlecht abschneiden?

Ich rede von Rohleistung und da hat sich null geaendert wie man am A100 sehen kann. Das ist nicht was ich gerne haette, sondern schlichtweg die Informationen die bekannt sind.

KlaraElfer schrieb:
Wenn da noch 20% mehr Leistung/Takt draufkommen, sind es gut 50%.

Der Takt wurde schon miteinbezogen, denn der ist im Artikel genannt. Es wurde offizieller Boost mit geleaktem Boost verglichen. Wenn die stimmen kommt da nicht noch irgendwoher magisch mehr Takt. Wovon die Leistung kommen soll musst du auch erst begruenden. So wie es aussieht klatschen sie einfach nur mehr Einheiten auf den Chip. Das wurde in die 25-33% aber schon miteinbezogen.

KlaraElfer schrieb:
Tja, das ist nun einmal die Zukunft, da kann es ziemlich egal sein, ob es für Leute die im letzten Jahrzehnt feststecken, Bullshitbingo ist, die haben auch beim Turing Launch herumgemeckert, nur hat sich die Industrie und der Markt einfach nicht für interessiert.

Die Industrie und der Markt interessieren sich in der Tat recht wenig dafuer wenn man sieht wie mager es mit Spielen noch aussieht. Da hast du schon recht, auch wenn du das natuerlich auf was anderes bezogen hast. Ob es die Zukunft ist werden wir sehen. Derzeit ist es vor allem Nische.
 
Kacha schrieb:
Der Takt wurde schon miteinbezogen, denn der ist im Artikel genannt.
Es geht doch auch um Leistung/Takt, also IPC und nicht um Takt.

Die reine Rohleistung zu vergleichen macht bei unterschiedlichen Architekturen nicht viel Sinn, wenn man vorher nicht mal die IPC verglichen hat und die kennen wir eben für Ampere noch nicht.

Eine Vega64 hat auch ~13TFLOPs, die 5700XT nur 9,5 und ist die 5700XT langsamer?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
KlaraElfer schrieb:
Nicht wenn bereits eine 3070 2080Ti Leistung mit 220 Watt bringt.

Ich gehe eher davon aus das die 3080 auf 2080ti Niveau liegt und die 3070 auf 2080er Level.
Möglicherweise hat man ja den Schwerpunkt auf möglicht verlustfreies RT gesetzt.
Aber ich kann ja auch total daneben liegen, also abwarten was die ersten Tests zeigen.
 
KlaraElfer schrieb:
Tja, das ist nun einmal die Zukunft, da kann es ziemlich egal sein, ob es für Leute die im letzten Jahrzehnt feststecken, Bullshitbingo ist, die haben auch beim Turing Launch herumgemeckert, nur hat sich die Industrie und der Markt einfach nicht für interessiert.

Ich mein DLSS ist cool, Ansel ist cool, Raytracing ist mit dem aktuellen Performanceimpact bestenfalls nett.
Aber was alle diese Features gemeinsam haben ist die wirklich winzige Unterstützung, da nur ca. 10% der Hardware die Features überhaupt (theoretisch) unterstützen und gut die Hälfte davon nicht wirklich spielbare Ergebnisse liefert, ist es zwar logisch.
Nur wie wollen sie mehr RT-Cores und sonstige RTX-Features richtig bewerben, wenn momentan:
nur ca. ZEHN Triple-A/Double-A Games Raytracing-Support haben und ZEHN weitere announced sind
und ca. ZWÖLF Triple-A/Double-A Games DLSS-Support haben?

Es mag die Zukunft sein, aber wird die Zukunft in dieser GPU-Gen auch wirklich relevant? In den RTX-Karten hat man das Feature bezahlt, aber fast niemand hat es benutz(t)en können.
 
  • Gefällt mir
Reaktionen: Chismon
CrustiCroc schrieb:
sagt das doch lange nicht über die Effizienz aus !

Eigentlich schon. Normalerweise war es so, dass die Nachfolgegeneration den Stromverbrauch gegenüber der Vorgängerversion halbwegs human gehalten hat, dabei aber oft um einiges mehr an Leistung gebracht hat.

Wobei Effizienz vielleicht das falsche Wort ist wenn die 3090 60% oder so über der 2080Ti ist. Ich würde "kein Fortschritt/Rückschritt" dazu sagen wenn die Leistungsaufnahme exorbitant ansteigt..
Ergänzung ()

catch 22 schrieb:
Unter 550 Watt lief praktisch nie was
Echt? Wie konnte ich dann meinen alten 3770k @4,5 Ghz und eine GTX 980 Ti an einem 480 Watt Netzteil betreiben?
 
Bei den TDP Angaben muss ich mich wundern, die Entwicklung finde ich nicht gut. Das damalige Topmodell im Jahr 2016 namens GTX 1080 hatte eine TDP von 180W und wurde im 16nm Verfahren gefertigt. Dagegen sehen die 320W der RTX 3080 nicht gut aus.
 
  • Gefällt mir
Reaktionen: dohderbert
mkl1 schrieb:
Bei den TDP Angaben muss ich mich wundern, die Entwicklung finde ich nicht gut. Das damalige Topmodell im Jahr 2016 namens GTX 1080 hatte eine TDP von 180W und wurde im 16nm Verfahren gefertigt. Dagegen sehen die 320W der RTX 3080 nicht gut aus.
Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.
 
Der Merowinger schrieb:
Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.
Damit wäre doch der Betrieb unter Vollast gemeint, oder? 300 Watt, also ein kleiner Ofen, als Dauerleistung wäre für mich nichts.
 
  • Gefällt mir
Reaktionen: Zubz3ro
Zurück
Oben