News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

fox40phil schrieb:
Es muss definitiv mehr sein. Wenn man 4-5 Jahre später ein Upgrade vollzieht.

Genau, die kleinste 16GB RDNA2 Grafikkarte (RX 6900?) im Idealfall (ob diese noch halbwegs erschwinglich sein wird?) oder zumindest eine 12 GB Grafikkarte ;), darunter wuerde ich auch ungerne noch in Sachen Speicherausbau eine GPU kaufen, denn 6GB sind im Mobilbereich bereits Standard/angeratenes Minimum und 8 GB zunehmend im Desktopbereich.

Die Ankuendigung von AMD(/RTG) vor kurzem nicht mehr 4GB Grafikkarten empfehlen zu wollen ist wohl auch ein Hinweis darauf, dass mit RDNA2 wohl der Speicher durch die Leistungsklassen anwachsen duerfte, aber warten wir's ab :).

Wenn eine RTX 3070 von nVidia nicht mindestens 10GB bekommen wird, duerfte sie bei mir nicht landen koennen, 12 GB sind das, was ich erwarten wuerde (und was in der Leistungsklasse laengst ueberfaellig ist, schliesslich hat eine vermutlich vergleichbar schnelle RTX 2080Ti auch 11GB erhalten).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Ich hoffe AMD bringt die 16GB Speicher, oder mehr, bei der 6900XTX wenn es die geben wird..
 
  • Gefällt mir
Reaktionen: Crimvel und CMDCake
Floppy5885 schrieb:
Es würde mich eins nicht wundern.
3060 8GB
3070 8GB
3080 10GB
3090 11/12GB

Dann mal sehen was AMD so raushaut, wenn es dann gut ist, zack

3070 Super 10GB
3080 Super 12 GB
3090 TI 16GB.

Optimale Gewinnmaximierung auf rücken der armen Early User.

NVIDIA nutzt seit Pascal bei klassischem GDDR-Speicher im Prinzip den gleichen Aufbau.
Vollausbau -> 384bit
NVIDIA deaktiviert entsprechend Blöcke und begrenzt somit das Interface

384 bit - 32 bit (Blockeinheit) = 352 bit.

384 bit / 32 bit = 12
352 / 32 = 11
320 / 32 = 10
256 / 32 = 8

Jetzt erkläre mal, wie NVIDIA ihre Karten einfach mal so mit RAM aufwerten sollte. Sie müssten dafür auch das Speicherinterface ändern. Was möglich ist, zumindest hatte/hat Samsung GDDR6-Speichermodule im Portfolio mit verdoppelter Kapazität. So käme man auf 2 GB pro Speichermodule und könnte damit auch 16GB-Karten mit 256-bit Speicherinterface umsetzen. Macht das Sinn? Natürlich nicht, weil das für Karten, die primär für Gaming genutzt werden, nur die Kosten in die Höhe treiben würde. Außerdem müsste NVIDIA dann durch die Bank weg den Speicher auf den Karten erhöhen. Dann hätte aber so eine 3090 auf einmal 22GB VRAM und eine TITAN hat dann nur noch 2GB mehr. Dass eine 3060 mit 8GB kommt, wäre nahelegend, da NVIDIA bereits bei der 2060 Super das Interface auf 256-bit aufgebohrt hat.

320 bit bei 3070? Eher nicht.
384 bit bei 3080? Nein
Und die 3090 wird dann abgestuft auf 256-bit oder wie?
 
  • Gefällt mir
Reaktionen: Serinox, adAstra, guillome und 6 andere
PS828 schrieb:
Vielleicht denkt sich Nvidia das ganze durch PCIe 4.0 kompensieren zu wollen und dann steigt eben der RAM Verbrauch weiter.
Nvidia wird sich wohl kaum auf PCIe 4.0 verlassen und eine signifikant schlechtere Performance mit PCIe 3.0 in Kauf nehmen, wenn die wenigsten Kunden einen PC mit PCIe 4.0 haben werden.
tbh sehe ich hier auch gar kein Problem bei der Speichergröße. Für ein sicherlich sauteures Flaggschiff könnte man natürlich mehr erwarten, 12 oder 11 GB sind aber wohl für das allermeiste sowohl heute als auch in den nächsten paar Jahren noch ausreichend.

Ich hoffe viel mehr, dass Nvidia sich mit Ampere endgültig von diesen 6 GB für die 60er und 4 GB für die 50er verabschiedet und das auf 8 Gb und 6 GB aufstockt.
 
  • Gefällt mir
Reaktionen: tidus1979 und PPPP
Zwirbelkatz schrieb:
Zuletzt hatte ich eine GTX1080 gekauft. Mit viel Glück zum günstigsten Zeitpunkt für "nur" etwa 500€. Startpreis war ja 750€ oder sowas Absurdes. Zusätzlich konnte ich eine RX480 mit Mining-Aufpreis verkaufen. Somit rund 40-50% mehr Leistung für um die 250€.

Genau die gleiche Situation wie ich. Wenn die 3080 aber ordentlich Dampf hat, dann ist mir der Speicher ziemlich egal. Hatte damit auch bei der 1080 keine Probleme. Und mir juckt es, Raytracing und DLSS auszuprobieren.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und pietcux
Wenn die neuesten Leaks stimmen stehen die Chancen gut, dass die RX 6900XT an die RTX 3090 herankommt oder diese sogar nass macht.
Und das für 1000€ weniger.

Hach das wird ein Fest :jumpin::schluck:
 
  • Gefällt mir
Reaktionen: Recharging
@Wolfgang Ernste Frage, warum kein Hinweis fuer die ungewoehnliche GDDR6 Geschwindigkeit? Weder 21 GBPS, noch 19 GBPS, oder 17 GBPS sind irgendwie vorhanden. Das hoechste was ich gefunden habe sind moeglicherweise 18 GBPS und einen Hinweis von Micron vor zwei Jahren, dass es irgendwann mal 20 GBPS gibt. Habt ihr da irgendwie mehr Informationen, dass solche Produkte existieren? Ansonsten sind die Zahlen naemlich ziemlich unrealistisch.

Mal abgesehen von der GDDR6 Geschwindigkeit, die ziemlich schraeg ist, scheinen die restlichen Zahlen einigermassen realistisch. Ich tippe auch auf weniger Tensor Cores dafuer staerkere aehnlich der Tesla, gleiches fuer RT Cores. Gerade die 5k Shader machen auch weitaus mehr Sinn als die 8k Shader die sich manche ertraeumt haben. Jetzt ist nur die Frage wie hoch sie das ganze getaktet bekommen und was fuer eine Stromaufnahme es hat.

Interessanterweise wird fuer Big Navi eine aehnliche Anzahl an Shadern vermutet. Das koennte ziemlich interessant werden. Und mit etwas Glueck gibt es sogar Wettbewerb durch den kompletten Stack durch. Es bleibt spannend.
 
  • Gefällt mir
Reaktionen: fox40phil und Colindo
muzafferamg58 schrieb:
Vielen Dank, dass du solche Preise unterstützt

Früher, als ich noch Schüler und Student war, habe ich mich auch über "solche" Preise geärgert. Heute ist es mir einfach egal - immerhin habe ich mich lange sehr gut ausgebildet, um mir sowas einfach beliebig leisten zu können. Meine Prioritäten sind auch anders: Die begrenzte Ressource ist Zeit, nicht mehr Geld.

Den Aufpreis zur Titan sehe ich aber nicht, mehr als 10GB wird man die nächsten ~3 Jahre nicht brauchen. War damals bei meiner aktuellen GTX 1080 auch so: Da wurde gejammert, dass die Karte ja quasi mit Erscheinen veraltet ist. Und? Nichts. Die neuen Konsolen haben auch nicht unendlich viel VRAM, das passt also schon alles.
 
  • Gefällt mir
Reaktionen: adAstra, BlaueElbe, Vesuviano und 10 andere
@Beitrag warum sollten sie die mehr Performance liegen lassen nur weil alle ständig gesagt bekommen haben dass 3.0 reicht? Wer weiß was passiert und mit den neuen Techniken in Spielen könnte Bandbreite ein kritischer Faktor sein. Wissen tut man es selbstverständlich noch nicht aber es wäre nicht das erste Mal dass Leute sich ein wenig zu sehr auf alten Standards und Faustregeln ausgeruht haben und dann gibt's halt die Quittung bei der nächsten Generation.

Ich glaube auch nicht dass man mit 3.0 jetzt 30 % Leistung nicht abrufen kann.. Aber früher oder später wirds soweit sein. Dass 3.0 solange da war heißt nicht dass der Wechsel auf 4.0 ebensolange dauert.
 
Zuletzt bearbeitet:
Ich würde mich sehr freuen, wenn nach dem Release der 3000er Serie, die Preise für die RTX 2080 Super etwas dropen. Ich spiele in 1080p - die wird mir dann taugen.

Die RTX 3080 und 3090 sind eher uninteressant. Für die Kunden werden 12 GB und 10 GB aber zu wenig sein.
 
SKu schrieb:
Wenn also Konsolen, die für 4K-Inhalte gedacht sind, mit 10GB auskommen müssen, sollen GPUs im PC mehr aufweisen, obwohl die Masse an Nutzern nur 1080p Bildschirme einsetzt?
Ja, absolute High-End-GPUs sollen definitiv mehr aufweisen. Wollen wir bei den hochpreisigen GPUs ernsthaft darüber diskutieren? Also bitte. Eine 3080 auf GA102 basierend mit nur 10GiB wäre komplett lächerlich, dasselbe die 12GiB einer 3090. Gerade im Hinblick darauf, dass es bereits seit 2017 und der 1080Ti dort 11GiB Speicher gibt und wir bei Release schon (fast) Ende 2020 haben werden. Ganz davon abgesehen, dass (auch) für Raytracing der Speicherbedarf steigt. Für AMD gilt analog natürlich dasselbe, sollten sie beim Flaggschiff ebenfalls mit ähnlichen Mengen aufwarten. Allerdings denke ich, dass AMD hier der Vega FE und Radeon VII folgt und 16GiB verbauen wird.
 
die 3090 ruft mich....
<cant resist meme>
ultravoire schrieb:
Warzone ist jetzt ein schönes Beispiel. Es läuft bei mir unter 3440*1440 auf angepassten Einstellungen und verschlingt so schon locker 8 gb Vram.
ja, weil die games auch alles da reinpumpen - egal obs gebraucht wird.
ist bei vielen titeln so (cod z.b. auch noch)
Hatsune_Miku schrieb:
aktuell sind ~3GB weg wo nur der FF offen ist mit 14 aktiven Tabs.
aha, hab ich noch gar nicht beobachtet, das die vram schlucken(normalen ram ja...). aber auch noch nicht drauf geachtet.
edit: liegt an der Hardware Beschleunigung, die ist bei mir sowieso aus
Idon schrieb:
Die begrenzte Ressource ist Zeit, nicht mehr Geld.
true story
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Linmoum schrieb:
Ganz davon abgesehen, dass (auch) für Raytracing der Speicherbedarf steigt.

Ich hoffe ja, dass sich zukünftig was an der Renderdistanz verbessert, dann braucht man auch mehr Texturen gleichzeitig im VRAM, wenn man mehr Abwechslung bieten will.
Zumal ich auch nicht glaube, das Käufer der High-End Modelle überwiegend an 1080p Schirmen spielen, die E-Sportler mal ausgenommen. Mein PC hängt natürlich auch am 4k TV im Wohnzimmer
 
  • Gefällt mir
Reaktionen: VYPA
Also ich sehe dass es auch für die nächste 3 Jahre eher an der Rohleistung mangelt.
Ob es 1440p bei 200Hz sind oder 4K60 mit maximalen Details.
Und da sehe ich den Speicherverbrauch wirklich nicht unbedingt als Flaschenhals. Denn auch ein Bild kann immer nur eine begrenzte Zahl Pixel enthalten und eine Grafikkarte auch nur eine begrenzte Zahl Bilder vorberechnen. Viel mehr werden wohl für zukünftige Spiele die anderen Speicherarten im System wichtiger, denn beide Konsolen werden den Mangel an RAM/VRAM durch den nicht vorhandenen Flaschenhals zwischen diesen zwei Speicherarten, SSDs nach PCIe 4.0 Standard und überlegenes Streaming ausgleichen.

Man wird also wohl darauf spekulieren, dass auch der Gamer, der sich eine 3080 oder höher kauft, einen ordentlichen NVMe-Riegel sein Eigen nennt, der dann als weiteres Level Cache fungiert.

Gutes Beispiel: Die enorm schnell berechneten und gefühlt jederzeit detailreichen Umgebungen in der Unreal Engine 5 auf der Playstation 5: https://www.computerbase.de/news/gaming/unreal-engine-5-epic-games-techdemo-playstation-5.72106/
 
  • Gefällt mir
Reaktionen: KlaraElfer
Linmoum schrieb:
Ja, absolute High-End-GPUs sollen definitiv mehr aufweisen. Wollen wir bei den hochpreisigen GPUs ernsthaft darüber diskutieren? Also bitte. Eine 3080 auf GA102 basierend mit nur 10GiB wäre komplett lächerlich, dasselbe die 12GiB einer 3090. Gerade im Hinblick darauf, dass es bereits seit 2017 und der 1080Ti dort 11GiB Speicher gibt und wir bei Release schon (fast) Ende 2020 haben werden. Ganz davon abgesehen, dass (auch) für Raytracing der Speicherbedarf steigt. Für AMD gilt analog natürlich dasselbe, sollten sie beim Flaggschiff ebenfalls mit ähnlichen Mengen aufwarten. Allerdings denke ich, dass AMD hier der Vega FE und Radeon VII folgt und 16GiB verbauen wird.

Ich kann dieses VRAM-Argument absolut nicht nachvollziehen. In effizienten Engines belegen Titel selbst in 1440p nicht mal die Hälfte an VRAM von einer 2080ti. Natürlich gibt es Ausnahmen, aber das liegt dann nicht daran, dass ein Titel unbedingt diese Menge an VRAM benötigen würde, sondern vielmehr daran, dass die Entwickler dieser Titel den RAM einfach volllaufen lassen - egal ob nötig oder nicht. Am Ende ist nur entscheidend was für Leistung in den Anwendungen unter dem Strich übrig bleibt.

Wenn NVIDIA ihre Speicherkompression und die Signalwege verbessern kann, sodass am Ende trotz "wenig" VRAM die Leistung stimmt, dann passt das doch. Die TITAN wird schon mit den 24GB kommen und wer unbedingt meint er müsste 24GB benötigen, bitte, der kann sich dann eben eine TITAN für 3.000€ kaufen.
 
  • Gefällt mir
Reaktionen: Serinox, adAstra, guillome und 6 andere
@ToKnight ich sehe es eher andersrum
die neuen Konsolen haben endlich mal power und das flächendeckend - also muss man nicht mehr auf die normale ps4 optimieren, die schon bei erscheinen "müll" war, sondern kann direkt in die vollen gehen.

richtig sehen wird man's aber erst in einige jahren - ich hole mir vielleicht auch eine, aber nur wenn dann auch m+t nativ geht (oder ohne große umstände)
 
Idon schrieb:
Früher, als ich noch Schüler und Student war, habe ich mich auch über "solche" Preise geärgert. Heute ist es mir einfach egal - immerhin habe ich mich lange sehr gut ausgebildet, um mir sowas einfach beliebig leisten zu können. Meine Prioritäten sind auch anders: Die begrenzte Ressource ist Zeit, nicht mehr Geld.
Ich selbst hatte eine 2070 und hab eine 2080 Ti sehr günstig geschossen und was mich ärgert ist die Mehrleistung, die man für den Aufpreis bekommt. Die Ray Tracing Performance kann man genauso in die Tonne kloppen, welche mehr als schlecht ist. Mir ist es eher schade um das Geld, weil sich der Aufpreis nicht lohnt, da kann man mit seinen Freunden und Familie schönere Dinge machen..
 
@muzafferamg58

Ich verstehe deine Sichtweise und deine Argumente vollkommen und man sollte, insbesondere wenn man Familie hat, auch bei sowas eher zur Mittelklasse o. ä. greifen, anstatt einen oder gar mehrere Monate Erspartes einzusetzen.

Für mich persönlich ist der Geldeinsatz nicht so hoch, weshalb ich anders agiere. Mir vermutlich auch egal ob AMD oder nVidia, meine G-Sync-Monitore sind ebenfalls schon älter. Wenn ich aber nach ein paar Jahren mal wieder meine, ich hätte gerne ein Rechner-Upgrade, dann verbaue ich da nicht aus womöglich politischen Gründen weniger leistungsfähige Hardware, als ich für richtig halte.
 
  • Gefällt mir
Reaktionen: s0UL1, iceshield und muzafferamg58
Zurück
Oben