News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

Wenn die 3090 schon annähernd der Vollausbau des Chips ist und die Titan über den Vollausbau verfügt (mit nur wenigen Einheiten mehr) wird es keine 3090Ti geben können!

Und es gibt auch Gerüchte das es die Karten mit 12 oder optional 24GB (3090) geben könnte.

Es gibt viele Gerüchte, irgendwer wird schon annähernd richtig raten und hinterher behaupten können, er hätte es ja gewusst.
 
  • Gefällt mir
Reaktionen: VYPA und Che-Tah
Ich kann mich noch an den CB-Beitrag erinnern, der aussagte, dass nur Gerüchte gepostet werden, die hand und Fuß haben und man nicht jedem Gerücht hinterher ist. Hoffe CB bleibt dabei.
Die 3090 ist durch ihre schiere Shaderanzahl irgendwie interessanter als die 3080. Das steht und fällt aber mit dem Preis. Bisher bin ich gut damit gefahren alle 2 oder 3 Generationen die x80 zu kaufen, aber irgendwie reizt mich die 3090. Zu der Frage, wer kauft sowas.....Ich. Trotzdem wäre ich natürlich erfreut, wenn es im Highendbereich mehr Kampf gäbe, wer spart nicht gerne paar €, aber sehe es auch nicht so eng, da jetzt 1200€ auszugeben. Hoffe auf irgendwelche tollen Angebote, die die Karte von 1400 oder 1500 auf 1200 drücken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tobi86, VYPA, Mil_vanderMaas und eine weitere Person
Zuletzt hatte ich eine GTX1080 gekauft. Mit viel Glück zum günstigsten Zeitpunkt für "nur" etwa 500€. Startpreis war ja 750€ oder sowas Absurdes. Zusätzlich konnte ich eine RX480 mit Mining-Aufpreis verkaufen. Somit rund 40-50% mehr Leistung für um die 250€.

Stimmen die Gerüchte, gibt es gefühlt 3 Jahre später 2GB Grafikspeicher mehr zu vermutlich abermals 700€ Kaufpreis der RTX3080. Mit sehr großer Wahrscheinlichkeit wird das meine Preisbereitschaft nicht treffen.

Sollte dank RDNA ernsthaft Konkurrenz eintreten oder AMD ggf. das rundere Produkt anbieten, wäre das eine große Überraschung. Ganz vorstellen kann ich mir nicht, dass man bei AMD von Mobile über Dekstop bis HEDT erfolgreich ist und zusätzlich noch bei GPU.

"Wer braucht so viel Leistung" hat sich ja erledigt - seit es Monitore mit 4k oder 200Hz gibt ;)
 
  • Gefällt mir
Reaktionen: Knighty, Edzard, Zarvan und eine weitere Person
Mcr-King schrieb:
Nee kann bestätigen dass es so stimmt liegt an der Packdichte.

Auch dass AMD RX6900 mit HBMe2 kommt, aber der Ampera Chip kann auch mit HBMe2 umgehen vielleicht schieben sie später noch eine nach.

Bitte immer mit Quelle. Danke

@Topic ... nVidias Speichermanagement wird doch überall als das Bessere betitelt. Dann reichen doch die 11 GB.

Finde es erstaunlich das man nirgends was vom Plus der RT Leistung liest ..
Das ist doch nVidias Werbegag Nummer 1 gewesen bei Turing.
 
  • Gefällt mir
Reaktionen: VYPA, Meleager und Pulsar77
Ich denke immer noch :
RTX3080=10 GB
RTX3090=11GB
RTX TITAN=24GB
Wenn man sie sich nicht leisten kann............nicht kaufen !!
Die FE ist mir Wurst und bis die Customer raus sind wird es mindestens Dezember denke ich.
 
Oneplusfan schrieb:
Wie will man das denn bitte marketingtechnisch verkaufen?
z.B. „30% Mehrleistung bei einer Preiserhöhung von nur 20%!!!“

Bin gespannt, befürchte aber das weder bei NVIDIA noch bei AMD VRAM-technisch viel passieren wird.
 
hahaqp schrieb:
Welche Spiele und welche Auflösung? Ich habe mit einer 2080 in WQHD keine Probleme.

Geht bei vielen Spielen. Schnellste Beispiel was mit einfällt Skyrim mit Mods und 4K.
 
  • Gefällt mir
Reaktionen: paulemannsen, CMDCake und TorgardGraufell
tidus1979 schrieb:
So ne schöne neue RTX 3080 für Cyberpunk 2077 wär schon was 😅
In der Tat, wenn ich jetzt aber lese, dass die RTX 3080 schon eher auf 2080 TI Niveau kommt, dann kostet die sicher bereits 1.000€+, die 3090 und Titan sind eh illusorisch. Aber dann wird es wohl "nur" eine 3070, die dann hoffentlich irgendwo zwischen 2080 und 2080 TI liegt und so 700-800€? Wobei die 3060 dann ja auch schon bei 500-600€ ankommt. Da dürften sich dann also wieder die Preise der Modelle verschieben, wie schon von der 900er zur 1000er Serie...
 
Cool Master schrieb:
Geht bei vielen Spielen. Schnellste Beispiel was mit einfällt Skyrim mit Mods und 4K.
jep oder ARK in 4k auf epic :D
 
  • Gefällt mir
Reaktionen: Cool Master
Fuchiii schrieb:
Doch klar.. dann kann man noch ne 3090Ti hinterherwerfen.
Die wird dann selbstredend noch teurer...
Also ich seh da keinen Platz mehr zwischen einer Titan und einer 3090. Wobei wir natürlich die finalen Specs abwarten müssen.
 
also für max. details und WQHD haben mir 8 Gb immer gereicht. Ich habe bisher nicht gemerkt das mir da der V-Ram ausgegangen ist .... Schwer zu sagen ob tatsächlich später dir RTX3080 wegen zu wenig V-Ram das große Problem wird.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Fyrex und pietcux
Hatsune_Miku schrieb:
Ich hoffe nicht das es so kommt, die RTX 20x0 er sind doch schon allesamt Speicherkrüppel. Und dazu stehen auch neue Konsolen vor der Tür die ebenfalls dafür sorgen das eher mehr als weniger VRam gebraucht wird.

stimmt, alles unspielbar auf meiner 2070. ständig geht mir der Speicher aus und der Bildschirm wird schwarz.

Im Ernst - mir ist noch nie im Leben der VRAM ausgegangen.Verstehe nicht warum man immer nur auf diese Zahl schaut. Solange FPS und Frametimes gut sind, ist mir das egal. Die neuen Konsolen haben doch auch nicht mehr als 8Gb oder?
 
  • Gefällt mir
Reaktionen: Gaspedal, Tobi86, redlabour und 4 andere
mir auch nicht.

ich frage mich aber gerade woher ihr eure komischen preis hernehmt?

steht da irgendwas im Artikel dazu ? ich hab nix gefunden auf die schnelle
 
ich glaube der "GPU-Showdown" wird ziemlich einseitig werden. Außer AMD zaubert sowas wie Ryzen für GPUs aus dem Hut.
 
  • Gefällt mir
Reaktionen: lex30 und MrNejo
Hatsune_Miku schrieb:
Ich erinner mich noch wie ich für ne 670 4GB ~350-380€gezaht habe, heute zahlt man für diese leistungsklasse nen tausender und mehr.

Die GTX 670 basiert auf GK104 mit gerade mal 294mm² in 28nm. TU102 der RTX 2080 TI liegt bei 754mm² in 12nm. Das ist sowohl Generations als auch Fertigungsübergreifend eine komplett andere Kategorie. Die GTX 670 entspricht heute eher dem Format einer GTX 1660 (TU116) mit 284mm².
 
  • Gefällt mir
Reaktionen: adAstra, Brian.Griffin, Buchstabe_A und eine weitere Person
Simanova schrieb:
Die PS5 Konsolen-Ports werden auf 8GB VRAM ausgelegt sein.
Warum sollten sie? Die PS5 hat doch viel mehr VRAM
 
  • Gefällt mir
Reaktionen: GameOC, Col.Maybourne und Averomoe
Cool Master schrieb:
Geht bei vielen Spielen. Schnellste Beispiel was mit einfällt Skyrim mit Mods und 4K.

Naja ein gemoddetes Spiel würde ich da raus lassen. Von optimierungen kann man da ja weniger sprechen.
Spricht daher also nicht für das, was die Karte kann wenn die Software angepasst ist.


Zum Thema: schade, dass die immer noch am VRAM sparen.
Ich hätte mir schon 16GB gewünscht wenn ich schon HighEnd kaufe, mal von der Titan abgesehen.
Es hieß ja zu beginn die Preise wäre passender. Aber auh alles Gerüchte. Und die Tendenz geht leider immer öfter in die Richtung "melk die Kuh".
Naja vielleicht werden ich ja doch noch positiv überrascht, dann schicke ich meine Karten vielleicht auch in Rente, zumindest eine davon.
 
  • Gefällt mir
Reaktionen: elmex201
Die GeForce RTX 2080 musste sich überraschend mit dem TU104 und damit „nur“ noch der zweitgrößten GPU zufrieden geben.

Zwei Dinge:
NV könnte TI- als Label fallen lassen (ähnlich wie Tesla) und neue Revision zurkünftig mit Super bringen.
Die 3090 ersetzt also die fiktive 3080Ti.

Deutlich interessanter finde ich aber das Zitat hier. 3080 bekommt den größten Ausbau ? Wieso?

Wenn dann ist der kleinere Chip nicht fertig, oder man will unbedingt die 3080 schneller als Big Navi sehen.
Klar nur eine Vermutung ^^

Erklärt vermutlich wieso der GA103 gestrichen wurde. Vllt eventuell als Ausbau nicht wesentlich schneller als deren Vermutung wo Big Navi ankommen könnte. Den hebt man sich dann für einen Refresh auf, als 3070Super
 
  • Gefällt mir
Reaktionen: YY247, SonnyRasca und Mr. Rift
Falc410 schrieb:
Verstehe nicht warum man immer nur auf diese Zahl schaut. Solange FPS und Frametimes gut sind, ist mir das egal. Die neuen Konsolen haben doch auch nicht mehr als 8Gb oder?
Die Frametimes hängen aber auch vom VRAM ab, wenn man die Texturen hochdreht und die entsprechende Auflösung fährt^^

Die Konsolen haben 16GB GDDR6, den sich GPU und System teilen können, und da nicht viel außerhalb der Spiele läuft, werden das wohl deutlich mehr als 8GB sein, auf die die GPU zugreifen kann.
 
  • Gefällt mir
Reaktionen: C3LLoX, Pulsar77, Cpt.Willard und 4 andere
Wishezz schrieb:
Naja ein gemoddetes Spiel würde ich da raus lassen. Von optimierungen kann man da ja weniger sprechen.
Spricht daher also nicht für das, was die Karte kann wenn die Software angepasst ist.

Warum würdest du das rausnehmen? Optimierung kannst du nichts weil Texturen nun mal einfach eine gewisse Größe haben. Wenn das entsprechende Spiel mit HEVC nichts anfangen kann kann man es halt auch nicht damit abspeichern.

Dazu kommt es gibt noch viele weitere Beispiele schau dir einfach mal die Beiträge von @HisN an.

Wishezz schrieb:
Zum Thema: schade, dass die immer noch am VRAM sparen.

Die Karten wird man doch eh kaum übertakten können daher brauch man auch keine VRMs VRAMs die overkill sind und die Preise nach oben treiben.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: CMDCake
Zurück
Oben