News GPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104

redlabour schrieb:
Weil der Mainstream immer noch mit 4-6 GByte rumdödelt. 8GByte sind immer noch HighEnd und alles darüber mindestens noch 2 Jahre Marketinggeblöddel. Der schnellere RAM rechtfertigt zusammen mit RTX ein Upgrade deutlich.
Und vor 2 Jahren hat der Mainstream mit 2-4GB rumgedödelt und hatte seine Probleme. Will dich aber nicht daran hindern nen VRAM-Krüppel zu kaufen. :freak:
 
redlabour schrieb:
8 GByte werden noch lange ausreichen. 🙄 Das Genörgel über 8GB ignoriert jedesmal den Fakt das bei mehr VRAM einfach mehr Ballast geladen wird der überhaupt nicht nötig ist.
Hab ja in Far Cry 5 schon 7,5 GB Auslastung bei 1080p / ultra / 5700 XT. 8 GB werden zukünftig sicher NICHT mehr genügen.
 
Bei den Ram größen muss man sich bald nicht mehr wundern, warum die Teile in unnormalen Preisregionen sind.
 
Ikone schrieb:
Hab ja in Far Cry 5 schon 7,5 GB Auslastung bei 1080p

Und wieviel davon wurden auch genutzt? Bei VRAM verhält es sich wie bei RAM, wenn Platz da ist, bleiben die Texturen im Speicher geladen, egal ob sie noch genutzt werden oder nicht.

Hier mal am Beispiel von FFXV
1594178527190.png


Final Fantasy will eat up and fill your VRAM as best as it can. Above four random cards, two 4GB two 8GB. With the graphics memory filled at 4GB you are not going to notice anything weird. For 8GB cards in Ultra HD we see a spike running towards ~7700MB. This game has Ultra HD textures, and where it can it'll fill that space up whenever it can (which is something good). So with a 4GB graphics card, you'll notice your VRAM is nearly or 100% filled flat out full at any resolution. This prevents it from swapping and loading textures/shaders from your IO (HDD/SSD).
https://www.guru3d.com/articles-pag...-graphics-performance-benchmark-review,9.html

Du könntest also auch eine GPU mit 16GB VRAM nehmen, dann hättest du vermutlich 15GB "Auslastung" und trotzem würde das Spiel auch weiterhin problemlos mit 4GB VRAM funktionieren. Die Behauptung: "Bei mir ist der VRAM immer ausgelastet, also brauche ich bei der nächsten Karte mehr", ist schlichtweg Blödsinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrNejo, iron-man, Coeckchen und 2 andere
Linmoum schrieb:
In UHD? (ok, beim Blick auf die fps erübrigt sich diese Frage schon. Dürfte bei 90fps mit RT@High dann sogar nur FHD sein)

Nein, das ist WQHD und nicht FullHD. ;)
 
Xtrasmart schrieb:
Also ich brauche ebenfalls keinen erneuten Aufguß einer 8 GB Karte. Ich würde mir die 3080 (non TI) zwischen 700 und 800 Euro wünschen. Dann bitte aber mit 10 GB Speicher zumindest. Ansonsten schaue ich mich im roten Lager um. Ist mir Wuppe, wer meine Kohle bekommt.
Sehe ich genauso. Bin typischer Wechselwähler. Beim Speicher werde ich nur eine Aufrüstung in Betracht ziehen.
 
Falls diese geleakten/gemunkelten Spezifikationen stimmen sollten (denn es sind nicht mehr als Gerüchte und das auf ComputerBase, so etwas aber auch, ist davon jetzt jemand gestorben (?), nein, ich glaube nicht ;) ), dann stellt sich auch die Frage, wann die interessantere RTX 3070Ti kommen würde?

Erst ein Jahr später nach der RTX 3070 oder kommt die RTX 3070Ti schon im späten Sommer 2021?

Moore's Law is Dead geht vom Ende 2020/Anfang 2021 erst mit der Veröffentlichung der Ampere RTX 3070 und 3060 Grafikkarten aus, was noch relativ weit entfernt wäre.


Was den Speicher angeht dürften die hier evt. geleakten 8 GB wohl mittelfristig bis langfristig je nach Spiel ausreichend bis ungenügend sein (um einmal Schulnoten zu bemühen), also im Durchschnitt dann eher mangelhaft, zumal eine Rohleistung auf etwa RTX 2080Ti (11 GB) Niveau aktuell kolportiert wird?

Ich denke leider schon und wenn AMD/RTG mindestens 12 GB bieten wird bei ähnlicher Rohrleistung (RX 6900 oder RX 6800 XT?), wäre die Wahl für mich zumindest ein ziemlicher "No Brainier", welche Grafikkarte gekauft wird.

RT-Raytracing steckt noch in den Kinderschuhen bis frühestens 2022 (daran ändert auch ein einzelnes Blende-/Vorzeige-Spiel wie Cyberpunk 2077 nichts) und wird vorerst nicht mehr als ein nettes Neben-Feature sein, das nur auf einer Handvoll Titel vermutlich die neue/kommende Ampere-RTX Architektur ausreizt, ansonsten ist anzunehmen, dass AMD/RTG mit einem DLSS-ähnlichen Feature und RTX-Vanilla ähnlichem Feature (oder irgendwo zwischen RTX Turing und Ampere liegend) nachziehen wird.

Vermutlich wird AMD/RTG auch auf den RT-Raytracing Zug mit aufspringen, diesen aber nicht so befeuern wie nVidia sondern sich auf Basiseffekte-Ausstattung eher begrenzen, könnte ich mir vorstellen und das passt auch, zumal die Technik noch viel zu wenig insgesamt und wenn dann nur begrenzt unterstützt wird.

Fazit, um auf eine RTX 3070(Ti) zurück zu kommen, für mich wird es vermutlich keine solche geben, wenn nicht mindestens 10GB Speicher an Bord sind und die Konkurrenz von AMD/RTG dieses oder mehr bietet, denn das ist bei den relativ niedrigen Speicherkosten nicht zu rechtfertigen und wieder nur auf neue Rekordmargen und Börsenrekorde von Huang/nVidia abzielend.

Man bekommt vermutlich zu wenig Gegenwert mit einer RTX 3070(Ti) im Vergleich zu den AMD/RTG Konkurrenzprodukten.

Was die Unterschiede zwischen RTX 3070 und 3070Ti angeht, so gehe ich auch davon aus, dass erstere den langsamen GDDR6 Speicher bekommen wird und letztere den schnellen (GDDR6X), aber warten wir es ab ;).

Gut möglich, dass sich wegen endlich 'mal wieder starker Konkurrenz das Rad bei den Grafikkarten in 2021 schnell drehen wird (wie damals zu HD 7970GHz Edition Zeiten) und schnell nachgelegt wird mit neuen Produkten.

Den bisherigen Quasi-Monopolisten bei Grafikkarten, nVidia, werde ich da grundlos bestimmt nicht wieder unterstützen, wenn die Konkurrenz mit deren Produkten sich als annähernd ebenbürtig erweist.

Mit nVidia kauft man in jedem Fall zukünftige weitere Preiserhöhungen bei GPUs, mit AMD/RTG Grafikkarten nicht unbedingt (siehe RyZen im CPU-Bereich) :).
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Ich kann die Meckerei wg. der Preise nicht nachvollziehen. Das Topmodell hat früher vielleicht nur 400 - 600 Euro gekostet, wurde aber nach 6 -12 Monaten durch einen 50% -100% schnelleren Nachfolger ersetzt.

Meine GTX1080 hat rd. 700 Euro gekostet und nach 4(!) Jahren ist sie noch ähnlich schnell wie eine 200-Euro-Karte. Vor 10 Jahren war eine 4 Jahre alte Karte nicht zu gebrauchen. Früher war es deutlich teurer dauerhaft eine "gute" Grafikkarte zu haben.
Und das interpretiert du nun als Vorteil? Nach deiner Logik könntest du dann auch alle 2 Jahre die 200€ Karte kaufen und würdest damit besser und günstiger fahren... Wiederverkauf noch nichmal eingerechnet.
 
snickii schrieb:
eine 3080Ti wird nirgends genannt... ich denke die 3090 soll diese ersetzen
Meine werd ich durch die 3090 ersetzen

Das war dermassen klar, dass dieser Schritt kommen würde, nur scheint es bereits schon wieder niemand zu begreifen, von den HW Magazinen ganz zu schweigen: die RTX-3090 ist einfach der nächste Schritt in nVIDIAs Preistreiberei, damit können sie dann problemlos noch eine RTX-3090Ti nachschieben, die nochmals mehr kostet und gleichzeitig die x80, x70 und x60 Serien bei selbem Preis "schlechter" machen und wir Deppen (wir Kunden) schauen in die Röhre.

Oder andersrum: so ist flugs aus einer x80Ti eine x90Ti gemacht, die sich teurer verkaufen lässt, da ja "besser" als frühere x80Ti Karten. Und heutzutage funktioniert sowas ja tatsächlich auch, ich erinnere mich an zig Forenbeiträge hier, wo die nVIDIA Politik gutgeheissen wurde mit dem Totschlag-Argument "wenn die Karte schneller ist, darf sie auch mehr kosten".

Ärgerlich. Würden meine Flightsims nicht besser auf nVIDIA Karten rennen, hätte ich der Firma schon länger keinen Cent mehr geschenkt, aber so haben sie mich unter der Fuchtel und das nervt ;-)
 
  • Gefällt mir
Reaktionen: megaapfel, iron-man und Bright0001
7hyrael schrieb:
Und das interpretiert du nun als Vorteil? Nach deiner Logik könntest du dann auch alle 2 Jahre die 200€ Karte kaufen und würdest damit besser und günstiger fahren... Wiederverkauf noch nichmal eingerechnet.

Nur dass man in den Jahren 1-6 dann mehr Leistung hätte als mit 200€ Karten, am Anfang erheblich mehr als am Ende. Wenn man davon ausgeht, dass man nach 2 Jahren von einer 200€ Karte noch die Hälfte wieder bekommt, zahlst du im Endeffekt 300€ mehr für 6 Jahre Mehrleistung mit der 800€ Karte. Finde ich jetzt keinen schlechten Deal.
 
Würde mich nicht völlig wundern wenn die Speicher knapp ausfallen, wird dann erst mit den Supers behoben nächstes Jahr, wäre die passende Strategie.

Falle ebenfalls ins Lager "kein Kauf über 500€ mit 8GB".
 
redlabour schrieb:
Der Herr kann sich ja mal Statistiken ansehen welche GPUs tatsächlich verkauft werden.

und klopapier hat noch beeindruckendere VKZs. - das ändert aber nichts daran dass 8gb inner 500€+ karte nichts verloren haben.

im übrigen sehe ich es durchaus kritisch dass amd sich mit der 5000er serie, gerade was uvp und vram angeht, an nvidia orientiert. fehlt eig. nur noch dass sich sich irgend nen proprietären scheiss ausdenken, diesen den entwicklern "aufdrängen" und mal so richtig in benchmarks tricksen - oder waren das intel die immer bescheissen? :^)

wie garstig nvidia wirklich sein kann, sehen wir auch erst wenn sie mal ordentlich marktanteile verlieren.
der fertigungsvorsprung hatte mr.jacke ja schon zu nem sehr netten kommentar getrieben :D
 
Tomahawk schrieb:
Ich kann die Meckerei wg. der Preise nicht nachvollziehen. Das Topmodell hat früher vielleicht nur 400 - 600 Euro gekostet, wurde aber nach 6 -12 Monaten durch einen 50% -100% schnelleren Nachfolger ersetzt.

Meine GTX1080 hat rd. 700 Euro gekostet und nach 4(!) Jahren ist sie noch ähnlich schnell wie eine 200-Euro-Karte. Vor 10 Jahren war eine 4 Jahre alte Karte nicht zu gebrauchen. Früher war es deutlich teurer dauerhaft eine "gute" Grafikkarte zu haben.
Heißt ich zahle heute deutlich mehr für eine deutliche langsamere Entwicklung.
Klingt irgendwie nach nem scheiß deal
 
  • Gefällt mir
Reaktionen: bad_sign, megaapfel, 4ndroid und 2 andere
AnkH schrieb:
die RTX-3090 ist einfach der nächste Schritt in nVIDIAs Preistreiberei, damit können sie dann problemlos noch eine RTX-3090Ti nachschieben

Was will Nvidia deiner Meinung denn bei der 3090 Ti nachschieben, wenn die bisherigen Leaks stimmen, dann hätte die Titan RTX nur 128 Shader mehr sowie mehr VRAM. Gut über die Tensor-Cores und RT-Cores haben wir ja noch keine Daten.
 
  • Gefällt mir
Reaktionen: 4ndroid
Ich finde die Diskussion um den Speicherausbau irgendwie sinnlos: wir reden hier nicht über Billig-/Mittelklasse-Karten und wir reden hier auch nicht über Karten von vor X Jahren. Wir reden über High-End Karten von Morgen.
Da hat man zu erwarten, dass die Karten grundsätzlich besser werden und für die ebenfalls verbauten neuen Technologien optimiert sind, wozu eben auch mehr Speicher gehört.

Als Analogie dazu wäre folgendes gut: das Verharren auf der minimal-Menge an sinnvollem Speicher, ist etwa so als ob man ein OLED Display in 27 Zoll Monitore packt, dann aber auf 1920x1080 bleibt. Klar geht das für die meisten Anwendungen heute, zu exakt diesem Zeitpunkt in Ordnung, für ein High-End Gerät ist es aber absolut unpassend.
 
  • Gefällt mir
Reaktionen: megaapfel und Bright0001
Ich verstehe nicht, warum immer alle so nach VRAM schreien. 8Gb reichen dicke. Man stelle sich vor, NV würde 16GB als Minimum rausbringen. Wenn soviel mehr Ram verbaut wird, steigen die Kartenpreise noch mehr und die Mittelklassekarten mit weniger RAM werden unbrauchbar, weil die Publisher schlampiger programmieren und mehr RAM verbrauchen, als eigentlich nötig wäre (nur weil er da ist). Klar will ich auch immer mehr und mehr, man muss sich hier aber mal fragen, ob das wirklich im Interesse der Kunden wäre. So kann man sich aktuell auf jeden Fall sicher sein, dass Spiele mit 8GB laufen, weil das nicht nur im unteren Grafikkartenbereich Standard ist, sondern auch im Oberen genauso wie bei den Konsolen. Ich glaube jedenfalls, dass der Aufschrei groß wäre, wenn die jetzigen 200 Eur Mittelklassekarten demnächst mindestens 300 Eur kosten.
 
  • Gefällt mir
Reaktionen: angband1 und redlabour
Und wo kommt diese Preislich hin, 1500 Euro ? Da besorge ich mir lieber wieder eine Gebrauchte Karte in der Region 2070er Super :rolleyes:
 
Nur eine Kaufverweigerung möglichst vieler Kunden kann die Preise wieder senken.
 
  • Gefällt mir
Reaktionen: Phobsen
Bei meinen Kaufentscheidungen habe ich auch immer meine anderen Anwendungen im Hinterkopf. Für color grading in FHD sind die 4 GB VRAM meiner 3200WX einfach voll. Rechnet man das jetzt mal 4 für UHD was ein Upgrade ist was beabsichtigt ist.. Schwierig zu sagen "mehr als 8 GB VRAM brauch ich nicht"
Ich hätte schon gern mindestens 16 GB einfach um auch ein wenig Experimentieren zu können ohne dass mein encoding an diesen Stellen wegen der GPU Aufgaben
Ausgebremst wird. Die CPU ist ja dahingehend kein bottleneck mehr :D
 
Zurück
Oben