Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPU-Gerüchte: Hinweise auf GeForce RTX 3070 (Ti) mit GA104
wie immer: wenn man nur die option "regler auf anschlag" kennt, dann reicht es irgendwie nie.
ich spiele auch in wqhd und hatte bisher keine probleme...
Final Fantasy will eat up and fill your VRAM as best as it can. Above four random cards, two 4GB two 8GB. With the graphics memory filled at 4GB you are not going to notice anything weird. For 8GB cards in Ultra HD we see a spike running towards ~7700MB. This game has Ultra HD textures, and where it can it'll fill that space up whenever it can (which is something good). So with a 4GB graphics card, you'll notice your VRAM is nearly or 100% filled flat out full at any resolution. This prevents it from swapping and loading textures/shaders from your IO (HDD/SSD). Up-to Full HD (1920x1080) in fact any ~4 GB graphics card of decent caliber should do the job well. 4 GB or more would be sufficient for 2560x1440. If you want to play Ultra quality with Ultra HD as preferred monitor resolution, 6GB or better is advised but in this game, not needed. https://www.guru3d.com/articles-pag...-graphics-performance-benchmark-review,9.html
8GB VRam hier sind nicht gleich 8 GB VRam bei einer älteren Architektur. Die interne Textur Komprimierung wird stetig verbessert mit neuen Generationen.
Dann kannst du dir ja vorstellen was ich von dieser Karte derzeit halte (Metro Exodus in 4k auf dem TV). Trotz "nur" hoher Details nur mit Tesslation, sonst alles deaktiviert läuft man von einer fast unspielbaren Stelle zur anderen. 60 FPS gibt es nur in Gebäuden ohne Action. Eine 3080 muss schon 30% drauflegen. Mehr ist mir das Hobby Gaming nicht wert. Zurück zu geringerer Auflösung geht aber jetzt nicht mehr...
Finde aber zwischen eine 3070 und 3070 Ti passt noch eine 3070 Pro, 3070 GTS und 3070 Ultra. Abgerundet dann durch eine 3070 MX als Einstieg für 400€
Also mehr speicher wird meine neue auch haben ,also mehr als 8 GB und da ich immer eine Gen... überspringe und pro Jahr 800 euro in die Graka Spardose kommt alles gut.
Mindestens 50% Mehrleistung bei deutlich weniger Leistungsaufnahme als meine Vega 64 für ~400€ wäre meine Wunschvorstellung. (Also etwas über einer RTX 2080 Super.)
Hoffentlich gleich mit stark verbesserter Raytracing-Performance und einer breiteren Auswahl an Titeln die DLSS 2.0 unterstützen.
Ob da nun RTX 3060(Ti) oder RTX 3070(Ti) draufsteht juckt mich weniger, hauptsache Preis\Leistung passt. Fest steht nur, dass es dieses mal höchst wahrscheinlich wieder eine Nvidia Karte wird, da ich für ein paar Dinge Cuda bräuchte. (Außer AMD bringt wirklich den Kracher schlechthin, dann upgrade ich eher die R7 260X im Zweitrechner auf eine gebrauchte 1050Ti und mache den Cuda beschleunigten Kram da.)
Was ist denn das für eine verquere Argumentation? Wenn die Gerüchte stimmen, liegt eine 3070 bei 400,- und ne 3070ti bei 500. Die Preise sind also niedriger als bei 2070 RTX Release.
Und mit niedrigeren Preisen, meinst Du, dass sie das als Grundlage nähmen, dass die Karten darüber teurer als jetzt werden?
Na das musst Du nochmal genauer erklären wie das logisch zusammenkommen soll...
Ich fürchte dass sich die Preisdiskussion erübrigt bis wirklich zahlen im Raum stehen. Ich habe auch hier und da begründete Sachen gelesen warum die Preise sinken könnten. Aber ich denke es ist jetzt noch zu früh darüber zu reden.
Was ist denn das für eine verquere Argumentation? Wenn die Gerüchte stimmen, liegt eine 3070 bei 400,- und ne 3070ti bei 500. Die Preise sind also niedriger als bei 2070 RTX Release.
Und mit niedrigeren Preisen, meinst Du, dass sie das als Grundlage nähmen, dass die Karten darüber teurer als jetzt werden?
Na das musst Du nochmal genauer erklären wie das logisch zusammenkommen soll...
Nur die Switch nutzt nVidia. Alle anderen nutzen den besseren Chip von AMD. Das war auch schon zu PS3 und Xbox 360 Zeiten so, wenn ich mich nicht irre.
Das ist mir bewusst, mir ging es um den Vergleich von Konsolen und Desktop.
Nizakh schrieb:
2013 waren in den Topmodellen 3GB bzw. 4GB in Form der R9-290X (4GB) und GTX-780Ti (3GB) der Standard. Es gab ein paar Exoten um den damaligen Zeitraum die mehr Speicher hatten. Das war einmal die GTX-Titan (6GB) und die GTX-780 in der 6GB Variante. Die R9-290X wurde in einer optionalen 8GB VRAM Variante vertrieben, welche ebenfalls eine "Insel-Lösung" einzelner Hersteller war.
Ja ich hatte jetzt einfach die regulär erhältlichen Top Modelle genommen (die 290X 8GB wurde doch relativ schnell von AMD unterbunden oder?). Aber der Punkt ist klar: Das Verhältnis von Speicher der Konsolen zu VRAM von Desktop Karten ist sehr ähnlich geblieben.
Solch einen Konkurrenzkampf wie damals wünsche ich mir auch für Ende diesen Jahres (290X damals als Titan Killer, 780ti mit jenem Titan Chip usw.). Ich versuche mich in Zurückhaltung aber bin doch sehr gespannt auf die nächsten Monate.
Sagt der mit der 970
Wer sich bei CB den Grafikkarten Vergleich über fünf Generationen bei AMD und Nvidia angesehen hat. Dem ist sicher nicht entgangen das die Karten von AMD meist mehr RAM hatten und somit nach 2-3 Generationen besser bei neuen Games performten als Nvidia. Somit wäre es mir und auch vielen anderen hier wichtig bei einer 3070 nicht wieder bei 8GB zu landen. Das gleich gilt auch für AMD. Ich würde mir gerne ende des Jahre oder Anfang 2021 einen Ersatz für meine Vega56 kaufen und die soll mindestens 10 oder besser 12GB Ram haben. Davor hatte ich die 1070 und RX580 also drei Grakas mit 8GB Ram. Jetzt wird es wirklich Zeit für mehr VRAM.
Und die 8GB sind ja auch schon längst in der unteren Mittelklasse bei AMD angekommen und zwar in 2016 mit der RX470. Und von der Leistung her ist diese Karte heute mit dem Release der neuen Gen im Herbst Einstiegsklasse.
So langsam zweifel ich daran ob wirklich eine Karte davon meine beiden 1080tis ersetzt....
Ich hab iregendwie im Urin, dass die weiterhin unverhältnismnüßig teurer werden.
Die 2080Ti ist schon viel zu teuer.
Wird gekauft. Freu mich schon drauf, die Kohle ist schon beiseite geschafft. Wird bei dem ein oder anderen Spiel hoffentlich die durch den neuen 21:9 1440p UW Monitor entstandene Performancelücke meiner 2070 ausbügeln.
8GB sind etwas grenzwertig. Ich hatte auf 12GB gehofft. Zwar hab ich noch keine Probleme mit 8GB aber ich nehme an es könnte mit den neuen Konsolen etc. Knapper werden. Andererseits wenn ich mir zB ne Radeon 390 ansehe die seinerzeit mit 8GB ausgestattet wurde kann man das auch als "netten Marketinggag" verbuchen. Denn für moderne Games die das annähernd nutzen fehlt schon ne Menge Batz bei der Karte. Und nur ums zu haben muss man den Speicher dann auch nicht zahlen, wenn er am Ende brach liegt.