News Nvidia GeForce GTX 980 mit 8 GB noch in diesem Jahr

und das wird dann auch die einzig vernünftige graka werden. die einzige die sich lohnt, denn die 4gb versionen der 970/980 sind schon jetzt veraltet falls man auch wirklich auf maximalen einstellungen zocken will. leistung reicht aus, aber vram wird schon jetzt bei einzelnen spielen eng und in einem jahr wirds unbrauchbar werden lol xD mMn
 
Wie sage ich immer: Wettbewerb belebt das Geschäft. Aber könnte dann nicht die Speicherbandbreite ein Flaschenhals werden?

Ok eine etwas ausführlichere und vereinfachtere Begründung dafür, weshalb die Speicherbandbreite von der Texturauflösung weitestgehend unabhängig ist:

Die GPU erstellt sich für jede Textur eine sogenannte Mipmap. Dabei handelt es sich um verkleinerte Versionen der Textur (z.B. bei einer 256 auf 256 Textur würde die GPU durch Herunterskalieren 128 x 128, 64 x 64, 32 x 32, 16 x 16, 8x8, 4x4, 2x2 und 1x1er Texturen als Mipmap Level erzeugen. )
Beim Zeichenvorgang greift die GPU dann, wenn die Textur weiter von der Kamera entfernt ist was der häufigste Fall sein sollte, nicht mehr direkt auf die Textur sondern nur noch auf die Mipmap zu. So wählt die GPU dann für jeden Pixel den entsprechenden Mipmap Level aus, so dass zwei benachbarte Pixel auf dem Bildschirm in etwa auf zwei benachbarte Texel der Textur zugreifen. Diejenige Mipmap-Größe, die GPU an einer Stelle auf dem Bildschirm beim Zeichenvorgang auswählt ist unabhängig von der eigentlichen Texturauflösung. Da nur die Mipmap gelesen werden muss, ist ebenfalls die benötigte Speicherbandbreite unabhängig von der Texturauflösung. Erst wenn die Texturen der Kamera zu nahe kommen gibt es Unterschiede in der Speicherbandbreite, was allerdings der weniger häufige Fall sein sollte.
 
Die Tage war ein Arma 3 Schütze im Forum. Ich sagte zu ihm, nimm doch mit deinem Battallion ersma die Pistole oder Feuer mit einer M60 auf dein Team, danach kannst Du in den Clan aufsteigen, dann kriegst du als Sniper eine Cheytec M200 Sniper Rifle.

Erst dann musst Du 3km Sichtweite einstellen, wenn Du mit dem mit dem starken Fernglas dich von der Truppe absonderst und inne Mountains latscht. Vorher brauchst Du die Sichtweite von 3KM doch gar nicht. Object, Terrain Details und Sichtweiten sind die Framekiller.
 
GPU-Joe schrieb:
Und wie oft gibt es diese Ausnahmen? Vor allem - sind die Settings, die zu diesem hohen Speicherbedarf führen, dann mit einer Karte spielbar? Bei SLI/CF lasse ich ja noch mit mir reden, wobei selbst das bei neueren Spielen grenzwertig sein könnte - zumal ich persönlich mit AFR nicht unter 50 fps spielen würde.

Ausnahmen sind deswegen Ausnahmen, weil sie nicht die Regel sind. Wer auf diese Ausnahmen verzichten kann, braucht wahrscheinlich auch keine € 600,- Karte.

Wieviel FPS jemand als ausreichend erachtet, ist doch individuell völlig unterschiedlich. Persönlich verzichte ich eher auf FPS als auf entsprechend hohe Settings.
 
Pilstrinker schrieb:
Ausnahmen sind deswegen Ausnahmen, weil sie nicht die Regel sind. Wer auf diese Ausnahmen verzichten kann, braucht wahrscheinlich auch keine € 600,- Karte.

Wieviel FPS jemand als ausreichend erachtet, ist doch individuell völlig unterschiedlich. Persönlich verzichte ich eher auf FPS als auf entsprechend hohe Settings.

Klar, bloß wird hier so getan, als wären 8 GB ab jetzt quasi das Maß der Dinge, und dass das offensichtlich Unsinn ist, muss ich dir nicht erzählen. Ich bin generell kein Fan von Kundenfang mit solchen einfach bewerbbaren Attributen wie "kombinierte 10 GHz", "DX11.1" oder eben der Speichermenge, wenn der tatsächliche Nutzen davon zweifelhaft oder schwer bewertbar ist.
 
Aktuell doch eh nur im SLI/Crossfire und in sehr hohen Auflösungen interessant. Für nen normalen Spiele PC mit nur einer GPU ist das doch eh nichts, weil in den meisten Fällen dann die GPU limitiert.
Nur was für absolute Enthusiasten. Und so werden sich auch die Preise gestalten.
Die bisher erhältliche R9 290X Tri-X mit 8GB kostet ja auch gleich mal satte 300€ mehr als die normale 4GB Version.
 
Ich brauche 60Hz im VSYNC, ansonsten galopiere ich nicht richtig.
 
Nai schrieb:
Ok eine etwas ausführlichere und vereinfachtere Begründung dafür, weshalb die Speicherbandbreite von der Texturauflösung weitestgehend unabhängig ist:

Die GPU erstellt sich für jede Textur eine sogenannte Mipmap. Dabei handelt es sich um verkleinerte Versionen der Textur (z.B. bei einer 256 auf 256 Textur würde die GPU durch Herunterskalieren 128 x 128, 64 x 64, 32 x 32, 16 x 16, 8x8, 4x4, 2x2 und 1x1er Texturen als Mipmap Level erzeugen. )
Beim Zeichenvorgang greift die GPU dann, wenn die Textur weiter von der Kamera entfernt ist was der häufigste Fall sein sollte, nicht mehr direkt auf die Textur sondern nur noch auf die Mipmap zu. So wählt die GPU dann für jeden Pixel den entsprechenden Mipmap Level aus, so dass zwei benachbarte Pixel auf dem Bildschirm in etwa auf zwei benachbarte Texel der Textur zugreifen. Diejenige Mipmap-Größe, die GPU an einer Stelle auf dem Bildschirm beim Zeichenvorgang auswählt ist unabhängig von der eigentlichen Texturauflösung. Da nur die Mipmap gelesen werden muss, ist ebenfalls die benötigte Speicherbandbreite unabhängig von der Texturauflösung. Erst wenn die Texturen der Kamera zu nahe kommen gibt es Unterschiede in der Speicherbandbreite, was allerdings der weniger häufige Fall sein sollte.

Wenn das Spiel zu Stark das Mipmap Level der Texturen herunter skaliert müßten doch auch Texture Details abhanden kommen oder sehe ich das falsch?

Und selbst wenn du recht hast mit dem was du sagst, was zieht denn die Speicherbandbreite weg wenn es nicht die Texturen sind?
 
@GPU-Joe
Er ist doch belegbar?! mata.gif
Du liest wirklich nur noch das, was du gerne hast, hm?
Für Leute, die Ultra wollen, wird die 8GB Karte (egal ob von AMD oder Nvidia) die einzig plausible Wahl darstellen (wenn es denn eine aus der neuen Generation sein muss).
Dass man natürlich auch ohne Ultra zocken kann, haben wir schon vor x Seiten festgestellt, Ja. :rolleyes:
 
Wir sind ja nicht einmal bei Full HD angekommen, obwohl ich einen EIZO FX2431 habe mit S-PVA Panel auf 1920x1200.

Die 4 K Story dauert noch...in 4 Jahren frühestens...
 
Wenn das Spiel zu Stark das Mipmap Level der Texturen herunter skaliert müßten doch auch Texture Details abhanden kommen oder sehe ich das falsch?
Die verkleinerten Versionen werden nur in der Entfernung verwendet, wo die Details sogar eher störend sind (siehe zum Beispiel das Bild: http://libcinder.org/docs/v0.8.4/images_mipmapCompare.png). Im Nahbereich wird weiterhin die eigentliche höchstaufgelöste Version verwendet.

Und selbst wenn du recht hast mit dem was du sagst, was zieht denn die Speicherbandbreite weg wenn es nicht die Texturen sind?

Ich sagte nicht, dass Texturen nicht viel Speicherbandbreite benötigen, sondern, dass ihre Speicherbandbreite von ihrer Auflösung weitestgehend unabhängig ist.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Ja ich hoffe das wird sogar besser. So kann man z.B. bei guten Texturen und guter Auflösung auf AA/AF verzichten.

Warum sollte man auf AF verzichten?
Ergänzung ()

Lahatiel schrieb:
@GPU-Joe

Lord of the Fallen

Die ersten Gegner erschlagen:



Have fun. Wie gesagt: es wird bestimmt nicht weniger solche Titel geben, die das für volle Pracht so handhaben. Ich meine sogar: Witcher 3 wird hier wohl manchem anders argumentierenden in die Kauleiste rasen.

Die Frage ist doch nicht, ob der größere Speicher bei einer Grafikkarte auch belegt wird, sondern ob weniger Speicher überhaupt zu Rucklern bzw. weniger FPS führt. Da kann man noch so viele Screenshots mit der Speicherauslastung posten, so lange dieser Punkt nicht geklärt ist, bringt das leider herzlich wenig.
 
ich behaupte mal das pi mal daumen dass mind. 70% aller PC Gamer mit auflösungen Full HD (desktop) und weniger (Notebooks) zocken.
Denen reicht 4GB locker...

Von daher ist das nett für diejeniegen die UHD oder ähnliches nutzen, dem Rest ist das egal.

Gut für den Preis ist das allemal dadurch fällt der Preis in der REgel ein wenig für die kleineren Varianten.
 
Und bis es soweit ist, so dass die 4GB limitieren würde, habe ich schon längst eine neue Grafikkarte
Genau so schauts aus, wer sich ständig die neusten GPUs kauft, kann ruhig zur 4GB Version greifen. Wer Grafikkarten 4-5 Jahre fährt so wie ich, greift zur 8GB Version. SLI Systeme haben gar keine Wahl, 8GB oder man kauft sich ein lächerliches Vram Krüppel System das die Rohleistung im Nichts verpuffen lässt.
 
Zuletzt bearbeitet:
Intel_Forever schrieb:
Ich spiele sogar GTA 4 Zumindest mit 20MPX dank meinem Screen :) und es läuft sogar halbwegs flüssig :)

Das doofe ist das jedes Game abstützt wenn ich bei der Auflösung ein Screenshot mit Fraps mache, hast du ne Idee, oder eine Lösung?

MFG


DxTory !
 
ottoman schrieb:
Warum sollte man auf AF verzichten?

Weil man es mit guten Texturen nicht benötigt bzw. es nichts bringt. Dazu kommt, je nach spiel, fällt es einem erst gar nicht auf.
 
Chapsaai schrieb:
unnötig wie ein kropf,
es ist ja bekannt dass die wirklichen high end karten schon vor der tür stehen, die werden dann sowieso mit 6 oder 8 gb kommen.
aber es gibt ja genug leute hier dich sich drauf freuen.
viel spaß damit

So Leute die alles für unnötig halten gibts immer ! Auto mit 400 PS unnötig, 4K Unnötig, 8 GB Vram unnötig !

Aber am unnötigsten sind die Kommentare von den Leuten !

Denn ich bin gerne in 4sec auf 100 Km/H, gucke mit Streams in 4k an und werde auch bestimmt mit einer 8GB Vram Karte zocken nur damit so Leute wie dumm aus der Wäsche gucken !
 
Zurück
Oben