Leserartikel VRAM-Usage aktueller Titel

wo siehst du,dass crysis und stalker so speicherhungrig sind? und wie kommst du darauf,dass 1gb nicht ausreicht?

die bandbreite limitiert,deswegen skaliert CF mit zwei 5870ern bei den minimalen FPS auch mit über 100%. Was bei einem VramMangel ausgeschlossen wäre, da würdens weniger werden.

80% mehrleistung? woher,dass sich 1gb langweilt? wo bricht denn die 5870 1gb weg?

nichtmal die 1gb veriante ist 80% schneller als die 512mb version:
http://www.guru3d.com/article/amd-ati-radeon-hd-4870-1024mb-review/11

und erkläre mir,wenn 1gb sogar schon zu wenig ist, wieso die 2gb variante der GTX285 selbst in 2560x1600 mit AA und AF kaum schneller ist? und diese ist bekanntlich speicherhungriger?


gruß
 
80% mehrleistung? woher,dass sich 1gb langweilt? wo bricht denn die 5870 1gb weg?

Sorry hab mich verschrieben, ich meinte 30%. Hab ich nie behauptet dass die wegbricht, ich sag nur dass die 2GB-Version schneller sein wird in hohen Qualisettings, dass kann man nicht leugnen.

und erkläre mir,wenn 1gb sogar schon zu wenig ist, wieso die 2gb variante der GTX285 selbst in 2560x1600 mit AA und AF kaum schneller ist? und diese ist bekanntlich speicherhungriger?

Der 285er geht halt die Puste aus, ganz einfach. Ich sags mal mit Kasmo´s Worten: Rohleistungskrüppel!:D

wo siehst du,dass crysis und stalker so speicherhungrig sind? und wie kommst du darauf,dass 1gb nicht ausreicht?


https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/

Du musst etwas nach unten scrollen, es ist der Screenshot von @y33ha. Jetzt stell dir das mal mit 8*AA vor, da kann man noch ein paar MB mehr drauf legen!
 
Zuletzt bearbeitet:
warten wir die tests ab.

evt sind in SSAA settings und eyfinity konstellationen größere vorteile zu sehen, aber da würde die bandbreite nur noch mehr limitieren.

dass 1gb schneller als 512mb sind, habe ich nicht bezweifelt, nur bin ich der meinung dass der vorteil aus 2gb zu einem nciht nennenswert ist.

gruß
 
sag blos du hast no ne röhre?^^
CRT Monitor - Bildschirmdiagonale: 22" - - Bildmaske: Schlitzmaske - Auflösung: 2048 x 1536 Pixel - Bildwiederholungsfrequenz: up to 140 Hz - Vertikalfrequenz: 50 - 160 Hz - Horizontalfrequenz: 30 - 130 kHz - Anschluss: Video D-Sub, DVI-A

3D Vision ready für 0€ + kein Input Lag + extreme Pixeldichte besser als jeder 30" TFT



hochst du neben dem bildschrim oder davor,wegen winkelabhängigkeit?
Meistens schräg daneben auf dem gekippten Chefsessel. Ne mal ohne Witz zum Zocken sitzt man grade davor klar, beim Surfen sitzt man in der bequemsten Position davor oder? Da hat der Bildschirm einfach seine Farben und Lesbarkeit zu erhalten, genauso wie es mein 46" HDTV Samsung schafft, da kann man auch extrem seitlich noch ein perfektes Bild sehen, ohne Winkelabhängigkeit. So und nicht anders will ich meinen TFT haben. (liegt wahrscheinlich am Panel, ist mir aber wurst woran das liegt, vorher kaufe ich mir keinen TFT)

interpolation der auflösung, er spielte doch nativ? 19" hat nämlcih 1280x960 oder ähnlcih.
Kann schon sein so mini Auflösungen bin ich nicht gewohnt, meine 19" CRT im Haus haben alle 1600x1200...



ich hatte einen 19 Zoll TFT damals mit 4 ms Reaktionszeit und sehr gutem,verspiegeltem Bildschirm (Was kein Problem war,da ich in meinem PC Zimmer meiner Wohnung sehr dunkle Lichtverhältnisse habe).
Habs gern anders rum, die Monitore müssen sich mir anpassen, nicht anders rum.

Da ich schnelles 16000 Internet habe + 1024KB Upload mit 5ms Ping ,hielt sich der Input Lag extrem minimal,so das ich auch online einigermasen gut dabei war bei CoD 4 und hier keinerlei spürbare Verzögerungen eintraten beim spielen,jedenfalls fiel mir nichts dergleichen auf.
Darum macht dir auch SLI nix aus, du bist nicht anfällig dafür -> glück gehabt


Die Auflösung auf meinem damaligen 19 Zoll 4:3 TFT war natürlich eine native 1280x1024 Auflösung
Kann mir das gar nicht vorstellen mit so einer Mini Auflösung bin seit der GF3 mit min. 1600*1200 unterwegs (WC 3 usw. alles schon mit der extremen Auflösung gezockt und anscheinend gewöhnt man sich schnell an einen Standard^^)

Aber es störte nicht so extrem,man konnte trotzdem noch normal spielen.
Wie gesagt du kannst dich glücklich schätzen, bin da viel pingeliger was Bildqualität angeht...

Stromverbrauch ist mir eigendlich ziemlich egal,die 60 Euro im Monat tun mir nicht weh und ich bekamm sogar noch eine Rückzahlung dieses Jahr.
Dir ist es schon egal(wie so vielen), aber der Umwelt und den Leuten nicht die neben einem Atomkraftwerk leben und Leukämie bekommen...
Zumindest der Idle Verbrauch sollte so niedrig sein wie möglich, aber nicht extra eine neue Grafikkarte kaufen, das ist dann wieder kontraproduktiv. Einfach beim Kauf drauf schaun...



Das ständige,monatliche Treiber Updaten,wenn ich neue SLI Profile gebraucht habe und allgemeine Treiberprobleme,die sich in Grafikbucks gezeigt haben.Erst mit dem 182.50 Treiber lief meine 9800 GX2 wirklich absolut rund und ab diesem Treiber wurden ja dann auch die Microruckler endgültig verbannt,dass Sie nur noch unter 30 FPS spürbar auftratten.Das war eine ganz schön lange,nerfenaufreibende Zeit bis dahin.

Und natürlich die große Lautstärke:Ich kann wirklich nur mit aufgedrehter 7.1 Anlage ungestört spielen oder mit aufgesetzten Headset.Und selbst da nerft das Lüfterrauschen,wenn es mal im Spiel ruhig zur Sache geht :/
Typische Mulit-GPU no go Nachteile, darum ist das nix für die Masse oder Anfänger...




Denoch überwiegen bei mir die Vorteile über die Nachteile in Sachen SLI:
Gerade wenn es solche Spiele gibt wie Crysis,wo man die extreme Leistung um jeden Preis braucht, wenn man auf dem absoluten Maximum spielen will auf einem 24 Full HD Monitor und sich zu dieser Zeit keine alternative Single GPU anbietet,die die gleiche Leistung hat.
Das stimmt, entweder man reißt sich zusammen und legt das Spiel wieder in den Schrank oder man hat keine Wahl und muss zu SLI und co. greifen...


Nur auf eine ATI Dual GPU Lösung würde ich niemals im Leben setzen,da gibts leider wirklich immer noch extrem Probleme mit Microrucklern,ohne Besserung in Sicht und die Crossfire Treiber Politik gleicht einer völligen Anarchie.
ATI und Enthusiast passt nicht wirklich zusammen, Eyefinity ist auch nicht das was es hätte werden sollen, viele sind enttäuscht. Ich nicht, hab mir das schon vorher gedacht.


Auch sollte man sich SLI nur dann anschaffen zu dem Zeitpunkt,wo man die extreme Leistung auch wirklich braucht und eine Grafikkarte nicht mehr genug Leistung hat,es aber keine Alternative in Form einer Singlegrafikkarte gibt,die einem die selbe Leistung für den selben Anschaffungspreis bietet.

Erst dann lohnt sich SLI wirklich und zahlt sich echt totall aus,genauso war es damals bei mir im August 2008 mit der 9800 GX2,in der damaligen Situation auf dem Markt
Richtig, ich hoffe aber das Hydra das ganze ein bisschen Benutzerfreundlicher macht.

Der 285er geht halt die Puste aus, ganz einfach. Ich sags mal mit Kasmo´s Worten: Rohleistungskrüppel!
Naja nicht immer, aber immer öfter...:rolleyes: Für 30" ist eine 2GB Version Pflicht, das haben schon diverse Tests von PCGH bestätigt, aber das die GTX 285 an der Grenze zwischen 1 und 2GB liegt stimmt. Einfach ein Ruckerl zu wenig Rohleistung vorhanden. Nicht aber bei der HD 5870, bin mir sicher die kann 2GB gut gebrauchen und bei der HD 5850 ist es wegen dem günstigen Preis und der Rohleistung auf jeden Fall ok wenn man 1GB nimmt. 2GB schaden aber in einigen Spielen auch hier nicht...
 
Zuletzt bearbeitet:
Ich würde sagen,dass es sich alleine schon wegen DX11 (Thema Compute Shader,Tesselation + GPGPU Physikberechnungen in Spielen, über diverse GPU Physikengines egal ob PhysX oder GPU Havoc Engine) schon auf alle Fälle lohnt,in Zukunft ab heute nur noch Performance Grafikkarten mit 2GB VRAM oder mehr zu kaufen. Schießlich sieht man es ja heute schon,dass neue Spiele auf einer Auflösung von 1920x1200 oder mehr + AF und AA sehr viel VRAM verbrauchen,Tendenz steigend bei jedem neuen Spiel und wenn Physik GPGPU Berechnungen in Spielen sich wirklich stark verbreiten werden durch das einheitliche DX11,wird der VRAM Verbrauch nochmals extrem in die Höhe schießen.

Zumindest wurde das ja auf der Nvidia Fermi Präsentation gesagt,das GPGPU Berechnungen sehr VRAM hungrig sind.

Da ist man mit einer 2 oder 3 GB VRAM Grafikkarte sicherlich auf der besseren Seite in naher Zukunft und der Aufpreis für mehr VRAM hält sich ja eigendlich auch in Grenzen,fast nie mehr als 30-40 Euro.
Warum sollte man sich allso dann noch mit weniger VRAM zufrieden geben,wenn man schon so viel Geld in die Hand nimmt und 250-300 Euro langfristig (Allso 1-2 Jahre) für eine neue Grafikkarte investiert ?!

Da reißen es die 30-40 Euro mehr für mehr VRAM auch nicht raus.

Zum Thema SLI:

Eine Fermi GTX 380 3GB und gut is :p

Die dürfte nun wirklich schon als einzelne Karte locker für jedes derzeit erhältliche und auch zukünftige Spiel ausreichen,selbst bei einer Auflösung von 2560x1600 + 16xAF und 8x AA .

Selbst Crysis wird die wohl in max. Details auf 2560x1600 + 16xAF und 8x AA mit über 30 FPS packen und wohl nur in Extremsituationen auf 25FPS rutschen,was bei Crysis aber immer noch spielbar wäre.

Nur wenn Crysis 2 rauskommt,wird man wohl dann wieder mal aufrüsten müssen und 3x Fermi GTX 380 3GB brauchen,um auf den max. Einstellungen bei 1920x1200 + 16xAF und 4xAA mit über 30FPS flüssig spielen zu können. :freak:
 
Thomson1981 schrieb:
I
Eine Fermi GTX 380 3GB und gut is :p

Die dürfte nun wirklich schon als einzelne Karte locker für jedes derzeit erhältliche und auch zukünftige Spiel ausreichen,selbst bei einer Auflösung von 2560x1600 + 16xAF und 8x AA .

Selbst Crysis wird die wohl in max. Details auf 2560x1600 + 16xAF und 8x AA mit über 30 FPS packen und wohl nur in Extremsituationen auf 25FPS rutschen,was bei Crysis aber immer noch spielbar wäre.

Nur wenn Crysis 2 rauskommt,wird man wohl dann wieder mal aufrüsten müssen und 3x Fermi GTX 380 3GB brauchen,um auf den max. Einstellungen bei 1920x1200 + 16xAF und 4xAA mit über 30FPS flüssig spielen zu können. :freak:


Woher weiußt du das? hate ne klaskugel? der gt 300 ist biosher nur für industrie und wissenschaft interessant, ich glaube der gt 300 ist garnet der tolle gamerchip. Emulation von tesselator und anderen features werden viel performance kosten und der große 768 kbyte cache kostet auch viele transistoren die kein fps mehr in spielen bringen. Die 512 shadereinheiten müssen meine ich auch iwas emuliren was der rv870 so kann außer den tesslator.

Von daher ist deine prognose sehr optimistisch, nehm vllt. mal die grüne brille ab und informiere dich etwas mehr über fermi, dan wüsstest du das deine aussage wohl etwas sehr hoch gegriffen ist.
 
das nenn ich fanboy u. dieser wurde enttarnt.....;)
ansonsten n1 fred @ HisN
 
LOL wie ihr Thomson1981 alle fertig macht? Das meiste was er gesagt hat stimmt einfach und die Performance von Fermi ist entweder extrem schlecht, oder extrem gut, was anderes kommt bei so einer neuen Architektur nicht in Frage. Daher hat er 50% Chance das er recht hat.

GTX 380 3GB FTW. Wenn die floppt -> HD 5870 2GB FTW. :rolleyes:
 
Kasmopaya schrieb:
ATI und Enthusiast passt nicht wirklich zusammen, Eyefinity ist auch nicht das was es hätte werden sollen, viele sind enttäuscht. Ich nicht, hab mir das schon vorher gedacht.
.

und jeder pole ist ein dieb, jeder össi doof und jeder schwarze ein krimineller, was?
und was ist an eyefinity so blöd, displayport hat jeder aktuellere, bessere bildschirm. mein nächster wird auch einen haben?

die aktuellen einzigen enthusiasten produkte gibts momentan von ATI, in maximaler Auflösung spielen geht momentan am besten mit ATI, 3 bildschirme nutzen geht nur mit ati, DX11 geht nur mit ATI, einen GT300 werden wir dieses jahr nicht mehr kaufen können (meine vermutung) und wie dieser wird,steht in den sternen, bisher haben wir nur ein sehr billiges Fake von kasmos UltraEnthusiastenFirma Nvidia gesehen, ein richtiges Enthusiasten Produkt.

Momentan gibt es kein SingleGPU produkt (egal wie viel Vram,klatsch meinetwegen 16gb drauf,dann gibst du a ruh) von Nvidia was eine wirklich 5870 abhängen kann, egal in welchem Szenario. Kannst mich aber gerne vom Gegenteil überzeugen,cih warte immer noch auf einen Beweis deinre seits.

gruß
 
Zuletzt bearbeitet:
sagt mal, könnt ich euren schei* privat per icq klären, das gehört hier nicht hin und der arme HisN -.- das hat seine gute idee ned verdient vor euch so kaputt gelabert zu werden

also klemmt euch euern glas kugel schei* auch ... den will keiner wissen ...
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
GTX 380 3GB FTW. Wenn die floppt -> HD 5870 2GB FTW.

Ich kann mir dein Gefasel vom V-Ram langsam nicht mehr anhören, weil es einfach falsch ist.
Gott hilf.
Bei Nvidia machen 2GB Karten etwas mehr Sinn als bei ATI und bei ATI nur wenn man ein CF benutzt und in 2560x1200 spielt mit AA spielt.
Nividia wird sicherlich keine 3GB Karte für den Consumer Markt launchen, weils keinen Sinn macht.
Ab 2GB ist sense.
 
Zuletzt bearbeitet:
Erst Tests der HD5870/2G samt SGSSAA werden zeigen, ob und wie stark die 1G-Version einbricht. Totalausfälle habe ich bei der 1G bisher nicht gesehen, das Speichermanagement steckt das SSAA offenbar sehr gut weg.
 
Ich kann mir dein Gefasel vom V-Ram langsam nicht mehr anhören, weil es einfach falsch ist.
Wie oft müssen wir das noch durchkauen? 1GB Version ok für Leute die jedes Jahr neu kaufen, ansonsten für 2-3 Jahre 2GB Version... Werd mir garantiert keine 1GB Version kaufen, behalte die Karte wenn dann ca. 2-3 Jahre...

Also kauf dir endlich die 1GB Version sei stolz das du beim schnellsten Flaggschiff ein paar € gespart hast...

Totalausfälle habe ich bei der 1G bisher nicht gesehen,
Das nicht, aber ab und zu ist sie auf GTX 285 Niveau(Vram lastigen Settings) und im CF bricht sie auch stark ein, sodass schon eine GTX 285 1GB SLI nah ran kommt. Das liegt doch bestimmt nicht nur am Vram?

Werden auch andere AA Modi wie 8x MSAA getestet oder nur SGSSAA? Vorallem im CF und 30" + QModi sollte sich einiges tun gegenüber den 1GB Modellen. Oder liegt hier ein anderer Flaschenhals vor? http://www.pcgameshardware.de/aid,6...-im-Test-Multi-GPU-Shootout/Grafikkarte/Test/
 
Zuletzt bearbeitet:
Wie willst du denn den V-Ram der Grafikkarte überhaupt ausnutzen, wenn diese Grafikkarte in 3 Jahren schon viel zu langsam für solche Settings ist? Die meistens Spiele die am Markt sind brauchen jetzt ncihtmal 512MB V-Ram.
Deine Argumentation hinkt @ Kasmopaya.
Vor 3 Jahren, da gabs ne x1950xtx , ich glaub es wäre sinnlos gewesen sich die mit 1024mb zu holen.

Kasmopaya schrieb:
Das nicht, aber ab und zu ist sie auf GTX 285 Niveau(Vram lastigen Settings) und im CF bricht sie auch stark ein, sodass schon eine GTX 285 1GB SLI nah ran kommt. Das liegt doch bestimmt nicht nur am Vram?

Ich sehe im Test kein GTX285 2GB SLI. Woran machst du denn deine Vermutungen überhaupt fest? Es gibt eigentlich gar keine Anhaltspunkte.
 
Zuletzt bearbeitet:
Wie willst du denn den V-Ram der Grafikkarte überhaupt ausnutzen, wenn diese Grafikkarte in 3 Jahren schon viel zu langsam ist?
Hab ich dir auch schon öfters gesagt, kannst du dir nix merken? DX 11 bringt mehr FPS und mehr Effekte... -> Rohleistung wird besser genutzt!
Vor 3 Jahren, da gabs ne x1950xtx
8800 GTX 768, warum ist die wohl schneller als eine GTS 250 max.OC 512MB...

Ich sehe im Test kein GTX285 2GB SLI. Woran machst du denn deine Vermutungen überhaupt fest? Es gibt eigentlich gar keine Anhaltspunkte.
Ich auch nicht, die Frage bleibt warum wurde keine GTX 285 2GB SLI + 8AA getestet. HD 5870 1GB CF währe komplett eingeholt worden. Es reicht ja schon das der Vorsprung nicht vorhanden ist bzw. sehr gering, HD 5850 1GB CF enttäuscht mal richtig.
 
Zuletzt bearbeitet:
Zurück
Oben