Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Kurz bevor ATi das NDA zur Radeon-4800-Serie hat fallen gelassen, klingelte etwas überraschend das Telefon: Um einen Gegenpart für die Radeon HD 4850 zu haben kündigte Nvidia an, kurzerhand eine GeForce 9800 GTX+ ins Rennen schicken zu wollen und bot uns im Vorab zwei Testsamples an.
Weil der VRAM-Bug zwar noch präsent, nicht aber mehr so eklatant ist wie zu Beginn. Schon meine kleine 8800GT lässt mit halbwegs aktuellen Treibern nichts mehr dergleichen von sich wissen.
die Designs sind doch meistens zu 100% gleich, selbst wenn es ein "anders" Modell ist
Kaum ein Hersteller bringt heute wirklich noch was eigenes.
Hier und da vllt mal ein bessere (oer auch nicht) kühler. aber mehr nicht.
1,6% mehr gpu takt ist echt ein hammer
ich versteh ja das sich die hersteller von der konkurrenz hervorheben wollen, aber ist das wirklich mit 12mhz getan?
bisher war die amp! edition für recht hohe übertaktungen bekannt und nicht für solche lächerlichen aktionen
@AndrewPoison falsch selbst mit aktuellen Treibern spürt man den Vrambug selbst bei einer 8800Gtx je mehr Vram die Spiele brauchen deso schneller erschöpft sich der Vram.Naja und der Trend geht nun mal hin zu mehr Vramverbrauch.Ich würde dir mal empfehlen Call of Juarez im Dx10 Modus mit AA zu spielen da siehste wie schnell der Gt die Puste ausgeht.
@xxxx: Ich nehm mal an für die Settings ist sie allgemein zu langsam. Es geht aber um den VRAM-Bug, sprich, die Spiele werden erst mit der Zeit langsamer. Und das hab ich nichtmal bei Crysis erlebt (unter XP auf High). Ich kann natürlich nicht sagen das dies pauschal bei allen Grafikkarten so ist, aber in meinem Fall (kann mir den VRAM ja mittels Everest auch auf der G15 anzeigen lassen) ist alles zu jeder Zeit im grünen Bereich.
Ich schon sogar bei ner 8800Gtx und auch in Crysis war zwar nur ein oder zweimal aber es passiert auch dort.Schlimmer war es wie gesagt bei Call of Juarez das Spiel wurde immer ruckliger mit AA von diversen Abstürzen und Treiberfehlern garnicht zu reden.
Eine 9xxx geht sowieso "immer" auf mind. 760 zu takten...
Es gibt keinen Vram-Bug.
Hat es auch noch nie gegeben, meiner Information nach.
Die GF8/9 512MB Karten fangen schon bei 300MB an Vram ins Ram auszulagern.
Viele Spiele lassen blödsinnigerweise zu, daß der Anwender Einstellungen vornimmt, die mit der verwendeten Hardware nicht harmonieren.
Bei ATI wird das besser abgefangen, keine Frage, auch die Texturkomprimierung scheint ohne sichtbare Verschlechterung weit höher zu sein.
Irgendwie kann man die Grafikeinstellungen der Karten gar nicht mehr wirklich vergleichen, zu unterschiedlich sind die Zugänge zur Bildaufbereitung.
Daher konnte ich auch noch keine Test so richtig nachvollziehen, bzw. bewirken kleinste, im Spielablauf unbemerkbare Änderungen des Settings teils einen dramatischen FPS zuwachs.
Egal welche Karte.
Ich finde:
Jeder Spieler der sich eine Karte unter 1GB je GPU zulegt, der kauft bald wieder...sehr bald.
Lachhaft.
170€ für ne grafikkarte die von der Leistung her einer HD 4850 für 130€ entspricht...paar prozent hin oder her je nach game und so sind mir hier egal.
Sie ist lauter im Lastbetrieb.
Braucht genauso viel Strom, idle wie last.
Der einzige Vorteil IMHO ist sie läuft nicht soo heiß...was aber kein Argument ist, da die Abwärme dieselbe ist und nicht zu vergessen der größere die der 9800 GTX auch eine flächigere Kühlung darstellt. Die Kühl-/Wärmeleistung ist aber nahezu identisch:
Idle: 9800 GTX+ 328 K*324 mm^2 = 106272 K/mm^2
Last: 9800 GTX+ 349 K*324 mm^2 = 113076 K/mm^2
Differenz also 6804 K/mm^2 Wärmeleistung
Idle: HD 4850 342 K*260 mm^2 = 88920 K/mm^2
Last: HD 4850 359 K*260mm^2 = 93340 K/mm^2
Differenz: 4420 K/mm^2
Das einzige das hier noch von interesse sein kann ist der Fertigungsprozess in 55nm der 9800 GTX+ und dessen Auswirkungen auf Stromverbrauch und Wärmeleistung...
@xxxx: Ich nehm mal an für die Settings ist sie allgemein zu langsam. Es geht aber um den VRAM-Bug, sprich, die Spiele werden erst mit der Zeit langsamer. Und das hab ich nichtmal bei Crysis erlebt (unter XP auf High). Ich kann natürlich nicht sagen das dies pauschal bei allen Grafikkarten so ist, aber in meinem Fall (kann mir den VRAM ja mittels Everest auch auf der G15 anzeigen lassen) ist alles zu jeder Zeit im grünen Bereich.
Hatte den früher selber mit meiner 8600GTS KO von eVGA mit 256 MB.... Bioshock 10min gespielt und es begann zu ruckeln.. Einmal ALT+TAB, dann wieder rein ins Spiel, und es ging wieder.
Bei der lächerlichen Takterhöhung sieht man wohl das die Möglichkeiten der G80 basierten Chips nun entgültig ausgeschöpft sind, selbst mit der neuen Fertigung. Da kann man auch gleich zu einer normalen 9800+ greifen und da sein Glück versuchen.
Oder gleich zu einer 4850.
Jup ne HD4850 ist immernoch die weit bessere Wahl.
Ich bin mit der aktuellen Situation am Markt eh sehr zu frieden.
Ne 8800GTS G92 für 172€ for 3-4Monaten kann imernoch die meisten Spiele perfekt darstellen und mit ein wenig Takterhöhung ist sie auch leicht auf Nivaeu der HD4850 zu bringen. So billig wie die GPUs seit circa eineinhalb Jahren sind waren sie noch nie.