News Zotac präsentiert GeForce 9800 GTX+ (AMP!)

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.966
Kurz bevor ATi das NDA zur Radeon-4800-Serie hat fallen gelassen, klingelte etwas überraschend das Telefon: Um einen Gegenpart für die Radeon HD 4850 zu haben kündigte Nvidia an, kurzerhand eine GeForce 9800 GTX+ ins Rennen schicken zu wollen und bot uns im Vorab zwei Testsamples an.

Zur News: Zotac präsentiert GeForce 9800 GTX+ (AMP!)
 
Vom Design her sehr ansprechend :)
 
Warum gründet die Performance Bewertung von CB immer auf einfachen Timedemos die den VRAAM Bug bei Nvidia nicht aufzeigen?

Was bringen mir 50 Frames im Leistungstest wenn das Game nach einer viertel Stunde zur Ruckeorgie wird?!
 
Mal sehen wie die sich schlägt.
 
Wo sehe die vom Designe anderst aus als zb. eine 8800GTS ? auser das was draufgedruckt ist.

Bin auf dein Verbrauch und die Leistung gespannt.
 
Versteh grad nicht was an dem Design so neu ist.... oO

Meiner Meinung nach ist das eine Angstreaktion von nVidia, da sie kein wirklichen gegenspieler für die 4850 haben.
 
kalle28 schrieb:
Warum gründet die Performance Bewertung von CB immer auf einfachen Timedemos die den VRAAM Bug bei Nvidia nicht aufzeigen?

Was bringen mir 50 Frames im Leistungstest wenn das Game nach einer viertel Stunde zur Ruckeorgie wird?!

Weil der VRAM-Bug zwar noch präsent, nicht aber mehr so eklatant ist wie zu Beginn. Schon meine kleine 8800GT lässt mit halbwegs aktuellen Treibern nichts mehr dergleichen von sich wissen.
 
die Designs sind doch meistens zu 100% gleich, selbst wenn es ein "anders" Modell ist
Kaum ein Hersteller bringt heute wirklich noch was eigenes.
Hier und da vllt mal ein bessere (oer auch nicht) kühler. aber mehr nicht.
 
1,6% mehr gpu takt ist echt ein hammer :rolleyes:
ich versteh ja das sich die hersteller von der konkurrenz hervorheben wollen, aber ist das wirklich mit 12mhz getan?
bisher war die amp! edition für recht hohe übertaktungen bekannt und nicht für solche lächerlichen aktionen
 
@AndrewPoison falsch selbst mit aktuellen Treibern spürt man den Vrambug selbst bei einer 8800Gtx je mehr Vram die Spiele brauchen deso schneller erschöpft sich der Vram.Naja und der Trend geht nun mal hin zu mehr Vramverbrauch.Ich würde dir mal empfehlen Call of Juarez im Dx10 Modus mit AA zu spielen da siehste wie schnell der Gt die Puste ausgeht.
 
Zuletzt bearbeitet:
@xxxx: Ich nehm mal an für die Settings ist sie allgemein zu langsam. Es geht aber um den VRAM-Bug, sprich, die Spiele werden erst mit der Zeit langsamer. Und das hab ich nichtmal bei Crysis erlebt (unter XP auf High). Ich kann natürlich nicht sagen das dies pauschal bei allen Grafikkarten so ist, aber in meinem Fall (kann mir den VRAM ja mittels Everest auch auf der G15 anzeigen lassen) ist alles zu jeder Zeit im grünen Bereich.
 
Ich schon sogar bei ner 8800Gtx und auch in Crysis war zwar nur ein oder zweimal aber es passiert auch dort.Schlimmer war es wie gesagt bei Call of Juarez das Spiel wurde immer ruckliger mit AA von diversen Abstürzen und Treiberfehlern garnicht zu reden.
 
Eine 9xxx geht sowieso "immer" auf mind. 760 zu takten...
Es gibt keinen Vram-Bug.
Hat es auch noch nie gegeben, meiner Information nach.

Die GF8/9 512MB Karten fangen schon bei 300MB an Vram ins Ram auszulagern.
Viele Spiele lassen blödsinnigerweise zu, daß der Anwender Einstellungen vornimmt, die mit der verwendeten Hardware nicht harmonieren.
Bei ATI wird das besser abgefangen, keine Frage, auch die Texturkomprimierung scheint ohne sichtbare Verschlechterung weit höher zu sein.

Irgendwie kann man die Grafikeinstellungen der Karten gar nicht mehr wirklich vergleichen, zu unterschiedlich sind die Zugänge zur Bildaufbereitung.
Daher konnte ich auch noch keine Test so richtig nachvollziehen, bzw. bewirken kleinste, im Spielablauf unbemerkbare Änderungen des Settings teils einen dramatischen FPS zuwachs.
Egal welche Karte.

Ich finde:
Jeder Spieler der sich eine Karte unter 1GB je GPU zulegt, der kauft bald wieder...sehr bald.
 
Zuletzt bearbeitet:
Lachhaft.
170€ für ne grafikkarte die von der Leistung her einer HD 4850 für 130€ entspricht...paar prozent hin oder her je nach game und so sind mir hier egal.

Sie ist lauter im Lastbetrieb.
Braucht genauso viel Strom, idle wie last.

Der einzige Vorteil IMHO ist sie läuft nicht soo heiß...was aber kein Argument ist, da die Abwärme dieselbe ist und nicht zu vergessen der größere die der 9800 GTX auch eine flächigere Kühlung darstellt. Die Kühl-/Wärmeleistung ist aber nahezu identisch:
Idle: 9800 GTX+ 328 K*324 mm^2 = 106272 K/mm^2
Last: 9800 GTX+ 349 K*324 mm^2 = 113076 K/mm^2
Differenz also 6804 K/mm^2 Wärmeleistung

Idle: HD 4850 342 K*260 mm^2 = 88920 K/mm^2
Last: HD 4850 359 K*260mm^2 = 93340 K/mm^2
Differenz: 4420 K/mm^2

Das einzige das hier noch von interesse sein kann ist der Fertigungsprozess in 55nm der 9800 GTX+ und dessen Auswirkungen auf Stromverbrauch und Wärmeleistung...
 
AndrewPoison schrieb:
@xxxx: Ich nehm mal an für die Settings ist sie allgemein zu langsam. Es geht aber um den VRAM-Bug, sprich, die Spiele werden erst mit der Zeit langsamer. Und das hab ich nichtmal bei Crysis erlebt (unter XP auf High). Ich kann natürlich nicht sagen das dies pauschal bei allen Grafikkarten so ist, aber in meinem Fall (kann mir den VRAM ja mittels Everest auch auf der G15 anzeigen lassen) ist alles zu jeder Zeit im grünen Bereich.

Der VRAM-Bug tritt ja auch nur in Vista auf!

Hatte den früher selber mit meiner 8600GTS KO von eVGA mit 256 MB.... Bioshock 10min gespielt und es begann zu ruckeln.. Einmal ALT+TAB, dann wieder rein ins Spiel, und es ging wieder.
 
Bei der lächerlichen Takterhöhung sieht man wohl das die Möglichkeiten der G80 basierten Chips nun entgültig ausgeschöpft sind, selbst mit der neuen Fertigung. Da kann man auch gleich zu einer normalen 9800+ greifen und da sein Glück versuchen.
Oder gleich zu einer 4850.
 
Jup ne HD4850 ist immernoch die weit bessere Wahl.

Ich bin mit der aktuellen Situation am Markt eh sehr zu frieden.
Ne 8800GTS G92 für 172€ for 3-4Monaten kann imernoch die meisten Spiele perfekt darstellen und mit ein wenig Takterhöhung ist sie auch leicht auf Nivaeu der HD4850 zu bringen. So billig wie die GPUs seit circa eineinhalb Jahren sind waren sie noch nie.
 
Zurück
Oben