Test GeForce 9800 GTX im Test: Nvidia vergisst bei neuer Serie die Neuerungen

miagi schrieb:
ah ich hab mir gerade den 9800GTX-Test von THG durchgelesen, da viel nachvollziehbarere FPS-Zahlen auflistet. Da erkennt man das die 9800GTX nicht so viel schneller ist das man seine 8800GTX weghauen sollte, in einigen tests ist die 8800GTX sogar leicht vor der 9800GTX.
naja bei dem gerinen abstand kann jeder denken was er will wenns umbedingt das neuste sein muss soll man die 9800GTX vergöttern und die 8800GTX vergessen. wer eine 8800GTX hat und vernuenftig ist behaelt die erstmal, bis echte kunkurenz ins sicht ist.

:rolleyes:
Ich glaube, das steht wirklich außer Diskussion. Die 9800GTX ist kein Nachfolger der 8800GTX, das sagt sogar nVidia, sie soll die 8800GTX ablösen, da die Produktion des G92 für NV deutlich günstiger ist. Niemand, der einen G80 besitzt, sollte auf die neue 9800 wechseln. Selbstverständlich und wurde hier auch, wenn meines Erachtens auch unnötig da das wohl jeder selbst verstehen sollte, zig mal durchgekaut.

@ku_ku_ck:

Zum Glück spiel ich eh keine Egoshooter, daher hab ich damit auch keine Probleme!

-.- Glaubst du etwa, das liegt am Genre? Halte ich für sehr naiv. nVidia bremst die 8800er hier absichtlich aus. Das grenzt, nein ist Betrug. Finde ich unglaublich sowas. Und möglicherweise verstärkt sich diese künstliche Herabstufung durch zukünftige Treiber nur noch.
 
@ku_ku_ck:

Meine Anmerkung bezüglich der Egoshooter bezog sich nicht auf deinen letzten Beiträg mit der Treiber-Verarsche von Nvidia, sondern auf den davor!

Nur die Edith war auf den letzten Beitrag von dir gemünzt (mein Fehler, dass ich das nicht deutlich gemacht habe, sry!)

Nein, das glaube ich selbstverständlich nicht!
 
Hallo zusammen,

@ miagi

Sorry, aber das steht doch sowieso außer Frage. Meiner Ansicht nach rechnet sich für jeden Besitzer eines alten G80, also ab einer 8800 GTS mit 640 MB, in keiner Weise ein Wechsel zu einem der neuen G92 Modelle.

Von einer 8800 GTX oder Ultra ganz zu schweigen. Ich bin sogar der Ansicht, daß man lieber das Geld zum Tapezieren nutzen sollte, da ist es in meinen Augen besser angelegt:evillol:.

So long....
 
@ alle die den "Bandbreitlimitierungsmythos" ins Feld führen:

Machen wir doch mal einen kleinen Schwenk in den Profibereich...

Kennt ihr zufällig die Quadro FX5600?

Diese Karte basiert auf dem G80 und hat ungefähr die
Ausstattungsmerkmale und Taktraten der 8800 GTX.

ABER bei einem 384-Bit SI komt ein - sage und schreibe -
1,5 GB großer Grafikspeicher zum Einsatz.
Wie erklärt ihr euch das? Eurer Theorie nach wäre das ja kompletter
Nonsens. Und bitte nicht vergessen - es handelt sich um den G80
und nicht um den G92, von dem wir ja alle inzwischen wissen (sollten),
dass er bei weitem nicht so stark bandbreitenabhängig ist wie der G80.

Es lohnt sich wirklich mal kurz darüber nachzudenken.
Unyu hat sich die größte Mühe gegeben euch das näherzubringen.


Es klemmt maßgeblich bei den ROPs bzw. der z-/ Pixelfüllrate.
Hätte Nvidia sein Fazit aus der 8800 GTS gezogen,
die Leistung der ROPs entsprechend verbessert, eventuell
sämtliche Taktraten noch ein wenig nach oben geschraubt
und 1 GB höherwertigen V-RAM verbaut, dann wäre die 9800 GTX
ein wahres Feuerwerk geworden.
In den aktuellen Standardauflösungen bis 1600x1200 mit qualitätssteigernden Features
hätte sie mit einer derartigen Ausstattung warscheinlich sämtliche anderen Karten auf dem
Markt in Grund und Boden gerechnet und sogar die Ultra mit deutlichem Abstand auf Distanz gehalten.
Und das ohne große Leistungsschwankungen!

Der G92 ist wirklich eine sehr effiziente Architektur.
Die Konkurrenz hat bis zum heutigen Tage nicht
ein einziges Produkt auf Augenhöhe zu bieten...
 
Zuletzt bearbeitet:
BERBERJESUS schrieb:
@ alle die den "Bandbreitlimitierungsmythos" ins Feld führen:

Machen wir doch mal einen kleinen Schwenk in den Profibereich...

Kennt ihr zufällig die Quadro FX5600?

Diese Karte basiert auf dem G80 und hat ungefähr die
Ausstattungsmerkmale und Taktraten der 8800 GTX.

ABER bei einem 384-Bit SI komt ein - sage und schreibe -
1,5 GB großer Grafikspeicher zum Einsatz.
Wie erklärt ihr euch das? Eurer Theorie nach wäre das ja kompletter
Nonsens. Und bitte nicht vergessen - es handelt sich um den G80
und nicht um den G92, von dem wir ja alle inzwischen wissen (sollten),
dass er bei weitem nicht so stark bandbreitenabhängig ist wie der G80.

Es lohnt sich wirklich mal kurz darüber nachzudenken.
Unyu hat sich die größte Mühe gegeben euch das näherzubringen.


Es klemmt maßgeblich bei den ROPs bzw. der z-/ Pixelfüllrate.
Hätte Nvidia sein Fazit aus der 8800 GTS gezogen,
die Leistung der ROPs entsprechend verbessert, eventuell
sämtliche Taktraten noch ein wenig nach oben geschraubt
und 1 GB höherwertigen V-RAM verbaut, dann wäre die 9800 GTX
ein wahres Feuerwerk geworden.
In den aktuellen Standardauflösungen bis 1600x1200 mit qualitätssteigernden Features
hätte sie mit einer derartigen Ausstattung warscheinlich sämtliche anderen Karten auf dem
Markt in Grund und Boden gerechnet und sogar die Ultra mit deutlichem Abstand auf Distanz gehalten.
Und das ohne große Leistungsschwankungen!

Der G92 ist wirklich eine sehr effiziente Architektur.
Die Konkurrenz hat bis zum heutigen Tage nicht
ein einziges Produkt auf Augenhöhe zu bieten...

Du weist schon das die Quadro serie für CAD anwendungen gedacht ist, und somit der Schwerpunkt auf etwas anderem liegt (para solids etc. )
 
Du weist schon das die Quadro serie für CAD anwendungen gedacht ist, und somit der Schwerpunkt auf etwas anderem liegt (para solids etc. )

Wollte ich auch gerade sagen. Die Karte wird jediglich in Workstations für, wie bereits genannt, 3D-CAD eingesetzt und ist für den Privatbetrieb glaube ich noch nicht einmal geeignet, abgesehen vom Preis.
 
Zuletzt bearbeitet:
Soll das jetzt wirklich ein ernst gemeinter Einwand sein?
Dann muss ich jetzt aber wirklich herzhaft lachen...
Warum, das kannst du dir jetzt erstmal selbst überlegen.
Falls du nicht von selbst drauf kommen solltest,
dann bekommst du morgen 'ne Antwort. Versprochen!

Und nur mal nebenbei - auch wenn das immer als erstes
angeführt wird (weil es XY von seinem Bekannten XX weiß) -
die Quadros sind nicht ausschließlich für Computer Aided Design
vorgesehen und ausgelegt.
 
Nein die Quaddcores sind nicht nur für CAD ausgelect es gibt auch noch FEM. Das ist ein Nummerisches Berechnungsverfahren und skaliert super mit Quads. Die ganzen Dinger werden nur für die Industrie gebaut, das was wir davon abekommen ist ein schlaffer abklatsch.
 
BERBERJESUS schrieb:
Soll das jetzt wirklich ein ernst gemeinter Einwand sein?
Dann muss ich jetzt aber wirklich herzhaft lachen...
Warum, das kannst du dir jetzt erstmal selbst überlegen.
Falls du nicht von selbst drauf kommen solltest,
dann bekommst du morgen 'ne Antwort. Versprochen!

Und nur mal nebenbei - auch wenn das immer als erstes
angeführt wird (weil es XY von seinem Bekannten XX weiß) -
die Quadros sind nicht ausschließlich für Computer Aided Design
vorgesehen und ausgelegt.

Ausschließlich für CAD sicherlich nicht, aber mit Sicherheit vorwiegend für Workstation-Aufgaben. Freue mich aber schon auf deine Erklärung. Und das ist mein Ernst. Ich lasse mich auch gern von etwas anderem überzeugen. Da ich sicherlich nicht so gut in solchen Dingen bewandert bin wie du oder apre oder sonst irgendwer, liegt das auch nahe.

Wieso von 'nem Bekannten? Es gibt viele Leute, die im Beruf mit CAD-3D zutun haben und aus 1. Hand sprechen können, wenn es um solche Karten geht.
 
miagi schrieb:
was bringts wenn die 8800gtx schneller ist aber selbst nur 5-10 fps auf den bildschrim zauber?

In 1600x1200 liefert sie aber noch bei verdammt vielen Spielen eine ausreichende Leistung, 30 Prozentpunkte unterschied kommen nicht von ungefähr.
Bei 2560x1530 geb ich dir Recht, aber diese Auflösung tangiert hier keine 1%.
 
@BERBERJESUS:

Kannst du den "Speichermangel-Mythos" auch so einfach entkräften? :D

Werden die Spiele der nächsten Generation also weniger oder gleichviel vRam benötigen als die Aktuellen?

Ich meine schön wärs ja, aber das ist angesichts einer immer grösseren Anzahl an Polygonen immer anspruchsvolleren Effekten und immer höher auflösenden Texturen, sowie der Verbreitung von immer grösseren Monitoren wohl eher nicht zu erwarten, oder wie siehst du das?

Und wenn man bedenkt, dass ein Spiel wie etwa Tomb Raider Legend bereits vor 2 Jahren 512MB-Karten benötigte (die wurden auch von Crystal Dynamics bzw. Eidos als Recomended angeführt) um optimal zu laufen und keine Nachladeruckler mehr zu produzieren...

also ich weiss ja wirklich nicht! ;)
 
Danke für den tollen Test.
In meinem Rechner werkelt eine FETTE OC G92. Damit bin ich sehr zufrieden! Brauch keine 9800 GTX.

Grüsse
 
Hallo zusammen,

@ BERBERJESUS

Entschuldige, aber was du hier propagierst, kommt in etwa dem Vergleich von Äpfel und Birnen gleich. Die jeweiligen Einsatzgebiete sind definitiv nicht vergleichbar.

@ Miagi

Gerade in Spielen wie "Crysis" können "lediglich" 5-10 Frames den Unterschied zur Spielbarkeit ausmachen.

So long.....
 
Ist die 9800gtx jetzt zu empfehlen oder soll man doch lieber die alte 8800gtx nehmen (größerer Speicher etc.). Und wie könnte das Kräfteverhältnis in Zukunft aussehen? Kann die 9800gtx etwas, dass die 8800gtx nicht kann?

Bei hardwareversand.de ist die günstigste 9800gtx mit gerade einmal 238€ gelistet, die 8800gtx ist hingegen sogar teurer. Bin momentan ziemlich verwirrt...
 
@Fox
Die 8800 ist nicht teurer. Ich schlage mal vor du liest, was hier auf 14 Seiten diskutiert worden ist :rolleyes:

www.geizhals.at/deutschland gibt dir die günstigsten Preise (fast immer).



209€ exkl. - 8800gtx
Derzeit ist sie in meinen Augen günstiger UND besser (in hohen Auflösungen). Allein deshalb macht die Diskutiererei keinen Sinn. Wenn die 8800gtx dann bald mehr kostet als die 9800gtx, dann kann man aufs Neue diskutieren. Bloß dann kommt der Hd4000 usw.
 
Zuletzt bearbeitet:
Also gut...

@ ku_ku_ck & Luxmanl525
Vorweg kurz zum Thema "Äpfel und Birnen":
Was hat der unterschiedliche Anwendungsbereich eigentlich
mit der verwendeten Technik zu tun? Schonmal darüber nachgedacht?
Offensichtlich nicht. Das einzige was die Karten letztendlich unterscheidet
ist die Beschaltung (und die Selektion der verbauten Komponenten).
Als Treiber kommen bei den Quadros sogar die stinknormalen
Force-Ware Treiber zum Einsatz. Es handelt sich hier also ganz eindeutig um einen
"Apfel mit Apfel" Vergleich! Aus dem einen Apfel wird eben Apfelsaft (GTX) und
aus dem anderen wird - das edlere Getränk - lecker Apfelmost (Quadro FX)... ;-)
Die Quadro können daher eben "alles". Die GF "nur" Spiele.

Nochmals etwas detaillierter zur Leistungsfähigkeit:
Die o. g. Quadro kommt bei einem Chiptakt von 600 MHz und einem Speichertakt von 800 MHz (GDDR3)
tatsächlich (bei der G80 Datenkompression!) auf ~ 76,8 GB/s an Bandbreite.
Dabei können problemlos bis zu 2 ultrahochauflösende Digital-Flachbildschirme
in Auflösungen bis 3840x2400 betrieben werden!
Wie rechenintisiv CAD-, MCAD-, DCC-, CATIA V5 u/o andere Visualisierungsanwendungen
sind brauche ich wolhl nicht näher zu erläutern.

Bis wir im Nerd-Bereich mal solche Auflösungen haben werden, vergeht warscheinlich noch
ein Jahrzehnt. Überlegt euch mal wieviele PC-Nutzer derzeiten 'nen Moni mit 1600x1200
am laufen haben und künftig haben werden. Das ist doch schon eine Minderheit.
Hinzu kommt natürlich die Platzproblematik.
Man sieht's doch heute schon. Viele Leute sagen bereits bei den 20" oder 22" Displays -
"nee, is mir zu groß! So 'ne Wumme kommt mir nicht auf meinen Schreibtisch".
Ich persönlich würde auch nicht über 22" hinausgehen. Da bleiben einem dann zwar die
ultimativen Auflösungen verwehrt, aber wen interessiert das schon? Vor nicht allzu langer
Zeit war man noch mit 1024x768 glücklich...
Für die 0,X % der Privatanwender, die in nächster Zeit mit Auflösungen > 1600x1200
fahren baut NV sicherlich keine Grafikkarten. Das ist kein Markt sondern eine lustige Niesche.

So, und jetzt hab ich mich wieder irgendwo verrant und
weiß nichtmehr was ich eigentlich schreiben wollte. );

@ Arno Nimus:
Nö, kann und will ich auch gar nicht. ;)
1 - 2 GB V-RAM werden in naher Zukunft sicherlich benötigt werden.
Doch auch hier im Grafikbereich stoßen wir an die 32-Bit Grenzen.
Je nachdem wie lange das mit der Komplettumstellung auf 64-Bit noch
dauern wird, wird es Karten mit enstsprechend viel V-RAM geben.
Bis wir also Grafikkarten mit mehr als 4 GB sehen werden
wird es meiner Einschätzung nach darum noch etwas länger dauern.

Ganz eindeutig gehören den hochauflösenden Texturen die Zukunft.*
Doch bis es wirklich so weit ist, sind wir warscheinlich schon bei der GeForce
11 oder 12...

Edit:
*Aber eben auch nur bis zu einer gewissen Grenze. Gerade in Anbetracht der
elefantengroßen Monitore. Es stehen nicht alle drauf vom Bild erschlagen zu werden...
Man wird also künftig viel eher auf konstante Leistung & Bildqualität insgesamt setzen.
Das Ende der Fahnenstange bei den Auflösungen ist schon in Sicht bzw. recht gut
kalkulierbar.
 
Zuletzt bearbeitet:
Danke BERBERJESUS, genau so denke ich auch. Ich mein ich hab nen 17" Monitor und es soll maximal! 22" werden, aber denke eher 19". Ich habe gestern die 9800GX2 zugelegt (für 100 Euro :D aufpreis auf meine alte GTX) und bin absolut zufrieden. Viele meckern rum, weil sie zu überdimensioniert ist .. und zuwenig Speicher hat. Allerdings läuft bei mir nun auch Crysis so wie ich es will. Der Vram ist zuwenig sagt ihr, aber ich denke 512mb kann man noch einige Zeit benutzen, wenn man diese auch effektiv nutzen würde. Vorallem wie BERBERJESUS schon sagt, denke ich ..sind 90% aller User bereits an der Grenze mit ihrer auflösung und ihren Monitorgrößen. Vondaher wird die zukunft nur noch Stabile Frame raten zeigen bei max. 1600x1200 ..darüber hinaus wird wohl kein Hersteller (Nvidia / AMD) mehr gehen...warum auch?

Ihr sagt immer in hohen auflösungen ist die 8800GTX besser ... nunja dann zeigt mir mal einen der mit 2500Xbla spielt -.- glaubt ihr doch wohl selber nicht.

Jeder der vor der entscheidung steht 8800GTX oder 9800GTX soll sich die 9800GTX holen. Sicher wird dieser glücklicher als mit der 8800gtx
 
Mir scheint die Grafikkartenbranche benötigt einen neuen Mitbewerber.
Die Leistungssteigerungen der letzten Jahre sind eher bescheiden. Da bewegt sich so gut wie nichts.
Wo keine Konkurrenz ist, stagnierts :\

Auch ich finde die neue Bezeichnung als Verschwendung auf die nur Unbedarfte hereinfallen würden, die kaufen sich jedoch nicht so eine teure Grafikkarte, womit die wohl ein Ladenhüter wird.

Kein Grund aufzurüsten (zum Glück :D).

Ich werd meine GTX wohl länger verwenden müssen, als mir ev. lieb ist :)
 
Zurück
Oben