Test Test: nVidia GeForce 8800 GTX

->teXcor<- schrieb:
Hier stand ein völlig sinnloses Full-Quote!

1. ist die GF 8800 GTX deutlich schneller als jede andere aktuelle Karte. Daher schon interesant. Auch wenn es bis jetzt noch keine DX 10 Spiele gibt.

2. wenn interesiert schon ATI? ;)
 
Zuletzt bearbeitet von einem Moderator:
Blackvoodoo schrieb:
Hier stand ein völlig sinnloses Full-Quote!


Zu 2
mehr leuten als Du gerne hättest nVidia Fanboy! Aber wen interresiert schon AMD....könnte man auch sagen!
 
Zuletzt bearbeitet von einem Moderator:
Phossi schrieb:
Hier stand ein völlig sinnloses Full-Quote!

Siehst du den Smilie nicht? Ich bin kein nVidia Fanboy, hatte vor meiner Geforce 7800 (jetzt ja GF 7950 GX2) z.b. eine Radeon X800.
Würde es jetzt statt der GF 8800 GTX die Ati R600 geben, und währe die auch so toll, würde ich die kaufen.
 
Zuletzt bearbeitet von einem Moderator:
Zwei Hersteller sind viel zu wenig da können die eh machen was die wollen mit der Kundschaft.
Das was gerade neu raus kommt hat gerade genug Leistung wie gebraucht wird z.b. bei Oblivion....aber was kommt nach diesem Spiel?
Es kann doch nicht sein,daß man sich zwei mal im Jahr ne neue Graka kaufen muß für um die 600€ um alles was noch kommt im laufe des Jahres flüssig spielen zu können!?
Das ist kein fortschritt sondern abzocke denn 630€ für eine 3 Monats Highendkarte ist einfach zu viel.

Kein Wunder das die Leute bei den Konsolen Schlange stehen!
 
Zuletzt bearbeitet:
Es gibt aber auch Titel auf den Next-Gen Konsolen, die nicht wirklich flüssig laufen. ;)

Oblivion ist einfach nicht sauber programmiert. Da hilft wohl die schnellste Graka nichts. :(

mFg tAk
 
Next gen Grafikkarte
768Mb GDDR RAM
600€
Satter Stromverbrauch

Und spiele der next gen laufen immer noch nicht flüssig!!!
Oblivion 26fps... oh man... (kommt mir jetzt nicht mit ist schlecht programmiert)

Frage mich was so toll an der Karte sein soll und wo die "brutale Leistung" sein soll, die hier von manchen angebetet wird?

Sind 26fps brutale leistung auf höchstem niveau?
So groß sind die Unterschied zur vorgengä generation nicht, ne 7900GX2 hält da locker mit.

Warum bringen die Hersteller nicht neue Karten die auch ein mehr an Leistung bringen`? Immer diese 10fps sprünge -.-

Von neuer generation erwarte ich min. 50% mehr Leistung als der betse chip der letzten generation.

Sprich 7900GX2 + 50% mehr Leistung + Dx10 + Sm4.0

Aber 20% mehr ist ja lächerlich, kann den Hype nicht nachvollziehen.
 
Zuletzt bearbeitet:
Bin ja mal gespannt was die nächste generation kosten soll, wenn wir die MwSt Erhöhung überstanden haben;)
 
@Kokojin

Was den Stromverbrauch angeht, so ist dieser geringer als bei manch anderen Karten, wenn man den Verbrauch mit der resultierenden Leistung vergleicht.

Oblivion ist schlecht programmiert.
Und nur zur Info, bei der 8800GTX läuft Oblivion mit hohen Einstellungen doppelt so schnell wie auf einer X1950XTX oder GX2.
Also macht das 100% Leistungszuwachs. Aber dies kommt dennoch nicht so ganz hin, da dieses Game so bes**issen programmiert ist. Es gibt aber auch Tests wo Oblivion wirklich gut läuft (1600x1200 4xAA 16xAF auf der 8800GTX mit 54fps), dies könnte auch an den Treibern oder an der schnelleren CPU liegen.
Oder guck dir mal Company of Hereos an, da ist eine 8800GTX 3mal so schnell wie eine 7950GX2 bei hohen Einstellungen und bei noch extremeren Einstellungen zieht die 8800GTX die 7950GX2 sogar mit dem mehr als 5fachen an Geschwindigkeit ab. Das war auch nur ein Beispiel, guck dir mal das Review hier an, da wirst du in etwa sehen wozu der G80 im Stande ist.
Aber leider gibt es nicht arg viele Spiele, die die Leistung des G80 wirklich zeigen können, da die meisten Engines noch auf die ältere Architektur aufbauen. Dann kommt noch die Leistungsbremse DX9 daher und die Treiber für den G80, die sich ja auch noch so stark im Betastadium dass man denken könnte das sind Alphas und das wird durch eine "langsame" CPU (FX60) auch nicht besser mit der Leistung. Und Vista wird da auch noch die Dualcores besser ausnutzen können, wovon eine schnelle Grafikkarte auch noch profitiert und von 64Bit mal ganz zu schweigen. Fest steht dass der G80 so effizient aufgebaut ist wie schon lange kein Grafikchip mehr. Aber effiziente Hardware muss auch effizient angesprochen werden und das ist bis jetzt noch nicht wirklich der Fall. Deswegen find ich das ja auch so krass, dass der G80 unter solchen Umständen noch richtig abgeht und sogar zwei der bisher stärksten Grafikkarten in die Knie zwingt.

Die 8800GTX ist schon eine bombige Karte und nicht annähernd so schlecht wie du sie darstellst. Man muss da nur etwas über den Tellerrand hinaus schauen, seinen Verstand einsetzen und fast sämtliche Tests zum G80 durchlesen dann weiss man das. ;)

tomi0112 schrieb:
Bin ja mal gespannt was die nächste generation kosten soll, wenn wir die MwSt Erhöhung überstanden haben;)


Deswegen schlag ich auch noch vor dem 1.1.07 zu.
 
Zuletzt bearbeitet:
bei Oblivion wird eine extrem hardwarehungrige Szene getestet ... d.h. wenn in diesem Benchmark 25fps erreicht werden, wird es sonst nie ruckeln ... habe selbst nur eine ASUS TOP SILENT 7600 GS ... auf dem Niveau einer 7600 GT. Oblivion läuft bei 1184+2AA flüssig ... nur in dem Wald bricht es halt ein (15fps, was noch gut spielbar ist)... ist wirklich nicht so schön programmiert/optimiert.

werde mir die 8600 GT auf jeden Fall leisten ... über kurz oder lang.
 
Mich würde mal Interessieren warum in euren Tests bei der HDTV Wiedergabe nur WMV9 verwendet wird ?
Und das ganze dann noch mit dem alten WMV9 decoder der mit dem WMP10 ausgeliefert wird. WMP11 und/oder Windows Media Format SDK 11 bringen unlängst einen neuen WMV9 decoder mit, welcher übrigens auch decode acceleration über DirectShow unterstützt.

Warum testet ihr die Karten nicht auf MPEG4 ?
Ja, da hast du ohne Zweifel recht., Es war schon vor langer Zeit geplant, auf H.264 umzusteigen, was sich aber mit den nVidia- bzw. ATiDecoder schiweriger gestaltet, als man zuerst annimmt. Wir arbeiten dran und hoffen, dass mit dem nächsten Testsystem endlich zu schaffen.

Heisst ihr habt für die 7900GTX einen alten Treiber verwendet und für die 7900GTO einen neuen ? Das macht in meinen Augen keinen Sinn. Die Karten müssen mit Identischen Treibern getestet werden.
Der Leser will mit Sicherheit sehen wie die Wahren Leistungsunterschiede in der decode acceleration zwischen den Karten sind.
Wie so oft erwähnt, ja, haben wir. Den Grund will ich jetzt aber nicht zum hundersten Mal hier nennen.
 
Wolfgang schrieb:
Ja, da hast du ohne Zweifel recht., Es war schon vor langer Zeit geplant, auf H.264 umzusteigen, was sich aber mit den nVidia- bzw. ATiDecoder schiweriger gestaltet, als man zuerst annimmt. Wir arbeiten dran und hoffen, dass mit dem nächsten Testsystem endlich zu schaffen.

Hallo Wolfgang,

Hmh ? Also zumindest Nvidia hat gar keinen eigenen h.264 Decoder. Wie das bei ATI weiss ich nicht, wäre mir aber neu.
Derzeit gibt es glaube ich 3 Decoder die Nvidias (und wohl auch ATI´s) h.264 decode acceleration unterstützen, Cyberlink, Nero und InterVideo. Cyberlink's ist wesentlich schneller als Nero's, welcher als ich ihn zuletzt getestet habe (vor 3 Monaten ca.) dazu auch noch etwas Fehlerhaft war. Ob InterVideo's WinDVD8 h.264 Decoder brauchbar ist wird sich zeigen, habe darüber bisher noch nicht gehört.

Ich bin kein Video Experte habe aber einen sehr großen Erfahrungsschatz im Anwendungsbereich zum Thema Nvidia PureVideo. Wenn ihr in euren künftigen h264 Tests mal vor einem Rätsel steht oder eine offene Frage habt könnt ihr mich gerne Kontakten.

so long,
Johnny

P.S. Wenn du magst kannst du auch nochmal einen Blick auf meine Ergebnisse bezüglich der angeblichen WMV9 DXVA Leistungsunterschiede zwischen alter und neuer Forceware werfen. Siehe: MSI GeForce 7900 GTO Thread
 
Ich finde es generell unsinnig sich jezt n g 80 zu holen außer wenn man sich gerade mit ner 6800er karte rumärgert und nun aufrüsten will.
Denn wenn man im moment ne schnelle Karte hat auf r520\580 bzw G70\71 basis dann lohnt es sich meiner Meinung nach zu warten denn ich glaube kaum das Ati jetzt wo die Leistung des G80 bekannt ist einen lahmeren r600 bringen wird. Deswegen wird sich warscheinlich später Ati die Performancekrone zurückholen und plötzlich bringt NV nen G81 oder so und Ati später dann wiederum z.B den R680 und alle die ihre im moment noch völlig ausreichenden Karten gegen den G80 getauscht haben beißen sich dann in den Arsch :lol: weil ihr G80 nun nurnoch Mittelfeld ist (siehe 7800er reihe) und sie ne menge Knete investiert haben für die Leistung die man zu dem Zeitpunkt wo man sie braucht auch schon für 250 Euro bekommt.
So wars bei der lezten Generation und so wirds mit relativ hoher Warscheinlichkeit auch bei der kommen . :evillol:
Und wert hat schon n Monitor der ne 2500er Auflösung mitmacht und selbst wenn ist immernoch die Frage wer brauchts denn sieht ne 1600er auflösung so viel schlechter aus? Also ich kann selbst mit ner 1280er auflösung gut leben. Und dafür reichen die Highend karten der lezten Geforce bzw der jetzigen ATi generation noch aus. Aber wenn man natürlich der Sohn von Bill G. is dann hat man auch genuch knete um sich alle 3 wochen ne neue Graka zu hohlen. :D

:D MFG

PS: @ Master_Chief_87
Wenn man den Stromverbrauch ner Geforce 2 mit der resultierenden Leistung vergleicht ist die auch n stromfresser. Ist doch klar das bessere Fertigungsprozesse mehr Leistung bei weniger verbrauch schaffen doch wenn man das so sieht wie du dann wäre der Stromverbrauch bei der Übernächsten generation so hoch das du dir n 2000 Watt NT zulegen müsstest und n wahres Heizkraftwerk in deinem Zimmer hättest.
Die Hersteller können einen Höheren Stromverbrauch nicht mit Höherer Leistung begründen in der richtung muss was kommen. Mann kann den Stromverbrauch nicht unendlich höher werden lassen. Das ist nicht gut für deine Stromrechnung und für die Natur sowieso nicht. Ich meine ich kann wenn ich 4 mal den 3d Mark durchlaufenlasse mein Zimmer mit der Abwärme meiner X1900XTX Heizen und das ist kein Scherz.
 
Zuletzt bearbeitet:
geile karte aber ich hab noch nirgendswo die 88serie mit wasserkühlung gesehen und auf den bilden der vorgestelllten auch nich nich
 
Wolfenstein 2k2 schrieb:
Da bin ich guter Dinge, dass sich der Preis so langsam aber sicher deutlich unter 600€ einpendelt.

Da bin ich eigentlich auch recht zuversichtlich. Mit steigender Verfügbarkeit wird auch der Preis sinken. Die Karten sind im Moment wirklich zu teuer.

*Klick*

mFg tAk
 
Kokojin schrieb:
Frage mich was so toll an der Karte sein soll und wo die "brutale Leistung" sein soll, die hier von manchen angebetet wird?

Also zwischen 20 und 30% mehr Leistung gegenüber einer Doppel-GPU-Karte wie die 7950GX2 finde ich schon beeindruckend.

Kokojin schrieb:
Sind 26fps brutale leistung auf höchstem niveau?
Oblivion ist einfach grottenschlecht programmiert. Das kann Dir jeder bestätigen.

Kokojin schrieb:
Von neuer generation erwarte ich min. 50% mehr Leistung als der betse chip der letzten generation.

Hast Du doch auf bestimmten Auflösungen gegenüber der 7900GTX, also nvidias bestem chip der Vorgänger-Generation. Siehe Anhang :rolleyes:

Mfg
 

Anhänge

  • Screenshot - 11.11.2006 , 15_23_21.png
    Screenshot - 11.11.2006 , 15_23_21.png
    28,7 KB · Aufrufe: 593
  • Screenshot - 11.11.2006 , 15_23_40.png
    Screenshot - 11.11.2006 , 15_23_40.png
    12,3 KB · Aufrufe: 590
Die Graka abteilung ist einfach nur nervtötend. Neue bezeichnung neue marketing tricks etwas mehr an leistung und eine bisschen bessere grafik. Aber ich bin der meinung da sollte man wirklich schon größere schritte nach vorne machen können. Also in einem zeitalter wo es so krasse Kampfjets gibt, wo man sogar in den All fliegen kann und es Sataliten gibt und all des krasse zeugs düfte man schon eignetlich langsam eine grafik bei spielen erwarten die endlich mal überzeugen sprich z.B Horror shooter bei dem der mutigste endlich mal in die Hose scheisst.
Ich finds schade.
Hab mir z.B FM2007 geholt. die spieler in den 3D Spielen sind ja dümmer als 5 jährige kinder. ( ja ich weiss CPU, aber die Grafik lehnt sich auch an den scheiss an)
Hab langsam echt kein bock mehr.
Da ist G80 auch keine asnahme.
Ich hoffe auf die PS3, weil mann da die spiele nur auf eine grafikkarte zuschneiden muss und demnach auch wirklich einiges rausholen kann aus grafikkarten, sprich PS2. Dafür dasd der keine bedeutsame Graka hat hat der ne gute Grafik gehabt seinerzeit.

Mal schauen viellicht in 10 jahren.
 
@JohnnyFu

Bei nVidia geht das auch wunderbar, nur bei ATi hakts noch ein wenig;)
 
Hallo zusammen,

Habe seit Freitag die 8800 GTS (abgespeckte Version) Das Ding läuft auf 1600x1200 bei Oblivion hervorragend. Werde mir diese Woche noch eine zweite einbauen für maximalen Gamespass :-)))). Die Karte kommt erst bei hohen Auflösungen zu Ihrer herrlichen Geltung, einfach geil das Ding... Der Prozesser ist wohl nicht mehr so Matchentscheidend, aber die GRAKA muss rocken und rauchnen. :) :) :) :)

AMD 4000, 2 GB Ram, 2xRaptor 10200Umin im Raid Verbund, 21 Zoll Monitor Samsung

Gruss aus der Schweiz..
 
Zurück
Oben