News Erster Test: GeForce 9800 GX2 schlägt HD3870 X2

das wär ja auch nen schwache Leistung gewesen wenn die nich schneller wär

die Chips sind ja einzeln schon schneller
 
ja ich würde gern mal sehen was auf bei min 8xAA passiert.

Zudem wäre es Interessant zu wissen ob ATI das 4xAA Defizit per Treiber in den Griff bekommt.

Weiß jemand wie die Preisliche Differenz zwischen den Karten ist?, denn wenn die ATI Karte ne Ecke weniger kostet ist sie wesentlich attraktiver, denn so viel langsamer ist sie ja nicht. Außerdem wäre der Stormverbrauch beider Karten sehr sehr wichtig.
 
ach immer diese lächerlichen dual GPU Lösungen. Nvidia hat mich hoffnungslos enttäuscht mit ihrer gammligen 9000er REFRESH serie, wirklich lächerlich was sie da auf den Markt werfen...

Ich bin froh, dass ATI ihnen so richtig den Hintern aufreißen wird in ein paar Monaten wenn die 4870 alle Rekorde schlagen wird, die 4870X2 sowieso, aber solange es mikro ruckler gibt werde ich sicher keine dual gpu karte holen.
 
Unyu schrieb:
Oft wird dies fälschlicherweise als VRAM Bug bezeichnet.

Fakt ist nunmal eine solch starke Karte mit wenig VRAM muss irgendwann mal einbrechen, hier also bei hohen Auflösungen mit AA, da wo der VRAM längst übervoll ist.

Ein Treiber kann da auch nicht helfen, mit besseren Treibern kann NV die Kompression verbessern, also die Bandbreitenausnutzung verbessern aber der VRAM Bedarf bleibt.
Abhilfe kann nur ein größerer VRAM bringen.

Unyu schrieb:
Das liegt nur am viel zu geringen VRAM von 512MiB.
Mit 1GiB rennt die GX2 davon.


Die X2 hat auch nur 512MB ram pro chip
Das ist nur eine ausrede.
Entweder die treiber bringen es oder nicht und genau so ist es auch bei der x2.
Oder hat die GX2 nur 256MB pro chip?

edit:mal noch so am rande die x2 ist noch PC-e 1.1 und nicht 2.0,erst die mit DDR4 soll mit PC-e 2.0 kommen
 
Zuletzt bearbeitet:
einfach müll nvidia soll die leute nicht so verarschen!! nicht mal sli funt bis jetzt 100% überall,und da wos funz hast vllt.10-20 fps mehr(eine karte 100fps) eine karte war schon immer besser,billiger,keine probs,usw ;)
 
xerox33 schrieb:
einfach müll nvidia soll die leute nicht so verarschen!! nicht mal sli funt bis jetzt 100% überall,und da wos funz hast vllt.10-20 fps mehr(eine karte 100fps) eine karte war schon immer besser,billiger,keine probs,usw ;)

das hat man anfangs, als die Dual cores kamen auch alles gesagt^^


gruß
 
Ich finde es ja vorallem faszinierend, wie hier Karten die erst in ein paar Monaten erhältlich sind, als Vergleich herangezogen werden. Wartet ein halbes Jahr, und ihr werdet vermutlich auch eine neue Nvidia-Karte bewundern können. Wenn der G9X nur eine geshrinkte Variante des G80 ist, dann hatten die genug Zeit, an etwas neuem rumzuwerkeln.

Auf Benchmarks mit Beta-Treibern kann man eigentlich verzichten, die sagen ja mal garnichts aus. Was passiert, wenn man Beta-Treiber benutzt, sieht man ja an den vielen 0.

Zur Karte: Ich finde sie eigentlich recht interessant - so hat man mal einen Vergleich, was eine Dual GPU im Vergleich zu einem SLI System leistet.

Für mich persönlich eher uninteressant - vermutlich zu hoher Preis und zu hoher Stromverbrauch. Ich warte mal dezent auf den Test von der 9800 GTX, das dürfte eine interessante Karte zu einem vernünftigen Preis werden.

Greetz
 
Panne die Karte, das Bisschen mehr Leistung rechtfertigt den Preis bestimmt nicht. Und noch derber find ich ja dass die das Teil als GeForce 9 vermarkten, is doch Schwachsinn.
 
Laut Nvidia steht die 9 nur dafür, das diese Karte im Jahr 2008 rausgebracht worden ist.

Greetz
 
Beste Preis/Leistung hat ATI, da kommt NVIDIA mit seinem Heizkessel nicht ran! Zudem scheint NVIDIA nicht nur Verträge mit Crysis zu haben, sondern auch mit e-on und co. Ein Grund mehr ATI die Stange zu halten !!!
 
War ja klar... Muß man nur zwei ATI CF mit zwei nVidia SLI Karten vergleichen. Ist auch nVidia a bissal schneller.
Das kann man von mir aus mit 100 ATI Chips gegen 100 nVidia Chips auf einer Karte machen. Wird auch nVidia schneller sein.
 
Zuletzt bearbeitet:
Es überrascht mich nicht, dass die GX2 schneller ist. Allerdings ist der Unterschied nicht wirklich gross. Bin gespannt, wie das bei 1920 x 1200 aussehen wird und bei Spielen.

Egal wie schnell sie ist, meine GTX wird bis zum echten Nachfolger nicht ausgetauscht. Refresh-GPU´s ftl.

@ DvP: Crysis kannst eh flüssig spielen. bei 1280 x 960 mit mittleren Details :)
 
Zuletzt bearbeitet:
Valix schrieb:
ATI hatte die erste Dual GPU Karte ATI Radeon 1900X2 oder 1950X2 die war aber net lange auf m Markt und die war vor der 7950X2 Drausen :-):king:

um es mal ganz genau zu nehmen ^^ die erste Dual-Karte, meines Wissens, war die ATI Rage Fury MAXX

/Topic
Naja, nicht so der Brüller. Glauben und Wissen werde ich es eh erst wenn CB einen Test Online stellt. Der Rest ist zu 75% eh nur rot oder grün "gefärbt" (wobei grün eindeutig überwiegt ;)).
 
Namenlos04321 schrieb:
Die X2 hat auch nur 512MiB ram pro chip
Ist mir bekannt, aber danke für den Hinweiß, mir ist es übrigens egal wie viel VRAM die X2 hat, dass die X2 dank 55nm so "sparsam" ist erwähnst du auch nicht extra.

Jetzt beachte du jedoch was ich mit diesen Sätzen geschrieben habe. Wer bei einer NV mit 512MiB glaubt Highend zu bekommen, der irrt.
Das war halt eine Designentscheidung, die NV Karte will mehr VRAM, also gebt ihr mehr! Ich kann dir garantieren, das der VRAM in diesen Test bei weitem nicht gereicht hat.

Wer hier auf Treiber hofft ist auf dem Holzweg.

Problem dürfte nur sein, ob eine 1GiB Version erscheint, denn dafür ist ein neues Layout notwendig um 16 Speicherchips unterzubringen. Und bei teuren Karten mit voraussichtlich wenig Margen ist das nicht so lohnenswert.
 
Soso HD4870 mit über 2 TFlops .... wers glaubt

Anfang 2007 Hieß es auch der G92 soll über einen TFlop leisten... war dann wohl doch nix.

Aber wenn hier einige meinen sich an Gerüchten hochziehen zu müssen bitte.

Greetz
Ganzir
 
Pfff, ich möchte eine Karte die einen Extrachip für 2D-Modus hat und da sowenig Strom wie möglich braucht. Leistung und Stromverbrauch bitte nur im 3D-Modus. Vermutlich würden sich dadurch ~200-300 Euro im Jahr sparen lassen bei 24/7 Nutzung.
 
Zuletzt bearbeitet:
Zurück
Oben