ATI HD3870X2 vs Nvidia Geforce 8800GTX

Status
Für weitere Antworten geschlossen.
AvenDexx schrieb:
es ging ihm lediglich um die angebliche Performancesteigerung von unrealistischen 60%. ;)
warum

2560x1600 X2 = 7,6 fps
eine normale 3870 schafft schon 9,8 mit nem Treiber für CF sind wir bei fetten 12-13 fps was doch schon rund 60% sind :D
das ist Marketing
 
Unyu schrieb:
Fakt ist: Die X2 ist von Mikrorucklern / gefakten FPS geplagt.
Fakt ist: Die X2 basiert auf keinem neuem Chip. -> Treiber sind bereits ausgereift.
Fakt ist: KEINE Seite berichtet groß über Mikroruckler -> Warum sollte AMD/NV dann das Problem beseitgen? Besonders weil es locker 10% der FakeFPS kosten würde.
Fakt ist: Die FakeFPS der X2 sind höher als von der GTX, sofern ein CF-optimiertes Spiel gestartet ist -> Man munkelt es gibt viele andere NonMainstreamspiele ohne CF-Support.
Fakt ist: Die X2 kostet 20% mehr.
Fakt ist: Die X2 verbraucht im Idle weniger und unter Last mehr; entsprechend ist auch die Lautstärke.
Fakt ist: Die GTX hat das Bessere AF und mehr/höhere AA-Modi.
Fakt ist: Die GTX hat 768MiB VRAM, die X2 nur 512MiB. Gut dafür braucht die GTX auch etwas mehr.
Fakt ist: Faktenschreiber werden als Fanboys bezeichnet.
Fakt ist: Die GX2 wird der selbe Rotz.
Fakt ist: Der Fredstarter hat all dies mit keinem Wort im ersten Post erwähnt.


PS. Mir ist es jetzt mal scheissegal ob eine Karte 1000 Kerne hat oder ob sie 20 Jahre alt ist oder ob sie eine 32bit SI hat oder ob sie rot oder grün ist.

Oh weia. Und du bist wirklich Gott? :lol: :lol: :lol: :lol:
Das du da so durchblickst ist gut. Einfach die HD 3870 X2 mal runter ignorieren und mit unklaren Fakten zudeuten. Komisch das die HD 3870 X2 in hohen Auflösungen erst anfängt gas zu geben. Aber sind ja nur 512MB RAM.[Ironie] Die GTX ist natürlich besser in allem, ist normal.[/Ironie] AA und AF hast du schon getestet. Nur das ATI schon immer das bessere Bild hatte erwähnst du nicht. Du kannst nichts über die Lautstärke sagen da du es nicht selbst getest hast. Die HD 3870 X2 ist mit sehr großen Abstand vor der 8800 GTX. Ist moderner. Ünterstützt SM 4.1. Die Treiber haben bei Crysis schon einiges bewirkt. Die Treiber können noch immer was bewirken da es einen neue Technologie ist. Und ein CF-Gespann, dort kann man die Treiber immer verbessern. Und die GTX ist einfach vom P/L nicht zu gebrauchen mal abgesehen das die von der Leistung her nie an die HD 3870 X2 rankommt. ;)

cYa :)
 
Rush| schrieb:
mal abgesehen das die von der Leistung her nie an die HD 3870 X2 rankommt. ;)
aber hallo, sogar Mr Parteiisch sagt in 5 Games besser! ;)
Mr.Mushroom schrieb:
Besser: In 14 von 19 Spielen!

wobei es bei den Werten IMO keinen Sieger gibt, entweder haben beide Karten extrem hohe FPS oder sind im Zweifelsfall Beide zu lahm, also soll doch jeder kaufen was er meint, überlegene Leistung finde ich bei keiner (mehr)
 
@Unuyo:
Hat es dich schon komplett???

1\ Diese machen sich nur unter 30FPS bemerkbar!
2\Na und, wenn sie trotzdem gute Leistung bringt?
3\=1\
4\Die 8800GTX hat gar keine Fake FPS
5\Die X2 kostet nur um 15% mehr(100%=Preis der 8800GTX);
Die Ultra kostet 50% mehr(100%=Preis der 3870X2)
6\So laut ist sie garnicht und außerdem zockst du ohne Ton?
7\ATI hat generell besser Grafikqualität, vor allem die HD3870X2 siehe hier: https://www.computerbase.de/2008-01...-x2/24/#abschnitt_performancerating_qualitaet
8\Die X2 hat 1Gb VRam, der jedoch nicht als einzelner Speicher gezählt wird
9\Nur um einiges teurer!Wenn die Ultra jetzt 530€ kostet, wieivel wird dann das neue High End Modell von Nvidia kosten,ha?
10\ Jetzt weißt du warum!

Ich hoffe, du hast deine Antidepressiva endlich gefunden!

@Findus:
Da wo die X2 besser ist(15 Games), ist sie ordentlich besser, siehe FPS!

Greetz.Mr.Mushroom
 
Zuletzt bearbeitet:
Gehört zwar nicht hierein aber Bezug auf die Frage.

Nen AMD 4000+ Single Core war in Vielen Spielen um
Einiges Schneller als ein Teurer 4800+ Dual Core.

Gehört zwar nicht hier hinein aber Sorry.

Ich würde gerne Mal Tests sehen von Games die Kein Crossfire Unterstützen
dann kann ich auch bei eienr MSI 3870 Bleiben.
 
@bazooExcalibur:
Jetzt wurden dir die Augen geöffnet und nun suchst du andere Spiele...
Wie geil ist denn das???^^

Greetz.Mr.Mushroom
 
@Rush|
Ja nen mich Gott.


Du kannst also nicht konkreter werden.
Lautstärke: Die Reviews zeigen an Hand von Messungen eine höhere Lautstärke. Ton hin oder her.
Modederner: Wie gesagt wayne, bzw worin ist sie eigetnlich moderner? SM4.1: Ach komm bei den vielen Anwendungen, bis heute ist doch sogar D3D10 uninteressant.
Bildqualität: Wir vergleichen gerade G80 mit RV670, also nochmal.
Treiber: Jaja die Wunder Treiber, nochmal wir vergleichen was auf dem Tisch liegt.
Leistung: Wie gesagt Fake FPS.
Preis: Wie gesagt 20% ist die GTX billiger. Ist die X2 auch immer, abzuglich der Verluste dank Mikroruckler 20% schneller, in jedem Spiel? Nein Tim.


PS. Full-Quote rul0rt!


@Mushroom
1] Quatsch! Die sind Nachgewiesen, such doch mal bitte.
9] Die Ultra ist bereits seit einiger Zeit EOL, die GX2 wird also locker bei 400-500€ starten.
Die Ultra steht auch nicht zur Diskussion, siehe Fredtitel.
10] Ja der Fredstarter bestreitet Fakten.

11] Ja endlich werde ich nicht mehr ignoriert, sogar das Wort Fanboy sehe ich nicht mehr. :)
 
laß die Finger von den Pilzen

4/ er meint SLI (wie auch bei der GX2) nicht die GTX
7/ was haben die FPS mit AA/AF mit "Bildqualität" zu tun, wenn die Settings gleich sind

wenn dann müsste man einen Unterschied sehen in den Screenshots (irgendeiner)
https://pics.computerbase.de/1/8/3/5/0/14-1080.3880492196.jpg
vs
https://pics.computerbase.de/1/8/3/5/0/15-1080.1493500336.jpg

8/ ja meine CPU hat auch 12GHz, is klar

@Findus:
Da wo die X2 besser ist(15 Games), ist sie ordentlich besser, siehe FPS!
trozdem ist
15 oder 19 keine welt und zu wenid
und 150 zu 290 is mir auch latte also Wayne
 
Zuletzt bearbeitet:
Das mit der Bildqualität ist immer so eine Sache, unter XP mit dem ich beide Rechner bestückt habe gefällt mit die Bildqualität meiner 7900GTX mit dem 158,22 beser als die der 2900er mit dem 7.12- ist wohl subjektiv als Kriterium. Zum zweiten Wäre nicht schlecht wenn hier mal wieder ein bißchen mehr Sachlichkeit rein kommt
Gruß
 
Gut genug Pilze für Heute.

Findus schrieb:
wenn dann müsste man einen Unterschied sehen in den Screenshots (irgendeiner)

Siehe:
CB-R600-Artikel schrieb:
Die Differenzen sind gering, aber sie sind da. Das Bild vom R600 wirkt in wenigen Teilen unschärfer, weswegen wir schlussfolgern, dass das störende Texturflimmern etwas gemindert worden ist.
[...]
Deaktiviert man nun die Optimierungen, so gibt es kein Halten für den G80 mehr. Kein Flimmern ist erkennbar und die trilineare Filterung arbeitet einwandfrei. Dagegen kommt auch das ATi-Ergebnis auf dem R600 mit deaktiviertem A.I. nicht an. Die trilineare Filterung bereitet keine Probleme, das Bild sieht aber weiterhin unruhiger aus.
[...]
Man kann das Texturflimmern auf Bildern erahnen, wirklich sehen tut man diesen Effekt aber nur in Bewegung.

[...]
Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden, bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten.
 
Aussage: Die X2 hat 1GB Speicher
Antwort: Meine CPU hat 12GHZ;

Was geht denn hier ab?

cya!

Greetz.
 
du kannst die werte nicht addieren, ganz einfach

zumindest bei NV weis ich das es kein shared Memory ist sondern dedizierter pro Karte, wird bei ATI auch so sein

wenn du das ned kapierst lass es einfach gut sein und sag "Ja"
 
Mr.Mushroom schrieb:
Aussage: Die X2 hat 1GB Speicher
Antwort: Meine CPU hat 12GHZ;

Was geht denn hier ab?

ich fands lustig und zutreffend ist es auch ...
 
wer mal die aktuelle PCGH oder ein anders PC Magazin zur hand nimmt wird auch sehen das trotz der neuen treiber die leistung nicht verbessert wurde und der vorsprung zur GTX/ULTRA GAR NICHT so gross ausfällt wie auf vielen seiten beschrieben

und wir wollen mal nicht von DX10 anfangen was da mit der X2 ist
 
Zuletzt bearbeitet:
@ bl.. schwarz (gegenteil von weiß)

Man sollte ein gesamtes Rating nicht immer unbewertet lassen. Wenn man Spiele, wie Anno oder Oblivion nur mal spontan nehmen würde und die GTX mit der HD 3870 X2 vergleicht, dann klafft dort schon eine gehörige Leistungslücke, wo die R680 GPUs ganz klar als Sieger hervorgehen. Und das sind nur zwei Spiele, die zwar etwas betagt sind, aber dennoch opulent aussehen. Von daher kannst du deine Aussage wieder einfahren.
 
ich finde es eine frechheit und absolut lächerlich, die GTX als überteuert anzusehen!
die leistung der beiden karten hin oder her, aber der preis von nicht mal 300€, für den die GTX heute mittag verfügbar war, ist einfach auf keinen fall überteuert!

und ich will erstmal was von diesen viel zitierten 60% mehr leistung durch den treiber sehen, bevor ich mir die X2 hol!!
 
Och Leute, das ist ja echt übel hier....


Die X2 ist eine schnelle und recht gute karte, so wie auch die GTX oder sonstwas... Wird CF unterstützt ist die X2 schneller wenn nicht meistens die GTX. Preisliche Differenzen sind wohl vernachlässigbar.
Für jemand der ein Dual GPU System will, ist die X2 eine gute Alternative da sie Chipsatzunabhängig ist. Für leute die auch in Spielen ohne multi-GPU-Support die maximale Performance wollen ist eine schnellere Singlekarte ala GTX besser. Fertig. Mehr gibt es nicht zu sagen. Ok eins noch bei haben vor und nachteile, die GTX mit dem VRAM Bug (habe ich noch nicht erlebt) und die X2 Mikrorukler (habe ich auch noch nicht gesehen).

@Pilzi: bitte kauf dir eindlich eine und erspar uns solche Fanboywarthreads... ;)

Im übrigen hatte ich vorhin auch Pilze. Pfifferlinge...
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
He He:evillol:
Scheint so als würden eine Menge Leute mit plötzlich viel weniger Geld auf dem Konto die Freuden des Testens, Grübelns und den bitteren Geschmack der Enttäuschung wenns doch dann zuviel Arbeit ist kennenlernen.
Gruß
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben