HD 3870X2 Sinnvoll ?

Ich halte beides für sinnlos ... wer ein X38 Board und genug Platz hat, sollte imo wenn, dann zwei geOCte HD3870 nutzen.

cYa
 
Normalerweise sollten die dann den Takt angleichen, ich würds aber nicht unbedingt riskieren. Lieber die eine Karte per BIOS-Mod angleichen.

cYa
 
@ MaNoFsTeeL

Die Geforce 10 wird laut Nvidia au nur ca 40% schneller sein wie die Geforce 9. du darfst nicht bei jeder Generation so einen Sprung wie bei dem g80 erwarten,dass war ne einmalige phänomenale Sache.

Der R700 soll laut AMD ende des 2. Quartals kommen,also Juni. Ob das stimmt lässt sich aber in Frage stellen.
 
Schinzie schrieb:
@ MaNoFsTeeL

Die Geforce 10 wird laut Nvidia au nur ca 40% schneller sein wie die Geforce 9. du darfst nicht bei jeder Generation so einen Sprung wie bei dem g80 erwarten,dass war ne einmalige phänomenale Sache.

Wir sprechen uns nochmal, wenn die Geforce10 da ist :)

Als ob Nvidia das nicht nur sagt, damit die Leute die Geforce9 kaufen.

~.~

Wenn die sagen würden: "Ach Leute, übrigens wird die Geforce10 auch bei hohen Auflösungen mit AA / AF wieder überzeugen". Was meinst du, wie viele Leute dann noch die 9800GX2 kaufen würden?

Die Geforce9 ist fast eine Rückentwicklung gerade bei hohen Auflösungen, und ich bin FEST davon überzeugt, dass die Geforce10 sich mit RIESIGEM Abstand von der Geforce9 absetzen wird in hohen Auflösungen mit AA / AF.

Wie gesagt, wenn du noch in nem halben Jahr hier im Forum anwesend bist, werd ich dich daran erinnern XD

Und übrigens, wenn sich die 40% auf hohe Auflösungen inklusive AA / AF beziehen, bin ich ja zufrieden, denn dort ist die 9800GX2 ja nicht so unglaublich stark, wie der Preis vermuten lassen würde. Wenn ich alleine schaue auf 1600x1200 4x AA 16xAF, in den Einstellungen spiel ich halt immer, da ist diese 9800GX2 nur c.a 20% schneller als eine 8800Ultra. Das ist einfach viel zu wenig. Leute, die eine 9800GX2 kaufen, werden dies sicherlich nicht tun um auf 1280x1024 ohne AA / AF zu spielen. Dazu dann noch das Problem, dass es eben eine Dual Grafikkarte ist, Mikroruckler, ab und zu Treiberprobleme bei Release von neuen Spielen.

Im Endeffekt wirst du manchmal sogar unter der Ultra landen bei 1600x1200 (1680x1050) mit AA und AF.

Ich tippe ja nach wie vor auf ein 512er SI bei der Geforce10, und das würde dann schon reichen für die hohen Auflösungen :>
 
Zuletzt bearbeitet:
jo,wir sprechen uns dann nomml^^.

Ich weiß nicht ob sie mit 40% durchschnittsmehrleistung, mindestmehrleistung oder mehrleistung in hohen Auflösungen meinten. In hohen Auflösungen wird sie sicher mehr als 40% besser sein,aber nicht in niedrigen. 512bit SI wird der GT200 haben, soweit i des weiss ist des aber dann erst der Nachfolger von der Geforce 10, kann das sein? hängt mich da jetzt bitte net drauf. Aber man kann wohl sicher sein,dass sie net wieder mit einer 512mb high end lösung kommen^^.

gruß
 
Das kann niemand wissen. Ist doch plausibel dass Nvidia "Fleisch-Infos" Fudzilla zuwirft damit man wieder was zum kauen hat. Die High-End Lösung alias Wannabe GT200 wird ganz anders aussehen. Einfach bei Nvidia als Werkstudent arbeiten :-)
 
also wenn ich das richtig verstanden habe ist die gt200 nur ne übergangslösung zwischen g92 und g100 weil der g100 bereits dx11 enthalten soll...
wie hoch die leistung sein wird hängt aber vor allem von ati ab. nv spart sich die highendmodelle ja schon seit dem g81 auf, weil einfach dir konkurenz fehlt. ursprünglich hätte ja im märz 2007 der g81 kommen sollen der vor allem 50% mehr shader als der g80 haben sollte und ausserdem einen die-shrink und gddr4... als sich dann herrausstellte dass die gefürchtete radeon 2800xt (später dann hd2900) nur n papiertiger war, wurde der g81 ja abgeblasen und man wollte direkt im november 2007 auf den g90 umsteigen, der angeblich einen terraflop schnell sein sollte... da ati aber auch da noch nich die g80 überflügelt hatte kam halt nur n ableger (g92) der dem aktuellen leistungsniveau entsprach...
wenn der rv770 alles bisherige wegrockt macht nv nen riesensprung nach vorne, wenn der rv770 nur marginal besser wird wie der g92 dann wird auch die gf10 wieder nur n müder aufguss werden...
aber es kommt ja auch angeblich noch der larabee von intel mit einem terraflop... der würde zumindest die leistung des g90 erzwingen...
und ich bin sicher dass ati seine hausaufgaben gemacht hat und nach nem kurzen durchhänger (r6x0) wieder zur alten form auflaufen und nv zum schwitzen bringen wird :)
der g80 war einfach zu genial um da so spontan ne passende antwort drauf zu haben...
 
Nvidia ... Nvidia... Nvidia
wenn ich noch einmal Microruckler lesen muss, bekomme ich nen Koller! Sorry jungs aber wenn ihr keine objektive Meinungen geben könnt und nur ne Geforce empfehlt weil ihr selbst damit zockt dann lasst doch einfach die Postings!
Es gibt mehrere Punkte warum hier einige mit einem CF-Gespann nicht klarkommen und das liegt nicht an den nicht existierenden Microrucklern oder der massiven Spieleprobleme!
Welch ein Blödsinn. Die x2 ist vom P/L wirklich eine gute Karte. Ich spiele sämtliche Spiele von 199x an bis 2008 in maximaler Auflösung, AA und AF ohne irgendwelche Abstürze oder sonstigem.
Ich kann nichtmal mehr an 10 Fingern abzählen wieviele Idioten (sorry) ihre x2 wieder zurückgeschickt oder getauscht haben weil sie langsamer war (bei Crysis) als eine Single 3870 oder 8800GTS. Woran das liegt wird jedem klar der ein wenig Ahnung von der Materie hat. Wenn ihr euch damit nicht beschäftigen wollt und mit euren Crysis FPS protzen wollt dann bleibt bei Nvidia. Mal davon abgesehen das die Firmen- bzw Preispolitik von Nvidia sowieso nen riesen mist ist. Sieht man ja an der 9800gx2. So eine Verarsche am Kunden und auch nur weil sie sich Sorgen um ihr "Monopol" machen.
Ich empfehle dir eine x2. Wenn du irgendwelche Probleme haben solltest kannst du dich gerne via PM melden.
 
Diese "Idioten" können ja wohl nichts dafür, wenn die Treiber der X2 nur AFR bieten und die X2 bei Probs mit CF dann lahmer als eine HD3870 ist. Genausowenig können die Käufer etwas für die mittlerweile unbestreitbar vorhandenen Mikroruckler - die nicht immer, aber oft viele auftreten, wie genug namhafte Pages/User zeigen. Auch auf die Skalierung lässt sich außer über das (teils zu Bildfehlern führende) exe-renaming kein Einfluss nehmen, hier ist man auf Gedeih und Verderb den Treibern ausgeliefert - und das diese bei nV wie bei DAAMIT nicht so wirklich ausgereift und fehlerfrei sind (wie sie sein sollten), ist ja wohl glasklar. Bis für das neue Lieblingsgame der CF/SLI-Treiber/Patch kommt, haben es die CF/SLI-User schon längst auf nur einer von zwei GPUs gezockt und der Reiz ist schon weg wenn der Treiber endlich mal kommt und das Gespann performt wie gedacht.

Und mal ganz nebenbei ist die X2 genauso ein "wir-müssen-auf-Teufel-komm-raus-die-nominell-schnellste-Karte-haben"-Produkt wie es die GX2 ist.

cYa
 
genau die x2 kann man ja auch so einfach mit der gx2 von nvidia vergleichen. ne karte die 500 Euro kosten soll und nur erschienen ist weil nvidia und sein ego den vorsprung von ati nicht verkraften konnten. aber streiten kann man sich ja bekanntlich am besten über "liebschaften". ich kann die meisten vorwürfe gegen dual gpus nicht verstehen. klar gibt es probleme. wer hat die nicht? ati ist bekannt für ihre mehr oder weniger schlimmen treiberprobleme. aber es sind nicht nur die treiber sondern auch der support von nvidia in die spieleindustrie der dafür sorgt das ati mit vielen spielen auf der strecke "verkümmert".
 
Das hat weniger mit Support denn der Architektur zu tun. nV haben schon immer mehr auf Werbung und PR gesetzt als DAAMIT, im Endeffekt machts aber doch die Architektur. Die 9700/9800, die X8x0 sowie die X1k GPUs waren den nV-Produkten in Sachen Power klar überlegen, vor allem der R3xx und der R520. Mit der R(V)6xx Architektur hat sich DAAMIT aber in Sachen Performace böse vertan, die Allesfresser G8x/G9x sind schlicht überlegen, weil ihre Architektur den aktuellen Games mehr entgegen kommt. Die R(V)6xxx bieten eine krasse Arithmetik-Power, dafür aber viel zu wenig Texturfüllrate, dieses Verhältnis ist einfach (noch) nicht gefragt. Wessen Werbevideo uns vor dem zocken nervt, ist egal, die Kohle bzw. der eventuelle Support der Entwickler sagt nichts darüber aus, wie ein Game auf einer bestimmten GPU performt. Der, der zuerst Samples liefert, auf den wird früher und besser optimiert, zudem muss die Architektur mit der Engine harmonieren. Diese Kombi macht die Fps.

cYa
 
ohje Gobliner, wenn du kein fanboy bist weis ichs auch nich mehr -.-
wenn nv es nicht verkraften könnte dass die x2 besser ist (was sie allerdings auch lange nicht in allen tests ist!) dann würden sie schlicht und ergreifend eine ihrer unzähligen g80-nachfolger-gpus auf den markt werfen die vor sich hinstauben... nv hat überhaupt kein interesse daran ati davonzuziehn, weil ohne diesen "wettstreit" die absatzzahlen sinken würden wenn man einen "status quo" erreicht hat...
der einzige sinn der gx2 liegt im marketing. die leistung könnte nv jederzeit mit einer einzel-gpu karte übertreffen.
und dass ati seine karten zu den niedrigen preisen anbietet ist nicht aus nächstenliebe zu seinen kunden, sondern weil sie im mom keine höheren preise erzielen können.
zum jetzigen zeitpunkt können sie mit nv nicht mithalten und sich daher nur über preiskampf behaupten... ich hoffe dass das mit dem rv770 wieder anders wird, aber wenn ich bedenke was nv da schon alles fertig hat, hab ich so meine bedenken...
 
Zuletzt bearbeitet:
und du scheinst dann wohl der nv fanboy zu sein oder ? ich sagte ja bereits das man sich über solche themen bekanntlich am besten streiten kann.
ich bin auch sicher kein "fanboy" ich finde nur einfach die community von nv lächerlich die sich teils über "gekaufte" hype werbungen von nv honig ums maul schmieren lassen und selbstverliebt mit ihrem prollcore und ner 8800ultra 3dmarks benchen die von hier bis nach timbuktu reichen ... auf der anderen seite aber massiv über ati abziehen und das nur vom hörensagen her oder was irgendwelche pcgames videos bzw tester schreiben!
ich gebe ja zu das nv ganz klar die besseren karten rausgebracht hat unteranderem weil sie durch ihr marketingprinzip und dem auslösen von hypes mit ihren teuro preisen soviel verdient haben und damit auch mehr in die entwicklung stecken konnten aber trotz alledem ist die x2 ne wirklich gelunge karte und kann NUR von menschen beurteilt werden die sich damit wirklich beschäftigen!

btw so wie die bildzeitung schwarz ist, ist die pcgames gelb und liebt worte die mit "N" afangen.
aber hier wird ja ohnehin nur das geglaubt was nvidia schreibt und verachtet was ati probiert.
es gibt keinen zweifel das die x2 momentan die beste graka ist. trotz fps einbrüchen bei nvidia games oder spielen die keine gute cf unterstützung bieten. im overall liegt die karte ganz klar über den momentan nv modellen. mal davon abgesehen das die treiber für die karte noch nichtmal 100% der leistung bringen die die karte bringen kann!
 
@ Gobliner

Meinst du, CB, HWLuxx, PCGH, Chip, Gamestar und Co setzen sich nicht kritisch mit der X2 auseinander?
Diese können sich eine non-objektive Meinung gar nicht erlauben, das wäre deren Todesurteil ...
es gibt keinen zweifel das die x2 momentan die beste graka ist. auch mit fps einbrüchen bei nvidia games oder spielen die keine gute cf unterstützung bieten. im overall liegt die karte ganz klar über den momentan nv modellen.
Hmmm, komisch ... selbst eine 88GT liegt teils (klar) vor der X2, von einer 88GTX oder 98GX2 mal ganz zu schweigen. nV Games? Is klar ...

Öhm ... Fanboy?! :lol:

cYa
 
ach können sie nicht?
die 8800gt liegt niemals über der x2. welche tests hast du denn gelesen? computerbild oder was? hau mal aa und af rein, dann sehen wir mal wer von den karten auf der strecke bleibt. wo hast du dein wissen her sagmal?
klar versagt die x2 bei nv games ala crysis. crysis bildet aber auch nicht die vergleichsmarke für alle zukünftigen tests!!
 
nein aber für ne ganze reihe, da etliche kommende spiele die cryengine verwenden. das ist aber nicht der springende punkt. es gibt spiele wo die x2 nur die leistung einer 3870 bringt (oder sogar weniger!) und diese liegt bekanntlich hinter der 8800gt. das hat aber mit treiberproblemen bzw fehlenden profilen für die x2 zu tun. das ist nunmal eine der größten schwächen von multi-gpu: die anpassung hängt der spieleentwicklung zwangsläufig hinterher und wenn die hersteller das system mal nicht mehr unterstützen ist man mit so einer karte aufgeschmissen... und bevor du wieder mit ati und nv anfängst, das gilt für beide (x2, gx2) gleichermaßen und hat nichts damit zu tun dass irgendwer was gegen ati hat...
 
@ Gobliner

Mach deine Augen auf, bevor du große Töne spuckst! 88GT durchgehend vor der X2!
wo hast du dein wissen her sagmal?
Woher? Aus sämtlichen mir bekannten HW-Pages, zudem PCGH und meinen eigenen Erfahrungen/Benches/whatever.
crysis bildet aber auch nicht die vergleichsmarke für alle zukünftigen tests!!
Hmmm ... die Engine und die Anforderungen sind zukunftsweisend ... und es gibt keine nV Games :freak:

cYa
 
ja deinen einleitungssatz geb ich an dich zurück? warum hast du dir gothic 3 ausgesucht ? weil die 8800 da rubbelt?

wie wärs mit fear:
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/10/

ach und was gibts da noch ... ja richtig rainbow six:
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/12/

und noch ein gutes game .... stalker:
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/13/

und weiter gehts .. das grade erst erschienene ut3:
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/14/

... oh ohjeh bioshock auch?
https://www.computerbase.de/2008-03/test-nvidia-geforce-9800-gx2/14/


naja ich sag mal so für alle die sich von y33h nicht für dumm verkaufen lassen wollen, lesen den ganzen test am besten durch ... und net nur son käsebrocken ...
 
@Gobliner: glaubst Du wirklich an eine der Zeilen, die Du schreibst? Nvidia baut deshalb gute GraKas, weil sie den Konsumenten durch überteuerte Produkte vorher das Geld aus den Taschen gezogen haben? Ziemlich lächerliche Argumentationsweise. Weiterhin ziehst Du über 3DMark-prolls mit 8800ultras ab, hast aber selbst in Deiner Signatur in "rot" Deine score verlinkt, was mich zu der Einschätzung kommen lässt, dass Du auch ein wenig stolz auf Deine Hardware bist ;).

Ich gehöre übrigens auch zu den Idioten :evillol:, die ihre X2 wieder aus dem Rechner geschmissen haben und zwar aufgrund massiver Treiberprobleme in diversen games wie Crysis, COD4 und HL2. Ich halte sowohl die X2 als auch die 9800GX2 für unausgegorene Produkte, schon allein bedingt durch die Tatsache, dass die Karten in den settings, für die sie eigentlich bestimmt sein sollten (Auflösungen jenseits der 1920x1200), dermaßen eingehen, dass es einfach nur noch lächerlich ist. Für 1280x1024 brauche ich keine Dual-GPU-Karte. X2 und GX2 nehmen sich vom Konzept her gar nichts. Am jetzt schon fallenden Preis der GX2 sieht man auch deutlich, dass sich solch eine Karte nicht für 500€ aufwärts vermarkten lässt. Wenn die GX2 Richtung 420€ fallen wird (ist abzusehen), ist sogar ein direkter Vergleich mit der X2 möglich, da die Mehrleistung der GX2 dann auch entsprechend etwas mehr kostet.
 
Zuletzt bearbeitet:
Zurück
Oben