News GeForce GTX 295 schlägt HD 4870 X2?

Kauf dir die Karte halt nicht :rolleyes: Wer über 400 Tacken für so eine MGPU-Gülle über hat, wird ja wohl auch den Strom zahlen können ... alles andere wäre traurig.

cYa
 
Ja XShocker22 da geb ich dir Recht das macht keinen Spaß mehr.

Wobei könnte man nicht die Produzierte Warme Luft irgendwie wieder verwerten (außer zum Heizen)

Wir erfinden einfach die Dampfmaschine neu für den PC, da erzeugt man nebenbei sogar noch selber wieder Strom.

Soweit die Theorie. Fehlt nur die Praxis
 
CB Team, vergesst doch bitte nicht Das Mikroruckler Thema mit einzubauen.
Würde doch hier sicher einige interessieren ob Nvidia sich dem Thema endlich mal angenommen und ne Lösung dafür hat.
 
Wer bei so einem Tier (ich spreche auch von der 4870 X2, da meine eigene 3870 X2 auch keine produziert) Mikroruckler sieht, ist selber Schuld :P
 
Ja, die würde heißen, dass Du mich in Ruhe lässt, weil ich Dich auf den zwinkernden Smilie verweise.

Im Übrigen ist die Lösung Multi-GPU-Karten nicht generell zu verteufeln, wenn man sie nicht selbst mal in Aktion gesehen hat.
Und ich spreche nicht von Videos, sondern von selbst an der Kiste sitzen und nicht das nachplappern was andere sagen.
 
Einfach Lösung.. Die Einstellungen vo einstellen, dass du kostant über 45fps hast, damit sollten dir auch keine Microruckler auffallen.. ^^

Wer natürlich so eine Karte kauft, weil er mit der Single-GPU nur 25fps hat, kann mit der Dual-GPU ein "Wunder" erleben..

Bei mir hieß dass, dass ich die Grafikoptionen nicht höher stellen konnte trotz 2 Grafikkarten und es nicht flüssiger wurde, was natürlich nicht Sinn der Sache ist..
 
@ Leon da sagt das Performancerating auf CB aber was anders. Und des sind nur damals aktuelle Spiele 3D-Center hat vor ne Weile nen Artikel gebracht der zeigt das die älteren Atis den Nvidias nach und nach nur noch davon gerannt sind.
 
Zuletzt bearbeitet:
ja die x1k-serie hat gegenüber der gf7 im nachhinein massiv zulegen können bei den aktuellen titeln, da diese eine höhere shaderleistung haben, was zu deren aktueller zeit aber nutzlos war. aber als die karten noch aktuell waren, lag nv meist vorne. als die x1950xtx dann der 7900gtx/7950gx2 davon gezogen ist, war die 8800gtx schon lange draußen und nv nach wie vor vorne. das gleiche war bei der x800 vs 6800. als die 850xt pe kam, hatte nv ihre 7800gtx parat. allerdings gabs das genausogut umgekehrt. bei der 9800xt vs 5950 ultra war ati einen schritt vorraus.
 
Naja ich hab halt gleiche Generationen verglichen und die x1900 is in Quali einstellung Nvidia immer voraus gewesen (außer der GX2 und auf Thematik 2 gegen ein Core geh ich jetzt net ein da jeder andere Meinung hat) über alle Spiele gesehen. Das das Timing in der Vergangenheit von ATI sehr "ungünstig" war is was anderes. Trotzdem zeigt der 3D center Test das man in der Vergangenheit gerade wenn man nicht wie viele hier jedes Jahr ne neue holt mit ATI besser gefahren ist.
 
das ist auch wieder eine falsche pauschalisierung. es kommt wie immer auf die generation an. meine persönliche erfahrung ist z b dass meine gf2 weit länger gereicht hat, als die radeon 8500pro (gegenspieler der gf4 mx!) von meinem kumpel. in starwars battlefront reicht meine gf2 vollkommen aus, wärend es mit einer 8500pro vollkommen unspielbar ist, egal in welchen einstellungen und mit welchem treiber. bei anderen spielen war das ebenso.
bei der gf7 vs. x1k in aktuellen titeln sieht es genau andersrum aus. wo die gf7 schon schwächelt, gehts mit der x1k noch ohne probleme...
das ist von generation zu generation unterschiedlich und hängt vor allen dingen mit den jeweils verwendeten spieleengines zusammen. wenn die spieleengines der zukunft beispielsweise nicht mehr auf shaderlast setzen, kann es durchaus sein, dass die gf7 die x1k dann wieder überholt...
 
Solange kein handfester Test da ist glaub ich nicht die Bohne (abgesehen von den Taktraten vielleicht). Ich dachte erst diese könnte meine 8800GT im nächsten Jahr ablösen, aber jetzt bin ich skeptisch.

Geh ich richtig in der Annahme, dass es da die selben negativen Aspekte wie bei jedem anderen SLI Verbund gibt (Stromfresser, Treiberprobleme, Microruckler)?
 
Ja, Multi-GPU mit allen Nachteilen ... Vorteile sehe ich iwie keine :D

cYa
 
tecjonny schrieb:
Hab wieder paar Neuigkeiten zu der Karte herauskitzeln können, unter anderem, dass sie nun sicher 216 Unified-Shader Einheiten bekommen wird:

http://www.spielesuechtig.de/news,1,3311.htm

MFG Jonny

Das stimmt nicht, die Karte hat 2*240 SPs und 2*80 TMUs. Hier ein Review:
http://www.pcpop.com/doc/0/355/355395_4.shtml

Und wer befürchtet, die GTX 295 hätte zu wenig Speicher:

001057227.jpg


001057228.jpg


001055724.jpg


/EDIT: Benchmarks mit 16xS-AA und 32xS-AA:
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8

Die GTX 295 gibt sich nirgendwo die Blöße, der VRAM-Nachteil gegenüber der GTX 280 schlägt nirgendwo durch.
 
Zuletzt bearbeitet:
Nanu?
Also wenn ich mir diesen CB Test mal zu Rate ziehe, dann sehe ich für CoD4 mit 2560x1600 mit 4AA+16AF folg.:

Der alte Test in rot, deine Stat. wie o.a. in blau
die 4870X2 = 63,8 / 61
(quasi die GTX295) GTX260 SLI = 56,4 / 79
GTX280 = 37,3 / 52

Wie kommen solch unterschiedliche Werte zusammen? Ist die GTX295 ein SLI, bzw. Dual-GPU Verbund aus zwei -216 oder normalen 260´ern?
Während es bei der 4870X2 fast gleich bleibt (überein stimmt), steigern sich die 280 und die 260/295 ja unverhältnismäßig stark.
FC2 und Warhead sind leider damals nicht getestet worden. Waren ja auch noch garnicht auf dem Markt. :freaky:

Wo ist mein Denkfehler?
 
Ja schon, aber ... die GTX280? Plötzlich so 16 FPS mehr? Sind angepasste, neue Treiber der alleinige Grund?
 
Zurück
Oben