Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 295 schlägt HD 4870 X2?
- Ersteller Volker
- Erstellt am
- Zur News: GeForce GTX 295 schlägt HD 4870 X2?
oem111
Lt. Junior Grade
- Registriert
- Juli 2008
- Beiträge
- 259
Ja XShocker22 da geb ich dir Recht das macht keinen Spaß mehr.
Wobei könnte man nicht die Produzierte Warme Luft irgendwie wieder verwerten (außer zum Heizen)
Wir erfinden einfach die Dampfmaschine neu für den PC, da erzeugt man nebenbei sogar noch selber wieder Strom.
Soweit die Theorie. Fehlt nur die Praxis
Wobei könnte man nicht die Produzierte Warme Luft irgendwie wieder verwerten (außer zum Heizen)
Wir erfinden einfach die Dampfmaschine neu für den PC, da erzeugt man nebenbei sogar noch selber wieder Strom.
Soweit die Theorie. Fehlt nur die Praxis
-Nucleus-
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 649
Ja, die würde heißen, dass Du mich in Ruhe lässt, weil ich Dich auf den zwinkernden Smilie verweise.
Im Übrigen ist die Lösung Multi-GPU-Karten nicht generell zu verteufeln, wenn man sie nicht selbst mal in Aktion gesehen hat.
Und ich spreche nicht von Videos, sondern von selbst an der Kiste sitzen und nicht das nachplappern was andere sagen.
Im Übrigen ist die Lösung Multi-GPU-Karten nicht generell zu verteufeln, wenn man sie nicht selbst mal in Aktion gesehen hat.
Und ich spreche nicht von Videos, sondern von selbst an der Kiste sitzen und nicht das nachplappern was andere sagen.
H3rby
Lt. Commander
- Registriert
- Juni 2007
- Beiträge
- 1.793
Einfach Lösung.. Die Einstellungen vo einstellen, dass du kostant über 45fps hast, damit sollten dir auch keine Microruckler auffallen.. ^^
Wer natürlich so eine Karte kauft, weil er mit der Single-GPU nur 25fps hat, kann mit der Dual-GPU ein "Wunder" erleben..
Bei mir hieß dass, dass ich die Grafikoptionen nicht höher stellen konnte trotz 2 Grafikkarten und es nicht flüssiger wurde, was natürlich nicht Sinn der Sache ist..
Wer natürlich so eine Karte kauft, weil er mit der Single-GPU nur 25fps hat, kann mit der Dual-GPU ein "Wunder" erleben..
Bei mir hieß dass, dass ich die Grafikoptionen nicht höher stellen konnte trotz 2 Grafikkarten und es nicht flüssiger wurde, was natürlich nicht Sinn der Sache ist..
Halo?Hallo
Ensign
- Registriert
- Juni 2007
- Beiträge
- 168
@ Leon da sagt das Performancerating auf CB aber was anders. Und des sind nur damals aktuelle Spiele 3D-Center hat vor ne Weile nen Artikel gebracht der zeigt das die älteren Atis den Nvidias nach und nach nur noch davon gerannt sind.
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ja die x1k-serie hat gegenüber der gf7 im nachhinein massiv zulegen können bei den aktuellen titeln, da diese eine höhere shaderleistung haben, was zu deren aktueller zeit aber nutzlos war. aber als die karten noch aktuell waren, lag nv meist vorne. als die x1950xtx dann der 7900gtx/7950gx2 davon gezogen ist, war die 8800gtx schon lange draußen und nv nach wie vor vorne. das gleiche war bei der x800 vs 6800. als die 850xt pe kam, hatte nv ihre 7800gtx parat. allerdings gabs das genausogut umgekehrt. bei der 9800xt vs 5950 ultra war ati einen schritt vorraus.
Halo?Hallo
Ensign
- Registriert
- Juni 2007
- Beiträge
- 168
Naja ich hab halt gleiche Generationen verglichen und die x1900 is in Quali einstellung Nvidia immer voraus gewesen (außer der GX2 und auf Thematik 2 gegen ein Core geh ich jetzt net ein da jeder andere Meinung hat) über alle Spiele gesehen. Das das Timing in der Vergangenheit von ATI sehr "ungünstig" war is was anderes. Trotzdem zeigt der 3D center Test das man in der Vergangenheit gerade wenn man nicht wie viele hier jedes Jahr ne neue holt mit ATI besser gefahren ist.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
das ist auch wieder eine falsche pauschalisierung. es kommt wie immer auf die generation an. meine persönliche erfahrung ist z b dass meine gf2 weit länger gereicht hat, als die radeon 8500pro (gegenspieler der gf4 mx!) von meinem kumpel. in starwars battlefront reicht meine gf2 vollkommen aus, wärend es mit einer 8500pro vollkommen unspielbar ist, egal in welchen einstellungen und mit welchem treiber. bei anderen spielen war das ebenso.
bei der gf7 vs. x1k in aktuellen titeln sieht es genau andersrum aus. wo die gf7 schon schwächelt, gehts mit der x1k noch ohne probleme...
das ist von generation zu generation unterschiedlich und hängt vor allen dingen mit den jeweils verwendeten spieleengines zusammen. wenn die spieleengines der zukunft beispielsweise nicht mehr auf shaderlast setzen, kann es durchaus sein, dass die gf7 die x1k dann wieder überholt...
bei der gf7 vs. x1k in aktuellen titeln sieht es genau andersrum aus. wo die gf7 schon schwächelt, gehts mit der x1k noch ohne probleme...
das ist von generation zu generation unterschiedlich und hängt vor allen dingen mit den jeweils verwendeten spieleengines zusammen. wenn die spieleengines der zukunft beispielsweise nicht mehr auf shaderlast setzen, kann es durchaus sein, dass die gf7 die x1k dann wieder überholt...
adaptedALPHA
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.179
Solange kein handfester Test da ist glaub ich nicht die Bohne (abgesehen von den Taktraten vielleicht). Ich dachte erst diese könnte meine 8800GT im nächsten Jahr ablösen, aber jetzt bin ich skeptisch.
Geh ich richtig in der Annahme, dass es da die selben negativen Aspekte wie bei jedem anderen SLI Verbund gibt (Stromfresser, Treiberprobleme, Microruckler)?
Geh ich richtig in der Annahme, dass es da die selben negativen Aspekte wie bei jedem anderen SLI Verbund gibt (Stromfresser, Treiberprobleme, Microruckler)?
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
bei dieser karte gehts, wie bei allen anderen multi-gpu-karten auch, nur ums prestige. hauptsache auf dem papier stehen möglichst viele fps. wies dann tatsächlich aussieht und wieviel strom die frist und ob die leise ist, das sind alles nebensächlichkeiten. performancekrone um jeden preis^^
tecjonny
Lt. Junior Grade
- Registriert
- Mai 2005
- Beiträge
- 361
Hab wieder paar Neuigkeiten zu der Karte herauskitzeln können, unter anderem, dass sie nun sicher 216 Unified-Shader Einheiten bekommen wird:
http://www.spielesuechtig.de/news,1,3311.htm
MFG Jonny
http://www.spielesuechtig.de/news,1,3311.htm
MFG Jonny
tecjonny schrieb:Hab wieder paar Neuigkeiten zu der Karte herauskitzeln können, unter anderem, dass sie nun sicher 216 Unified-Shader Einheiten bekommen wird:
http://www.spielesuechtig.de/news,1,3311.htm
MFG Jonny
Das stimmt nicht, die Karte hat 2*240 SPs und 2*80 TMUs. Hier ein Review:
http://www.pcpop.com/doc/0/355/355395_4.shtml
Und wer befürchtet, die GTX 295 hätte zu wenig Speicher:
/EDIT: Benchmarks mit 16xS-AA und 32xS-AA:
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8
Die GTX 295 gibt sich nirgendwo die Blöße, der VRAM-Nachteil gegenüber der GTX 280 schlägt nirgendwo durch.
Zuletzt bearbeitet:
Keres
Vice Admiral
- Registriert
- Juli 2008
- Beiträge
- 6.405
Nanu?
Also wenn ich mir diesen CB Test mal zu Rate ziehe, dann sehe ich für CoD4 mit 2560x1600 mit 4AA+16AF folg.:
Der alte Test in rot, deine Stat. wie o.a. in blau
die 4870X2 = 63,8 / 61
(quasi die GTX295) GTX260 SLI = 56,4 / 79
GTX280 = 37,3 / 52
Wie kommen solch unterschiedliche Werte zusammen? Ist die GTX295 ein SLI, bzw. Dual-GPU Verbund aus zwei -216 oder normalen 260´ern?
Während es bei der 4870X2 fast gleich bleibt (überein stimmt), steigern sich die 280 und die 260/295 ja unverhältnismäßig stark.
FC2 und Warhead sind leider damals nicht getestet worden. Waren ja auch noch garnicht auf dem Markt.
Wo ist mein Denkfehler?
Also wenn ich mir diesen CB Test mal zu Rate ziehe, dann sehe ich für CoD4 mit 2560x1600 mit 4AA+16AF folg.:
Der alte Test in rot, deine Stat. wie o.a. in blau
die 4870X2 = 63,8 / 61
(quasi die GTX295) GTX260 SLI = 56,4 / 79
GTX280 = 37,3 / 52
Wie kommen solch unterschiedliche Werte zusammen? Ist die GTX295 ein SLI, bzw. Dual-GPU Verbund aus zwei -216 oder normalen 260´ern?
Während es bei der 4870X2 fast gleich bleibt (überein stimmt), steigern sich die 280 und die 260/295 ja unverhältnismäßig stark.
FC2 und Warhead sind leider damals nicht getestet worden. Waren ja auch noch garnicht auf dem Markt.
Wo ist mein Denkfehler?
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Falsch. PCGH-Benches, Fallout3, vorletzte SeiteDie GTX 295 gibt sich nirgendwo die Blöße, der VRAM-Nachteil gegenüber der GTX 280 schlägt nirgendwo durch.
cYa
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Der Nachteil wird sichtbar, schlägt aber (dort) nicht durch.
Schau dir mal die Daten der GTX 295 ganz scharf an.Garrett66 schrieb:Wo ist mein Denkfehler?
Ähnliche Themen
- Antworten
- 387
- Aufrufe
- 47.413