News GeForce GTX 295 schlägt HD 4870 X2?

LOL sind das die 5 Lieblingsspiele von NV bzw. CB die bei dem lächerlichen Knie-Schuss-Marketing-Test zum Einsatz kamen? Lol, dann wissen wird ja wo die wahre Performance (auf alle Spiele bezigen) im Schnitt liegen wird ;)
 
Joa was will man jetzt dazu sagen.

Die Überschrift, naja gefällt mir nicht, wenn die GTX295 nicht besser abschneidet, ist sie ein Flop, ganz einfach deshalb weil sie soviel Später kommt als die Konkurrenz.
Ich mein Klar, es wurden keine Änderungen in der eigtl. Architektur vorgenommen, allerdings kleinerer Fertigungsprozess da man ansonsten keine Dual Lösung hinbekommen hätte.
Naja ich machs Nvidia nicht zum vorwurf probleme können immer wieder auftauchen, das die erwartungen mit weiterem vergehen der Zeit steigen, sollte aber auch klar sein.


Alles in allem hoffe ich das sich solche Probleme noch mehr auf die Leistung pro Watt auswirken, um vil. irgendwann mal Kühlbare Leise Leistung zu haben ;)
 
Garrett66 schrieb:
Aber wie zum Henker kommen die mit der X2 auf 60 FPS bei CoD4? Mit VSync? Sollten die wirklich VSync eingeschaltet haben, wieso hat dann die 295 knapp 80?
Da stimmt doch was hinten und vorne nicht. :(

es ist zwar COD5, jedoch sind auch hier die werte unecht, soviel habe ich ja fast mit meiner 8800GT:freaky: glaube den benches nicht
 
FredKune schrieb:
Im Prinzip ist das Ding 2xGTX260, aber man hat die Anzahl der SPs und TMUs halt nicht künstlich geschränkt, wie man es auf einer GTX260 macht, sondern nutzt bei den SPs und TMUs alle Einheiten, die der Chip hergibt.
Man kanns auch umdrehen. ;)

Im Prinzip sind das 2x GTX 285, mit jeweils einem deaktivierten ROP-Cluster und demenstprechend etwas weniger Bandbreite, weniger VRAM, dem Takt der GTX 260 und deutlich gesenkten Kosten.

Dro'Doog schrieb:
Dieser ganze "X2"- Hype ist meiner Meinung nach ganz nett zu beschauen
Interessant ist, das du AMDs X2 extrem lobst, obwohl diese in keinem Punkt besser ist.
Wenn ich jetzt die Profilverwaltung reinhole sogar schlechter.
 
@smith0815

Ich selber hab zwei 8800M GTX und bei den Treibern 177.89 (Sonderfall >> eine Graka wird falsch erkannt.), 178.08, 180.70 und 180.84 gibt es keine Mikroruckler mehr.

Frametimes, Crysis, 177.89

01....23.01....23.01
02....44.51....21.5
03....66.31....21.79
04....88.99....22.68
05....111.86....22.87
06....134.14....22.28
07....155.85....21.72
08....178.03....22.17
09....200.44....22.41
10....222.52....22.08
11....245.22....22.7
12....267.79....22.57
13....289.87....22.09
14....312.73....22.86
15....334.71....21.98
16....357.37....22.66
17....379.51....22.13
18....401.16....21.65
19....423.93....22.77
20....446.92....22.99
21....470.01....23.09
22....492.03....22.02
23....514.01....21.98
24....536.50....22.49
25....558.48....21.98
26....580.44....21.97
27....602.35....21.91
28....625.00....22.64
29....647.31....22.31
30....669.24....21.93
31....691.26....22.01
32....713.84....22.58
33....736.56....22.72
34....758.65....22.08

Diese Frametimes hab ich etwa vor 4 Monaten gemessen.
 
Desoxyribo schrieb:
es ist zwar COD5, jedoch sind auch hier die werte unecht, soviel habe ich ja fast mit meiner 8800GT:freaky: glaube den benches nicht

Laut deinem Sys Profil hast du eine max. Auflösung von 1650x1080, getestet wurde aber 2560x1600, bitte erst genau lesen :freaky::freak:
 
Gorby schrieb:
schon interessant muss ich sagen. Hätte gedacht, dass die über 300 Watt braucht.
Das erlaubt die PCIe-2.0-Spezifikation nicht. Man muss den Verbrauch unter 300 Watt halten. Genau deshalb konnte NV mit dem alten GT200 auch keine Dualchip-Karte bauen, die schneller als eine HD 4870 X2 gewesen wäre.

Die GTX 295 verwendet zwei GT200b-Chips wie auf der GTX 285 (183 Watt TDP), aber mit teildeaktiviertem Speicherinterface und mit niedrigeren Taktraten.
Shadereinheiten und TMUs zu deaktivieren, hätte keinen Sinn gemacht. Denn zum einen sind die Shadereinheiten und TMUs für die Gesamtperformance ausschlaggebender als das Speicherinterface und die ROPs, zum anderen kann man bei mehr Recheneinheiten die Taktraten und die Spannungen senken, was die Leistungsaufnahme deutlich stärker reduziert als eine Verringerung der Anzahl von Recheneinheiten.
Dass man die GTX 295 nicht mit zwei vollen GT200b-Chips auf den Markt bringt, hat wohl weniger mit der Leistungsaufnahme als viel mehr mit dem PCB zu tun. Denn die Leistungsaufnahme wäre mit einem vollen SI nur minimal gestiegen. Der Routingaufwand auf dem PCB ist aber bei einem 512-Bit-SI schon extrem, die zusätzlichen Speicherchips erhöhen den Platzbedarf. Man wollte die GTX 295 einigermaßen kompakt halten und auch von den Kosten her im Rahmen bleiben, deshalb entschied man sich wohl für weniger Leitungen und weniger Speicherchips.
 
mich der Verbrauch nicht. Dieser wird sicher etwas geringer ausfallen als bei der X2. Schließlich wird auf 55nm geschrinkt und eine 260GTX braucht nich erheblich mehr als eine 4870. Schneller sollte sie sein, zumindest bei Einstellungen ohne AA und - 4xAA, vermutlich sogar bei 8xAA. Der einzigste Vorteil einer "nicht Sandwich Lösung" besteht im günstigeren Einsatz einer Wasserkühlung, aber dem Luftkühler kann relativ egal sein ob Sandwich oder Singel PCB. Sandwich hat den Vorteil dann man eventuell auf Heatpipes verzichten kann da die Wärme ohnehin schon von größerer Fläche (oben, unten) zugeführt wird.
Man kann nur hoffen dass die Geräuschentwicklung im Rahmen bleibt und NV auf eine ähnlich gute Lüftersteuerung wie AMD setzt.
Trotzdem schließe ich Dual GPU noch aus. Zumal die Karte einfach wegen der Wakü nicht geeignet wäre - bzw ein Kühler zu teuer wäre.

BTW. Wie wäre es mit einem Artikel bei dem mit sämmtlichen neuen Karten und Treiben nochmals detailiert auf Mikroruckler eingegangen wird. Ich könnte mir schon vorstellen dass die Treiber zur besserung des Problems beigetragen haben.

@Vanadis

die Timings an sich sind Wurst. Die können noch so schön und sauber sein. Das heißt nicht, dass es dann keine µRuckler gibt. Schwer zu erklären.
Wenn man einen gleichmäßigen Kameraschwenk hat und die Bildinhalt bei

Bild 1 = 0,0 cm,
Bild 2 = 0,5 cm,
Bild 3 = 1,2 cm,
Bild 4 = 1,5 cm und
Bild 5 = 2,0 cm

verschoben ist, wird man einen Ruckler feststellen obwohl die Bilder mit exakt gleichen Abständen ausgegeben werden. Es kommt also genauso auf den BildInhalt an. Übernimmt jede GPU ein ganzes Bild kann kein gleichmäßiger Aufbau garantiert werden. Es muss also jedes Bild aufgeteilt werden und von beiden GPU gerechnet werden. Doch auch hier kann obere und untere Hälfte unterschiedlich lang brauchen. Also PixelCluster oder zeilenweise - aber so einfach ist das nicht. Die Ausgabentimings kannman über Puffer mit minimaler verzögerung sicher leichter realisieren als konsistensten Bildinhalt zu gewährleisten.
Deswegen haben wir das Problem der Microruckler noch. =)
Ich hoffe ich lieg hier halbwegs richtig, korrigiert mich bitte.

Greedz
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Der einzigste Vorteil einer "nicht Sandwich Lösung" besteht im günstigeren Einsatz einer Wasserkühlung
Das ist egal. ~80-100€ kostet ein Kühler, fast egal ob X1 oder X2 oder 2 PCBs.
 
[AC]Jogibär schrieb:
Laut deinem Sys Profil hast du eine max. Auflösung von 1650x1080, getestet wurde aber 2560x1600, bitte erst genau lesen :freaky::freak:

ow ja dat habe ich übersehen:freaky: trotzdem kommt mir der wert beider grakas ziemlich tief vor... Und zu den qualitätseinstellungen ist auch nix angegeben. Ist ne ente
 
Unyu schrieb:
Das ist egal. ~80-100€ kostet ein Kühler, fast egal ob X1 oder X2 oder 2 PCBs.

mag sein, aber ich denke die Anzahl und Produktvielfalt ist bei einer 3870x2 oder 4870X2 weit größer als bei einer 9800GX² - zumindest kommt es mir so vor. Auch spielten die Kühler der letzteren Karte immer auf über 100€ Niveau. So ganz gleichsetzen kann man es glaube ich nicht. Allein was die Montage angeht hat Singel PCB sicher Vorteile.
 
Ein solches Ergebnis sollte dann beim Release aber niemanden überraschen.

Eine GTX 280 ist fast so schnell wie die X2 und zwei GTX 260 sind merklich schneller als die X2. Überhaupt hatte nVidia schon seit Ewigkeiten mit - mal mehr, mal weniger - deutlichem Vorsprung die stärkste Grafiklösung im Angebot (mit Ausnahme des Intermezzos der X1950 XTX), da kann man auch nichts dran ändern, wenn man bei AMD plötzlich eine Dual-GPU als 1 Karte gelten lässt, da das CF nur intern ist... und AMD kann da auch nichts daran ändern, wenn sie eine fehlgeschlagene Architektur (R600) lediglich aufpumpen, anstatt etwas neues zu bringen.

Lediglich die Sache mit dem Verbrauch wird so nicht eintreten. Ich pers. rechne eher mit +/- Gleichstand, aber nicht mit teilweise 70 W Vorsprung! Also man kann es auch übertreiben...
 
Die Karte wird egal wo schneller sein als die ATI soviel ist mal klar.

Die Darstellungsquallität wird auch besser sein auch klar.

Was die Karte für aufgeklärte User eher unintressant machen wird ist der Preis (Nein da brauch ich keine Glaskugel für die Herstellungskosten sind schon höher als bei ATI)
Was die Karte wohl eher für Leute "intressant" macht die schon jetzt Jammern das Ihre 280GTX zu Lahm ist.
Also hier im Forum sind das Gefühlt 3 Leute von 10K Usern^^
Das Ding hat den selben Sinn und Zweck wie die 4870x2 Prestige halt.
 
Desoxyribo schrieb:
ow ja dat habe ich übersehen:freaky: trotzdem kommt mir der wert beider grakas ziemlich tief vor... Und zu den qualitätseinstellungen ist auch nix angegeben. Ist ne ente
Was ist an den Werten zu niedrig? Teste mal mit deiner 8800 GT in 2560x1600 mit 4xAA und 16:1 AF.

Hier die Benchmarks von Computerbase zur Call of Duty 5:
https://www.computerbase.de/2008-11/test-call-of-duty-world-at-war/3/#abschnitt_benchmarks

In 1920x1200 mit 4xAA und 16:1 AF gerade mal 51,7 fps im Schnitt mit einer HD 4870 X2 und 44,2 fps mit einer GTX 280.
2560x1600 sind gegenüber 1920x1200 nochmal 78% mehr Pixel, d.h. ausgehend von den CB-Benchmarks erwartet man bestenfalls 29 fps mit einer HD 4870 X2 und 25 fps mit einer GTX 280. Gemessen daran sind die von Nvidia präsentierten Frameraten ziemlich hoch. NV hat vermutlich mit einer weniger stressigen Szene getestet als Computerbase.
 
Zuletzt bearbeitet:
Warten wir doch erstmal ab, was ATI aus den Ärmeln schüttelt!!! Irgendwas werden die schon dagegen setzten und wenn es ein neuer Chipsatz ist. Bin auch Nvidia Freund aber Nvidia ist nicht der Mittelpunkt der Grafikwelt. Was die Microruckler betrifft, ist für mich auch ein Punkt keine X2 zu kaufen. Schon tausendmal getestet und jedesmal das Gleiche. Sobald die Anwendung die Karten bis zum letzten auslastet werden aus micro, Weltenruckler. Das Problem sollte erstmal behoben werden und dann was neues. Aber Traum bleibt Traum. Da bleibe ich lieber bei SLI und fertig. Mein Netzeil nimmt es mir nicht krum, meine Stromrechnung eventuell aber ich kann ja nicht alles haben.

Ach ja, was regt ihr euch alle auf? Ob ich 54,7 oder 54,6 oder 50 oder 51 fps habe ist doch total egal. Das Spiel läuft und fertig. Wenn wir jetzt irgendwo bei 26 oder 28 wären OK aber doch nicht mehr bei über 50fps *Kopfschüttel*

Mein Gott, bei den ganzen Einträgen könnte ich Stundenlang ändern und ändern. Naja egal, wer hier jammert das seine GTX280 und dann noch im SLI zu langsam ist, dem ist nicht mehr zu helfen. Aber das sind auch die, die wenn Sie 10 Millionen auf dem Konto haben und das Monat für Monat ihr Leben lang und auch noch sagen das sie nicht genug Geld haben. Also mal wirklich...!!! Ausserdem ist das schon klar gewesen das eine GTX 280 kaum Mehrleistung hat als eine 8800GTX. Sicher ist die 280 schneller aber bitte, um was für Punkte denn?? Beispiel ob ich 10000 oder 10500 Bech Punkte habe. Das ist doch wirklich lächerlich. Sicher mag es Leute geben für die das wichtig ist weil die auf einem 37 Zoll LCD zocken aber für 1 von 100 wird hier ein Aufstang geprobt.
 
Zuletzt bearbeitet:
Ycon schrieb:
wenn man bei AMD plötzlich eine Dual-GPU als 1 Karte gelten lässt, da das CF nur intern ist...
Im Gegensatz zur 295 ist es tatäschlich eine Karte/PCB.:rolleyes: Und Quadcores werden ja schließlich auch als eine CPU betrachtet, regst du dich über sowas auch auf? Ist ja auch nix anderes.

wenn sie eine fehlgeschlagene Architektur (R600) lediglich aufpumpen, anstatt etwas neues zu bringen.
Befasse dich doch erstmal mit der Technik, bevor du so ein Unsinn von dir gibt. Es wurde sehr viel gegenüber dieser "fehlgeschlagenen Architektur" verbessert. Ohne die würde man auch nicht auf nur rund 15-20% weniger Performance bei 30% weniger Transistoren (bezogen auf die single GPU Topmodelle) kommen.
 
Zuletzt bearbeitet:
Meinst nicht, dass AMD auch in der Lage ist, den Preis zu senken, wenn sie der Meinung sind, dass der Preis der X2 im Vergleich zur 295 zu hoch ist? :rolleyes:
 
aspro schrieb:
Im Gegensatz zur 295 ist es tatäschlich eine Karte/PCB.:rolleyes:
Was bewirkt, das A als eine Karte gilt und B nicht?
Beide brauchen einen PCIe Slot. Beide brauchen insgesamt 2 Slots. Beide haben 2 GPUs.
Du zählst die PCB Anzahl. Warum nicht gleich noch die Zahl der Kondensatoren?

Wenn sich die X2 als eine Karte schimpfen darf, dann können wir ja beruhigt AI-off testen und brauchen uns nicht zu kümmern das CF überhaupt rennt. Also Spässe wie exe renaming, was dank der Profilverwaltung manchmal nötig ist, darf nicht betrieben werden.
 
Zurück
Oben