Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

RIPchen schrieb:
Mich wundert vielmehr, wie die 280er so deutlich HINTER der GX2 bleiben kann, wo doch die Rohrechendaten annähernd so gut aussehen wie die von zwei G92 zusammen, nur dass das alles auf einer Karte ist und es weniger zu organisieren gibt.
hö? wenn du die rohleistung beider g92 auf der 9800gx2 zusammenrechnest sind die stärker
viel höherere texfüllrate und ne höhere rechenleistung. einzig bei der speicherbandbreite und beim verfügbaren speicher krankt die karte

aber genau dort wo es der 9800gx2 durch den speicher weh tut ist die gtx280 auch ein paar mal so schnell wie diese
Unyu schrieb:
3-4fach so schnell wie die 7900 GTX ist die 8800 GTX + viel bessere Bildqualität:
https://www.computerbase.de/2007-12...512/24/#abschnitt_performancerating_qualitaet
wenn dann bitte ein vergleich beim release. wie groß der unterschied zwischen 8800gtx/9800gx2 und gtx280 in 2 jahren aussieht weiss man ja auch nicht

und die 7800gtx war auch nur ca. 30% schneller als eine 6800ultra bei release
wo nehmen manche die märchen einer verdoppelung her?

Pornomafia schrieb:
Aber wofür sind denn diese Transistoren gut wenn die Karte nicht shcneller ist ?
nicht schneller als was? sie schlägt jede single gpu karte
und 2 G92 auf der 9800gx2 haben mehr transistoren

in anbetracht der taktraten ist die geschwindigkeit wohl passend
 
Zuletzt bearbeitet:
Nachteile der GX2 sind "nur" die Skalierung und der VRAM - beides ist halt tödlich.

cYa
 
Pornomafia schrieb:
Aber wofür sind denn diese Transistoren gut wenn die Karte nicht shcneller ist ?

um sie in cuda schneller zu machen und daher in allemöglichen andern programmen außer spielen. sie wird sich in professionellen bereichen die das nutzen dann warhscheinlich verdammt gut verkaufen, die spiele müssen aber etwas druter leiden

edit: ne gx2 ist doch für nutzer ab 24zoll eh schon nicht zu gebrauchen wenn immer mehr spiele kommen die trotz vorhandener rohleistung den vram voll machen, genau deshalb ist die gtx280 auch viel besser
 
@homer:

ok, das fazit das du dann meinst stimmt aber auch absolut, da es sich auf die single gpu version der karte bezieht. und die hat nunmal keine mikroruckler, da mrs nur ein sli problem sind.
von daher stimmt das fazit
"Weder schlechte Skalierung noch Mikroruckler noch Lags oder Einbrüche aufgrund von übervollem Video-RAM bringen die Geforce zu Fall." vollkommen, da pcgh ja schon oft genug nachgewiesen hat dass sli mikroruckler produziert. wie gesagt ist das mittlerweile absolutes allgemeinwissen, da es so gut wie jede seite/zeitschrift schon abgehandelt hat, auch cb.
selbst nvidia und ati wissen es und arbeiten an der lösung des problems, wie sie selbst in interviews sagten.


aber würd sagen lassen wir das, es führt sowieso zu nichts. die qualität des tests selber sieht sowieso ein blinder dass sie bei pcgh wesentlich besser ist als der enttäuschende cb test. darüber gibt's denk ich nichts zu diskutieren (falls doch, dann bitte erst nachdem man ALLE PCGH tests zur gt200 gelesen hat).
 
was ich gut finde:

in jedem Fall hat ATI mit den neuen Chips super Konkurrenzprodukte zu klasse Preisen.

Das heisst es wird ein dichtes Kopf-an-Kopf-Rennen, kanpper als bei der vorigen Generation.

Das ist in jedemfall gut für die Endkundenpreise. Wer letztendlich dann die Performancekrone hält ist doch eh völlig Wurscht. Wichtig ist doch nur, dass man als Konsument zwischen guten Produkten mit klasse P/L im Midrange wählen kann.

Die ATI Konkurrenz hat schon nvidia zu so klasse Karten wie 8800GT zum Nulltarif gezwungen. Die Konkurenzkampf wird jetzt noch schärfer bei den aktuellen Chips.

Interessant wird auch die Zukunft sein:
Viel mehr denke ich können beide Hersteller nicht mehr nach oben drahenm den der Verbrauch und Hitzeabgabe erreicht langsam die magische Grenze. Dass heisst die Hersteller müssen nun bei den nächsten Generationen besonders gute Arbeit leisten.

Man kann ja nicht irgendwann Karten verkaufen, die 800Watt brauchen. Schon gar nicht in unserem Energiezeitalter. Also da ist echt viel Spielraum für die Zukunft drin.
BTW MultiGPU, SLI und CF ist da auch nicht zwangsläufig besser. Davon halte ich eigentlich eh nicht so viel.


BTW die ATI Tech Demo schaut goil aus. Wenn so die Spiele in 2 Jahren aussehen, das wäre schon klasse.
 
Genau das ist die falsche herangehensweise ... die GTX280 erreicht zwar mehr fps in höheren auflösungen mit aa als die gx2 ... aber es bleibt trotzdem unspielbar .

Also wenn mal Spiele den VRAM so benötigen , dann wird die GTX280 da auch nichts mehr reißen . Vielleicht mehr als die GX2 aber kein spielbares Spiel .
 
@ natrs:

bist ja direkt euphorisch mit der pcgh. biste da im abomarketing tätig? kriegst ne prämie oder wie? ;)

ich für meinen fall empfinde pcgh als sehr einseitig nvidiaorientiert und wenn du mal des öfteren da im forum nachschaust, wirste sehen, dass das die meinung vieler leute da ist.
nvidia ist dort eben ein großer werbepartner.

da verwischen oft dinge zwischen "news" und "werbung" und von daher lege ich mehr wert auf cb.

das die tests von cb wesentlich übersichtlicher und besser strukturiert sind ist auch ein vorteil.

ansonsten noch viel glück mit deiner pcgh werbekampagne *g*
 
^^ NTARS: hoffentlich nimmst du meine Kritik am PCGH-Artikel nicht persönlich :) so ist es nicht gemeint. Ich habe eben zuerst nur den Spielbarkeitstest gelesen (3 Games mit Verlaufsdiagrammen) und mich gewundert, warum bei einem Single-GPU-Test im Fazit etwas von Mikrorucklern und Skalierbarkeit steht, denn das wurde nicht getestet und hat da meiner Meinung nach absolut nichts zu suchen.

Und gerade wenn PC Games Hardware schon oft Mikroruckler im SLI nachgewiesen hat, erwarte ich dann mehr als einen Nebensatz (der sich zudem an der falschen Stelle befindet: im Single-GPU-Test des 3 Games Test), der lediglich feststellt, dass es keine Mikroruckler gibt. Zumindest Frametimes. Aber die Frametimes stehen auch nicht im 10 Games Test bei dem Abschnitt über SLI.

Die Qualität des PCGH-Tests stelle ich in der Gesamtheit aber nicht in Frage. Die des CB-Tests in seiner Gesamtheit allerdings auch nicht. Ich hab ja für beide Tests Kritikpunkte angegeben.
 
@cosmicparty:

naja, ich bin weder fan von pcgh noch von irgendetwas. aber ich schätze intelligent durchgeführte anspruchsvolle tests.
dann vergelichen wir mal

cb: keine min fps
pcgh: aussagekräftige minfps werte (im speziellen relevant bei cpu skalierung



cb: keine fps verläufe
pcgh: fps verläufe und angaben zu wieviel % das game im flüssigen bereich bleibt, was sehr relevant für die gefühlten fps ist



cb:ati 8.3 treiber
pcgh: 8.5 hierzu muss man wohl nichts mehr sagen, zumal cb gerade beim cb testartikel vista vs xp in den comments oft genug zur eigenen verteidigung erwähnte wie wichtig aktuelle treiber für die aussage eines benches wären....




dies sind nur einige punkte, die die qualitätsunterschiede zeigen. jetzt zu behaupten ich wäre pcgh fan oder nvidia fan oder was auch immer fan ist ziemlich an der realität vorbei.

wie auch immer, jedem seine eigene meinung. manch einer ist mit bunten bildern schon zufrieden und manch einer bevorzugt anspruchsvolleres. jedem das seine.

es gibt da einen spruch der es am besten erklärt: ehre wem ehre gebührt....

@homer:

jo, sind anscheinend eh einer meinung ;-)
ausserdem wieso sollt ich etwas persönlich nehmen. die comments sind ja für diskussionen da. und es wär ja langweilig, hätte jeder das selbe zu sagen...
 
Zuletzt bearbeitet:
ABER WARUM dann das ganze ?

ICh meine die Grafikkarte ist doch für Spieler gedacht . Warum also dann überhaupt die Gtx280 ?
Wo ist der Sinn , wenn man schon davor eine schnellere Karte hatte , nämlich die GX2

Es macht für mich einfach irgendwo keinen Sinn
 
Zuletzt bearbeitet:
ja stimmt schon, aber bei meinem post ist es ein user-review. finde sowas vorab aussagekräftiger, wenn eine karte noch nicht offiziell zu haben ist.

mfg
 
aber ati wird wohl bei der 4870x2 den speicher beiden gpus gleichzeitig zur verfügung stellen können und das thema microruckler soll auch der vergangenheit angehören.

wenns so ist,wovon ich mal ausgehe, wirds arg düster für nvidia.
 
Naja, wenn die 280er bei 1920*1200 und 8/16 dreimal so schnell ist wie eine 9800GX2 und dann eben 12fps anstatt 4fps bringt, dann lockt mich das ehrlich gesagt nicht hinter dem Ofen vor, denn alles unter 60fps in einem Spiel interessiert mich nicht.

Also in den realistischen Bereichen mit annehmbaren fps´en ist die 280er eben nicht schneller als eine GX2, in den Auflösungen und einstellungen, in denen sie ihr Speicherinterface und die Bandbreite ausspielen kann ist sie FÜR MICH nicht schnell genug...
 
NTARS schrieb:
cb: keine min fps
pcgh: aussagekräftige minfps werte (im speziellen relevant bei cpu skalierung



cb: keine fps verläufe
pcgh: fps verläufe und angaben zu wieviel % das game im flüssigen bereich bleibt, was sehr relevant für die gefühlten fps ist



cb:ati 8.3 treiber
pcgh: 8.5 hierzu muss man wohl nichts mehr sagen, zumal cb gerade beim cb testartikel vista vs xp in den comments oft genug zur eigenen verteidigung erwähnte wie wichtig aktuelle treiber für die aussage eines benches wären....


@homer:

jo, sind anscheinend eh einer meinung ;-)
ausserdem wieso sollt ich etwas persönlich nehmen. die comments sind ja für diskussionen da. und es wär ja langweilig, hätte jeder das selbe zu sagen...

Min-FPS haben imo so gut wie keinerlei Aussagekraft, weil sie nur einen Punkt der Frameverteilung angeben. Ein Spiel, bei dem 999 Frames mit 30 FPS gerendert werden, und 1 Frame mit 0 FPS, hat Min-FPS von 0. Ein Spiel, bei dem 1000 Frames mit 10 FPS gerendert werden, hat Min-FPS von 10. Aussagekraft imo: Null.

Im großen Benchmarktest (10 Spiele) gibts auch nur AvgFPS und MinFPS (keine Verlaufsdiagramme, keine Auswertung was wie lange im spielbaren Bereich bleibt). Wäre der genauso aufgezogen gewesen die der Test mit den 3 Spielen ...

Das mit dem persönlich nehmen ergab sich für mich implizit aus deinen Reaktionen, aber da kann ich mich auch täuschen :)
 
Zurück
Oben