Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

NTARS schrieb:
@ homer jsi:

schon klar dass der fps verlauf des aktuellen pcgh tests keine aussage über mikroruckler bei sli zulässt. aber es geht auch nur um die völlig richtige aussage von pcgh im fazit dass die gt200 den vorteil hat dass sie nicht wie alle bisherigen sli karten von sli rucklern betroffen ist.
und dies können sie behaupten da sie es in den aktuellen ausgaben ihres mags inkl. frametimestable bewiesen haben.

HÄ? Wenn in einem Test SLI nicht getestet wird, und selbst das Messverfahren (im Test: FPS-Werte) gar nicht zulässt, Mikroruckler zu messen: Warum steht dann im Fazit dazu was? Woher soll ich wissen, was in der Printausgabe steht? Ein Fazit bezieht sich immer auf die im Test präsentierten Inhalte. Wenn das Fazit auf anderen Inhalten (zum Beispiel der Printausgabe: Frametimetabelle) basiert, muss das dabeistehen. Sonst werden Schlüsse gezogen, die anhand der Daten nicht nachvollzogen werden können ... was für mich einen extrem faden Beigeschmack hat.

NTARS schrieb:
computerbase hat leider das problem der freiwilligen und somit nicht bezahlten "redakteure". das diese natürlicht nicht mit der qualität von professionellen redakteuren mithalten können ist somit ok, aber es ist halt schade das computerbase immer mehr zur,wenn auch sehr guten, newsseite avanciert, wo man ab und an mal ein paar tests aus langeweile überfliegt. Will man hingegen anspruchsvolle tests ist man mittlerweile anderswo wesentlich ebsser aufgehoben.

Das ist immer so ne Frage.
Aber immerhin kann man bei CB den vollen Inhalt kostenlos abrufen ... im Gegensatz zum PCGH-Artikel, wo man für die gesamte Information dann offensichtlich zahlen muss (Die Frametimetabellen stehen dann nur in der kostenpflichtigen Printausgabe, wie du ja selber sagst).

edit:
Oktanius schrieb:
Gibt es irgendwo ein vergleich der GTX280 SLI der 8800GTX 768 SLI und der 8800Ultra SLI mit aktuellen treibern?

Dann würde man sehn wieviel schneller die GTX280 im SLI wirklich ist.

Hier finden sich zumindest Anhaltspunkte, der Triple-SLI Test
 
Zuletzt bearbeitet:
für interessierte...
eine ati-techdemo die in echtzeit gerendert wurde.

http://www.amd.com/us-en/assets/content_type/DigitalMedia/AMD_Ruby_S04.swf

Rendered in real-time and interactive, this is a brief video from the first Cinema 2.0 demo, premiered by AMD in San Francisco on June 16, 2008. The interactive demo was rendered by a single PC equipped with two "RV770" codenamed graphics cards powered by an AMD Phenom™ X4 9850 Processor and AMD 790FX Chipset. The full demo shows cinema-quality digital images rendered in real-time with interactivity. Check back later this summer for a video of the full Ruby Cinema 2.0 demo.
(0:11)

http://mms.businesswire.com/bwapps/mediaserver/ViewMedia?mgid=139946&vid=5&download=1

http://mms.businesswire.com/bwapps/mediaserver/ViewMedia?mgid=139945&vid=5&download=1

mfg
 
So ich oute mich auch mal als Zotac Gtx 280 Amp kaeufer ;)

Ich sehe das genau so wie Unyu und Avendexx ,habe gestern genau um 15 uhr ,die Reviews der 8800 Gtx und 280 Gtx verglichen ,und bin zu dem selben Ergebniss gekommen .
Etwa die gleiche leistungssteigerung von der 8800 zur 280 wie damals die 8800 zur 79xx .
Preis/Leistungsverhaeltniss ist auch vergleichbar ,der Verbrauch ist im verhaeltniss zur Leistung auch vergleichbar . Damals waren die Preise fuer eine 8800 Gts 640 (400€) auch noch hoeher als fuer eine ,wieder im verhaeltniss vergleichbare ,Gtx 260 .
Da ich noch ne 8800 Gts 640 besitze ,wird mir die doppelte Leistung der 280er sicher wie ein Quantensprung vorkommen ,ueber welchen ich mich schon sehr freue :D
Die paar Kw die ich dann zusaetzlich im Jahr verbrauchen werde machen bei meinem Stromverbrauch auch kein grossen Unterschied ,und wenns zu warm wird spring sowieso vollautomatisch die Klima-anlage an :evillol:
Habe eben zur Zeit Euros im Ueberfluss :rolleyes: ,da konnte ich einfach nicht wiederstehen ,P/L verhaeltniss hin oder her ...
 
Ich bin grad am überlegen -->> Q9450 und Gtx280 oder Q9550 und GX2
 
Zuletzt bearbeitet:
Erstmal 1a Test wie immer! Hoffentlich kommt morgen ATI. Aber stimmt schon das Nvidias größter Konkurrent Nvidia selbst ist. Zumindest in der Oberklasse. Ich Persönlich werde aber bei meinen 2 GTS bleiben und auf die Next Gen warten.

Edit: Morgen oder zu mindestens diese Woche noch
 
@ someone-else

aber in gegensatz zu damals herscht eine ganz andere marktsituation, und man kreigt für weniger geld mehr leistung,zudem schläft die konkurenz nicht mehr,selbst aus dem eigenen haus kriegt man günstiger mehr leistung.


gruß
 
Das fiese ist ja, dass die GTX 260 potentiell genau das gleiche wie ne GTX 280 leisten kann. Bei der GTX 260 sind halt einige Sachen deaktiviert oder gedrosselt. Die Produktionskosten sind in etwa aber gleich der GTX 280.
 
Man weiß ja nicht ob die GX2 wirklich schneller ist .... es kommt ja auch nich nur auf die fps an .

Vielleicht ist die Gtx280 einfach viel smoother
 
Und die Bildquali is (vielleicht) besser....
 
CSchnuffi5 schrieb:
...besondern wenn man bedenkt was vorher alles geschrieben wurde...

Was wurde denn gesagt und wer hat es gesagt?

Razer83 schrieb:
Und die Bildquali is (vielleicht) besser....

Laut Test ist sie mit der Qualität der 8er/9er-Serie identisch.
 
@ Homer:

alle tests der pcgh zur gt200 sind gratis abrufbar, trotz deren wesentlich höheren niveaus als die cb tests.
es gibt dort auch einen eigenen test zu sli, du solltest vielleicht mal einen blick auf die seite werfen bevor du weiter darüber schreibst, denn sonst machst du nichts anderes als das was du kritisierst, nämlich über, in deinem fall, nicht "gelesenes" ein urteil zu fällen.

das fazit der pcgh nochmal, bei dem du anscheinend was nicht ganz verstehst (ein teilauszug!):

"Die Geforce GTX 280 ist über alle Benchmarks gesehen die absolut schnellste Grafikkarte - allerdings nicht mit dem Abstand, der im Vorfeld teilweise spekuliert worden war. Das alte Single-CPU-Flaggschiff, die 8800 Ultra, wird im besten Fall um 60 Prozent überholt. In extremen Auflösungen und 8x FSAA läuft deren Videospeicher voll, sodass die GTX 280 bis zu dreimal schneller - und damit spielbar - ist.

Allerdings muss sich Nvidias Speerspitze das eine oder andere Mal der Radeon HD 3870 X2 oder Geforce 9800 GX2 geschlagen geben. Insgesamt bekommen Sie mit der GTX 280 jedoch die konsistenste Performance, ohne sich mit den bekannten Multi-GPU-Ärgernissen wie Mikrorucklern oder dem Warten auf einen angepassten Treiber herumschlagen zu müssen."

Hier wird nichts behauptet was nicht getestet wurde; besser egsagt es bedarf keines eigenen tests in dem falle, da ja jeder halbwegs interessierte leser weiss, dass mikroruckler bei singlechipkarten nicht vorkommen.

pcgh schreibt nichts anderes als das und setzt eben einen gewissen mindestwissensstand voraus.
das bestätigt wieder die sache vom niveau; nicht jeder interessiert sich z.b. für die c't artikel, weil sie lieber bunte bilder sehen.



und zuletzt nochmal zu deinem 1. punkt. du hast recht mit dem argument des fazits das sich auf das getestete beziehen muss. ich rate dir von daher mal den computerbasetest xp vs vista zu lesen und das fazit dann zu beurteilen.... ;-)
 
Pornomafia schrieb:
Man weiß ja nicht ob die GX2 wirklich schneller ist .... es kommt ja auch nich nur auf die fps an .

Vielleicht ist die Gtx280 einfach viel smoother

und @y33H@: immer die Frage, was unter smoother zu verstehen ist. Ich verstehe unter smooth eine Verlaufskurve, die gerade ist (konstante Framerate). Smoother würde in diesem Sinne bedeuten, dass die Verlaufskurve nicht so stark ausschlägt. Auch die GTX 280 ist in diesem Sinne nicht smooth, aber: die Schwankungen verlaufen fast immer oberhalb der Spielbarkeitsgrenze, deshalb fühlt sie sich smoother an. Und darauf kommt es schließlich an ;)

NTARS schrieb:
@ Homer:

alle tests der pcgh zur gt200 sind gratis abrufbar, trotz deren wesentlich höheren niveaus als die cb tests.
es gibt dort auch einen eigenen test zu sli, du solltest vielleicht mal einen blick auf die seite werfen bevor du weiter darüber schreibst, denn sonst machst du nichts anderes als das was du kritisierst, nämlich über, in deinem fall, nicht "gelesenes" ein urteil zu fällen.

das fazit der pcgh nochmal, bei dem du anscheinend was nicht ganz verstehst (ein teilauszug!):

"Die Geforce GTX 280 ist über alle Benchmarks gesehen die absolut schnellste Grafikkarte - allerdings nicht mit dem Abstand, der im Vorfeld teilweise spekuliert worden war. Das alte Single-CPU-Flaggschiff, die 8800 Ultra, wird im besten Fall um 60 Prozent überholt. In extremen Auflösungen und 8x FSAA läuft deren Videospeicher voll, sodass die GTX 280 bis zu dreimal schneller - und damit spielbar - ist.

Allerdings muss sich Nvidias Speerspitze das eine oder andere Mal der Radeon HD 3870 X2 oder Geforce 9800 GX2 geschlagen geben. Insgesamt bekommen Sie mit der GTX 280 jedoch die konsistenste Performance, ohne sich mit den bekannten Multi-GPU-Ärgernissen wie Mikrorucklern oder dem Warten auf einen angepassten Treiber herumschlagen zu müssen."

Hier wird nichts behauptet was nicht getestet wurde; besser egsagt es bedarf keines eigenen tests in dem falle, da ja jeder halbwegs interessierte leser weiss, dass mikroruckler bei singlechipkarten nicht vorkommen.

pcgh schreibt nichts anderes als das und setzt eben einen gewissen mindestwissensstand voraus.
das bestätigt wieder die sache vom niveau; nicht jeder interessiert sich z.b. für die c't artikel, weil sie lieber bunte bilder sehen.



und zuletzt nochmal zu deinem 1. punkt. du hast recht mit dem argument des fazits das sich auf das getestete beziehen muss. ich rate dir von daher mal den computerbasetest xp vs vista zu lesen und das fazit dann zu beurteilen.... ;-)

Auch im SLI-Test, der online auf der PCGH-Site abrufbar ist, finde ich keine Tabelle mit Frametimes. Und genau die braucht man zur Beurteilung von Mikrorucklern. Offensichtlich ist die Frametimestabelle doch nur im Printmagazin.

Außerdem habe ich oberhalb ein ganz anderes Fazit kritisiert, nämlich dieses. Das Fazit das du hier anführst, bezieht sich auf dem 10-Spiele-Test. Und auch da bleiben einem die Daten, anhand deren man die Mikroruckler beurteilen könnte (Frametimes) schuldig. Sie stehen nicht bei den SLI-Werten. Das Fazit also auch anhand von Inhalten, die nicht im Test stehen.

Und das Fazit vom damaligen XP-vs-Vista-Test habe ich genauso kritisiert :) Denn ein Fazit muss nachvollziehbar sein.
 
NTARS schrieb:
..."allerdings nicht mit dem Abstand, der im Vorfeld teilweise spekuliert worden war. Das alte Single-CPU-Flaggschiff, die 8800 Ultra, wird im besten Fall um 60 Prozent überholt...

Das "spekuliert" ist genau der Punkt, den viele vergessen, dementsprechen mit einer höheren Performance gerechnet haben, enttäuscht wurden und den schwarzen Peter nun bei nVidia suchen.

Ich wette, sollten sich die Gerüchte bei der 48er-Serie nicht bewahrheiten, wird dort genau das Gleiche passieren wie hier. Das hat man ja auch schon bei der 29er-Serie gesehen.

Leute Spekulieren und den Firmen wird das zum Verhängnis gemacht. Das ist es, was ich einfach nicht wirklich fair finde, egal ob bei NVidia, ATi, AMD, Inel oder anderen Firmen. Und deshalb nerven die Kommentare wie "nVidia hat scheiße auf den Markt gebracht" oder "die Karte ist ein Flopp, da hätte mehr Performance kommen müssen, nVidia hats verbockt", etc.

Man sollte da ein wenig fairer an die Sache rangehen. Sicherlich wurden auch einige Gerüchte seitens der Hersteller gestreut, aber man hat doch noch sein eigenes Köpfchen und konnte zumindest bei den neuen nVidia Karten sehen, dass es eben zu dieser im Schnitt 50% höhere Leistung kommen wird und es eben nicht wirklich mehr ist.
 
Zuletzt bearbeitet:
@ Schinzie ,
Ja dessen bin ich mir ja bewusst ,zb. eine 9800 Gx2 oder ne 3870X2 ist der Gtx 280 fast ebenbuertig ,aber auch nur fast ,in hohen Aufloesungen ist die 280er besser , die 280 hat mit 1024mb dazu noch den deutlich groesseren Vram zur verfuegung . Auch ist es so dass die Gx2 und 3870X2 noch von diversen Faktoren beeinflusst werden ,Cf/Sli Skalierung ,nur halb so viel Vram (effektiv).
Die Gtx 280 ist in meinen Augen daher die bessere Loesung ,da ich gerne mit 2048x1536 mit AA/AF fluessig zocken moechte ,und das auch noch in naechster Zukunft ,am besten ohne Cf oder Sli.

@Razer83 ,

Das war doch damals genau das selbe ,meine Gts ist ja im Grunde auch ne teilweise deaktivierte Gtx . Auch leistet Sie auf 650 Mhz und 950 Mhz Speicher ,sogar fast das selbe .

Mal sehen was Ati in ein paar Tage vorstellen wird ,bin schon gespannt auf die Ergebnisse ,und vorallem auf die Kommentare hier :)
 
Zuletzt bearbeitet:
Ich weiss gar nicht was die User sich hier so Aufregen.
Man kann doch Nvidia oder ATI danken für ihre schnellen karten.

Würde es diese Karten nicht geben wäre in diesen Sachen Stillstand
und keine Leistung bei Spielen mehr Möglich.

Also was soll diese Unsinnige gerede ist ein Flop, die Karte ist scheisse
sind wir im Kindergarten oder wie.

Ich sage nur Danke an ATI und Nvidia für die High End Karten, für ein Flüssiges Gameplay
der Games.

ganz einfach wer sich die Karten nicht Leisten kann hat Pech. Dann soll er sich eine XFX 8800 GTX
für 180 Euro kaufen und hier nicht rumheuen.

Das nervt Total dieses Rumgeheule hier, das das ist scheisse und das passt nicht Oh man.
 
Zuletzt bearbeitet:
@y33H@: Du musst Deine Antipathie gegenüber der GX2 noch deutlicher herausstellen, das ist viel zu subtil...
 
Boah.... 1,4 Milliarden Transistoren.... das ist ja ein Monster!

Den Preis kann man da schon gut nachvollziehen.

Jedenfalls gut, dass nvidia gleich auf den Stromverbrauch geschaut hat, die Werte sind ja eigentlich ganz gut (für die Leistungsklasse).

Ich wage nur zu bezweifeln ob das generell der richtige Weg ist. Ich denke schon das nvidia so die Performancekrone behalten kann, aber nur durch brachiale Chipgröße.... die natürlich ihren Preis hat.
 
cosmicparty schrieb:
@ NTARS:
du findest PCGH zieht davon? omg. lol
PCGH ist sowas von unobejktiv, da denk ich manchmal das wäre ein nvidiawerbeblättchen.

ich für meinen fall vertraue der cb bei weitem mehr.

Dann lies mal bitte den Gamestar-"Test". 40/40 Punkten bei Spielleistung lol!

Falk01 schrieb:
Wenn dazu ATI ncohmal kapiern würde das der Kunde auch nen leises Kühlkonzept erwartet, wär wieder mal ne ATI fällisch.

Also alles seit der 3000 Serie ist relativ leise. Kannst du dir auch in den Tests anschauen. Ich denke, ATI wird versuchen, das beizubehalten. Kann dir aus eigener Erfahrung eine geinge Lautstärke der 3870 attestieren. Im Idle unhörbar, beim Zocken als leichtes rauschen/brummen wahrnehmbar, aber definitiv nicht störend.

Oktanius schrieb:
Gibt es irgendwo ein vergleich der GTX280 SLI der 8800GTX 768 SLI und der 8800Ultra SLI mit aktuellen treibern?

Dann würde man sehn wieviel schneller die GTX280 im SLI wirklich ist.

Der Abstand wird sich prozentual eh kaum ändern, also wozu die Mühe? Zumal die 88GTX eh EOL ist. Und zwei GTX280 Netzteilmord. Anandtech ist mit einem 1000W NT nicht zum benchen gekommen, die eine GTX280 musste über ein separates NT betrieben werden:eek::evillol::freak::rolleyes:

Pornomafia schrieb:
Ich bin grad am überlegen -->> Q9450 und Gtx280 oder Q9550 und GX2

Q9450 und 4870 (CF) ^^

Ist auf jeden Fall günstiger. Zum Zocken reicht auch ein schneller DC, in einem Jahr kommen die Nehalems, dagegen werden wohl alle aktuellen (auch >1000€ CPUs) ziemlich alt aussehen, also wozu das Geld verschwenden?

@PCGH-Test: Hab ich nicht komplett durchgesehen, aber schaut schon ganz gut aus. Andererseits arbeiten die Leute da auch professionell, sprich, die verdienen ihre Brötchen damit. Da erwarte ich auch ne ordentliche Qualität.
Das Fazit dort kann ich allerdings uneingeschränkt teilen:

"Das hat jedoch seinen Preis: Über 500 Euro sind eine Stange Geld und uneingeschränkt nur Besitzern von 30-Zoll-Monitoren zu empfehlen."

Alle anderen sollten sich was anderes suchen oder bei ihrer 88GTX bleiben
 
Zurück
Oben