Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich
Die karte ist ja nen Totaler Flop. Und nur mal so neben bei ehhmm bei das ist auch noch ein SLI gespan und keine Singlekarte !!! Mich würde es mal interressiern was dich Karte ohne SLI bringt.
Klicke doch einfach nochmal auf den Test, schau dir mal genau die bunten Balken, und den Schwarzen Text davor an, und dann wirst du sehen, das sowohl SLI als auch Single getestet wurde
Hätte nicht gedacht, das SLI bei So Ultrahohen Auflösungen bei dieser Generation so Gut skaliert.
ich mein bis zu 198% und im schnitt ca 180%.
war es zu anfang nicht iwie 140-160%? (also bei früheren generationen)
da haben die gewaltig was verändert.
Rekord Ist ja aber der Stromverbrauch mit SLI unter Last :-D
trotz der enormen leistung nichts für mich! ist einfach zu teuer.
Also mich hat die Karte total enttäuscht. Dass sie zB bei COD4 trotz doppelt so vielen Transistoren und doppelt so hoher Speicherbandbreite auf 2560x1600, was eigentlich die große Schwäche beim G92 war, nur schlappe 60% vor einer 8800GT liegt, ist mehr als schwach. Und das bei dem fünffachen Preis und dem doppelten Stromverbrauch.
1280x1024 gx2 schneller und nur 40% über der 9800gtx (das soll doch die hd4870 erreichen!)
1600x1200 gx2 schneller nur 46% über 9800gtx
2560x1600 gx2 schneller und erst hier die versprochenen 50% bzw 55% mehr.
1280x1024 4xAA und 16AF sagenhafte 2% über der gx2 bei 250euro mehrpreis und nur lusche 46% über der 9800GTX einfach erbärmlich bei dem aufpreis
bei 1600x1200 und 2560x1600 mit 4xAA und 16AF ist es fast dasselbe nur ein paar wenige % mehr abstand zu gx2 und 9800gtx.
erst mit 8x AA bzw 2560x1600 mit 4xAA und 16AF schafft die karte einen vernünftigen abstand. Rechtfertig aber immernoch nicht den gewaltigen Aufpreis und die Karte schafft bei den hohen auflösungen mit AA und AF genauso wenig ein flüssiges Bild wie alle anderen Karte auch
es ist gut möglich das in den auflösungen bis 1600x1200 mit 4x AA und 16AF die hd4870 die gtx280 schlagen kann oder zumindest sehr nah rankommt.
Fazit:
Eine misserable Karte von Nvidia, ein grinsen auf dem Gesicht von AMD/ATI und Intel.
@Sebastian
naja der ram bei ner 3870 wird ja weder runtergetaktet noch die spannung gesenkt und da is wo nix mit 3 watt im idle wenn man mal den verbrauch eines stinknormalem ddr2 moduls bedenkt. dann müsste ja die karte schon fast "aus" sein ...
und am ende zählt was gemessen wird und nich was der hersteller angibt.
amd hat damals auch bei den a64 mit der tdp geschwindelt und das im positiven. einfach mal mehr angegeben obwohl die in wirklichkeit viel weniger verbraucht haben.
hätte mir wirklich mehr davon erwartet!
Die Leistung der ATI4870 ist auf dem Niveau der ATI HD3870X2 angekündigt und die GTX280 setzt sich maximal 5% von der ATI 3870X2 ab.
Naja, die Chance für die ATI4870!
Was ich noch blöd finde: Warum die Auflösung 1920x1200 nicht im Test ist.
Maximal 5%??? Bei aller Freundschaft und Liebe, schau dir die Ergebnisse noch mal im Gesamtrating an. Dort wirst du feststellen, dass es doch etwas mehr ist. Im schlechtesten Falle sind es 20% Unterschied zu Gunsten der GTX 280. Wir wollen da mal nicht übertreiben.
Ich weis nicht was ihr alle habt - die Karte ist doch eine absolute Granate und wischt mit jeder ATI den Boden. Kein Probleme mit Mikrorucklern und dennoch oft schneller als eine GX2 oder SLI-Lösung, dazu die optimierte CUDA-Fähigkeit.
Keine Frage das diese Karte ein würdiger Nachfolger meiner 8800GTX wird.
Nun zum Ergebniss an sich. Ich finde es irgendwie recht ernüchternd das eine einzelne Karte dieses Preissegments es immer noch nicht schafft Crysis @ VeryHigh bei höheren Auflösungen flüssig zu bekommen. Ich selbst habe gestern mit meinem SLI Verbund ein bischen Crysis gebencht und komme durch die Reihe auf höhere Ergebnisse (meist 10FPS mehr im Schnitt !!!).
Die restlichen Benchmarks bestätigen nur den Eindruck das es die einzelne GTX280 tatsächlich in KEINER EINZIGEN Situation schafft einem 8800GTX-SLI Verbund das Wasser zu reichen (abgesehen vom Stomverbrauch vielleicht).
Ich für meinen Teil werde diese GraKa Generation überspringen und dann wohl in einem Jahr mit einer bis dahin 2,5 Jahre alten GrafikkartenGeneration immer noch sehr gut fahren .
im Test selbst... steht unter Technik im Detail Part 2 / Stromsparmechanismen: Zitat:
Neu hinzugekommen ist ein „Blu-ray-DVD-Playback-Mode“, indem der GT200 nach eigenen Angaben nur noch 35 Watt benötigt. Im „Idle/2D-Modus“ soll die Leistungsaufnahme auf 25 Watt sinken.
da habe ich die "Propaganda 25 Watt" her!!
in meinem Post habe ich mit dem Konjunktiv (würde) gearbeitet. Ich schreibe hier gerne den Satz nochmal mit Kommentar hin:
(wenn das stimmt) würde (es) ja bedeuten, dass die HD 3870 3 Watt im idle verbraucht, damit die Nvidia Stromspar - Propaganda stimmt???
Ich habe SELBSTVERSTÄNDLICH nicht daran geglaubt bzw. behaupten wollen, dass die HD3870 im idle 3 Watt verbraucht, sondern wollte damit klarstellen, dass Nvidia darauf traut, dass die User nicht nachvollziehen, dass die 25 Watt Idle/2D Verbrauch ... so (mit aktuellen Treibern/ in der aktuellen Revision) nicht stimmen
Grundsätzlich eine beeindruckende Karte, bei der man eben mit den geschilderten Nachteilen bezüglich Preis und Stromverbrauch leben muss.
Wenn jedoch ATI das Problem der Mikroruckler bei der 4870 X2 endgültig in den Griff bekommt, wird diese Karte einen sehr ernsten Konkurrenten zum (höchstwahrscheinlich) besseren Preis haben.
Wirklich ne Schande CB das ihr die alten Karten einfach so lings liegen gelassen habt.Die GTx 280 steht doch nur gut da,weil alle anderen Karten mit älteren Treibern getestet wurden.
Der Test ist damit nicht aussage kräftig.Dagegen sollte man vorgehen.Ihr verleibt der Karte ein ganz anderes Bild was falsch ist...
naja der ram bei ner 3870 wird ja weder runtergetaktet noch die spannung gesenkt und da is wo nix mit 3 watt im idle wenn man mal den verbrauch eines stinknormalem ddr2 moduls bedenkt. dann müsste ja die karte schon fast "aus" sein ...
und am ende zählt was gemessen wird und nich was der hersteller angibt.
Der Test zeigt so einiges, aber nicht, dass die Karte ne Granate wäre - eher ein Rohrkrepierer *lol* wenn man sich das Preis-Leistungsverhältnis anguckt.
Ich würde das mal als Steilvorlage für ATi bezeichnen... bin mal gespannt ob die 4870 hält was die Gerüchteküche so alles gekocht hat . Wenn ja kann die Firma trotz fairen Preisen endlich wieder richtig Geld verdienen
Guckst du hier, da werden einfach die Werte vom alten Test (mit entsprechend älteren Treibern) übernommen. Würden bei jeder neuen Grafikkarte alle alten Grafikkarten nochmals in neueren Treibern mitgebencht, könnte man wohl 10 Mitarbeiter nur fürs Benchen einstellen
@Topic: Mal ganz ehrlich, die Ergebnisse verwundern mich nich wirklich, ganz böse gesprochen ist der GT200 ein G80 mit nicht ganz doppelt so vielen Stream-Prozzis, n paar mehr Textureinheiten, nem breiterem Speicherinterface und nem bisschen mehr Speicher. Wunder kann man da nicht erwarten? Nett, dass an Stromsparmechanismen fürs idle gedacht wurde und die 2500er Auflösung mit nem Single-Chip ziemlich spielbar aussieht (mal abgesehen von Crysis).
Hammerkarten wie die 8800GTX oder die Ti4200 gibts eben nich alle Generation. Is aber auf der anderen Seite auch gut, dann ist der Druck zum Aufrüsten nich so groß.