Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Den Sprung vom G70 und co. zu G80 kannst du mit ner GTX280 nicht reproduzieren, da die G80 einfach eine viel bessere Architektur hatte als der alte G70. Das war eine völlig neue Technik. Die GTX280 sieht auf jeden Fall nicht nach einer Rundumerneuerung aus:)

Da muss ganz einfach eine neue Architektur her! Der RV770 ist ja vom RV670 auch nicht sehr weit entfernt. Solche Leaps wie bei G70->G80 gibts nur bei Architekturwechseln. Siehe auch P4->C2D...
 
Mal eine Frage an die vermutlich wenigen Leute, die diese Karte bereits besitzen.
Stürzen 3D-Spiele jetzt immer noch ab, wenn man die 2 Werte zusammen verwendet?
https://www.computerbase.de/forum/attachments/nvidia-bsod-jpg.96551/

Bei der GeForce 7-Reihe gab es nie Probleme.
Bei der 8 und 9-Reihe BlueScreens oder Fehlermeldungen, dass der Grafik-Treiber nicht korrekt ausgeführt wird...

Grüße
 
Naja, von der neusten und teuersten Karte (egal ob Single oder Dual) erwarte ich einfach das sie auch die schnellste ist. Da muss sie sich halt mit einer X2 oder GX2 messen lassen. Dann erwarte ich aber eben auch einen signifikanten Performancesprung, so ist das wie schon gesagt für mich nicht so der Büller.

Greetz
 
y33H@ schrieb:
In 2 Jahren 50% mehr Fps ist erbärmlich ...

cYa

Was habt ihr denn erwartet?

Wenn ich nur diese News finden würde, in der es heist, dass die GTX 280 ca. 50% schneller als die 8800GTX/Ultra sein soll....Vielleicht würden dann mal die Unkenrufe aufhören.

Edit:
Hier wird erwähnt, dass nVidia eine Steigerung von rund 50% gegenüber der bisherigen Performance erwartet. Verfolgt man die News dann weiter, z.B. diese sollte eigentlich klar sein, dass sich das auf eine Single-Karte, also auf die 9800GTX/8800GTX/Ultra, bezieht.

Genau das hat die GTX280 sehr gut hinbekommen. Passt zwar nicht immer, aber die Tendenz stimmt.

Sowas wird aber gerne überlesen und man lobt die Karte in höchsten Tönen und hinterher ist dann nVidia der dumme, weil es stimmt was sie gesagt haben und die Spekulationen der User eben nicht hingehauen haben?

Das soll mal einer verstehen. Sorry!
 
schade.
so einen großen wirbel für so eine karte.
und schön ist sie auch nicht.
also werd ich bei meiner g80 Karte bleiben.
 
Warum wurde nicht gleich mit treibern von vor 2 Jahren getestet? und die GTX 280 mit den neusten... muss da sein?

Hey bei Tests auf anderen Sites ist es genauso... seltsam ???
 
@Freak
Das der G92 (512mb :rolleyes:) ein großer Blender zu Gunsten der Zukunft gewesen ist, das war doch hoffentlich damals schon klar.

Schade nur, dass ich persönlich mit dem Nachfolger auch nichts anfange. Mal sehen, was AMD liefert. Vllt. ist das Paket vernünftiger.
 
HD 3850 ~ 11.000 3D Marks
GTX 280 ~ 19.000 3D Marks -> ca. 2x mehr Leistung

(gut, bei 1280x1024, aber auf der Auflösung spiele ich und viele andere auch)

HD 3850 ~ 110 €
GTX 280 ~ 550 € -> ca. 5x so teuer

Ist das nicht ein Angebot?

Mfg Robigo
 
@Fabulous13

Wie oft denn noch?

Um die anderen Karten mit neuen Treibern zu testen, muss erst mal sichergestellt sein, dass man alle anderen Karten auch zur Verfügung hat, was wohl eine ziemlich aussichtslose Angelegenheit ist. Weiterhin müssen dann alle Karten neu getestet werden! Dieser Aufwand steht in keinem Verhältnis zu den veränderten Ergebnissen. Zudem ändert dies am Gesamtrating auch nicht sonderlich viel.

Nicht unbedingt schön, aber durchaus nachzuvollziehen.
 
Interessant wäre mal welche Käufer sie damit ansprechen wollen, die Karte wird wenn der Preis nicht noch um einiges sinkt ein Luxusprodukt aber die meisten Computer sind keine Luxusobjekte (außer hier im Forum, wobei viele ja auch nur ne 8800GT oder eine 3870 haben), also wird die Käuferschicht doch sehr klein, ob sich sowas lohnt?
 
@Regis91

Die Käuferschicht bei solchen Karten ist Anfangs immer sehr klein! Das ist doch nun auch nichts neues oder? Das war bisher bei keiner High-End-Karte was anderes.
 
oidenburga schrieb:
Die wenisgten Berücksichtigen, dass die Treiber auch noch besser werden.

Warum sollte man die zukünftigen Treiber berücksichtigen? Sie werden zum Benchen doch auch nicht herangezogen :p
 
Wurden ALLE Karten mit 2.0 und neuesten Treibern getestet?
NEIN.
Also ist der Test eigentlich für den Ars...
Wenn man sich den Test zu P45 liest, mit teilweise 10FPS(60 auf 70) mehr!

Ich glaube, daß einfach der Speicherdurchsatz der Mainboards zu gering ist.
Wird sich mit Triplechannel ändern(Nehalem).
Mal sehen wie die Karten dann abgehen!
Mit 2GB Testen ist auch ein Witz.
AoC kommt damit gerade so aus.
4GB + 64Bit sind quasi Pflicht, wenn man schon einen utopischen 4ghz Quadcore einsetzt.
 
Zuletzt bearbeitet:
Ati hat gewonnen findet euch damit ab nvidia bringt veraltete technik die VIEL ZU LAUT und VIEL zu VIEL STROM zieht, dazu sind die temperaturen auch gestiegen.
 
und ich sage ein halleluja vorraus,
die erde wird beben
und der himmel wird sich öffnen,
die engel werden singen und die heiligkeit der 4870 wird erscheinen...

kniet nieder und huldigt ihr... halleluja

sie ist es, die offenbarung des zockervolkes,
eine für alle,
sie wird glück verströmen und ein lächeln in jedes gesicht zaubern...

die heilige, die weise, die gütige

Sankt 4870... eine von uns und für uns


PS *lol* sorry, aber ich freu mich echt auf die =)
 
AEROON schrieb:
Die schlechte SLI-Skalierung bei 3DMrk06 hängt von der zu schwachen CPu ab, oder?

Der ist nicht schlecht.. Immerhin ein QuadCore @ 4GHz.. Joar, könnte an der schlechten CPU hängen.. :lol:

Oder vielleicht doch an der SLI-Problemetik selber?? Man munkelt..
 
Leute es ist offensichtlich, dass Nvidia gerade an einer 55nm Version arbeitet.

Hoffentlich kriegen sie dann eine leisere Kühllösung hin mit weniger Stromverbrauch.

Allerdings darf auch nicht zuviel von 55nm erwarten...da dürfte man eher von einem Sprung auf 45nm mehr erwarten.

Allerdings bietet TSMC das momentan wohl nicht bezahlbar an für eine 1,4 Millarden Transistoren CPU...
 
kleines Ottili schrieb:
Achja noch was...warum kapieren die Grafikkartenhersteller eigentlich so selten, dass der User eine leise Grafikkarte haben möchte? Kann das absolut nicht verstehen. :(
Es gibt leise, passiv gekühlte Karten, die aber kein High-End sind. Ich versteh nicht, warum man von einem Referenzkühler einer neuen High-End-GraKa erwartet, absolut silent zu agieren :freak:.

AYez schrieb:
Ati hat gewonnen findet euch damit ab nvidia bringt veraltete technik die VIEL ZU LAUT und VIEL zu VIEL STROM zieht, dazu sind die temperaturen auch gestiegen.
Das war der bislang sachlichste Post überhaupt, der so objektiv begründet ist, dass es unmöglich ist, Gegenargumente zu bringen - wie auch, ohne Argumente, auf die diese sich beziehen könnten :rolleyes:.
 
Zurück
Oben