News Im Test vor 15 Jahren: Die GeForce GTX 280 als schnelle Enttäuschung

Hatte die GTX260 von PALiT, war damals meine erste Highend-Karte - die Leistung war für mich atemberaubend.
 
Da sind meine beiden Krawallbrüder noch :)

GTX280.jpg
 
  • Gefällt mir
Reaktionen: Slim.Shady, Aquilid, Holgmann75 und 2 andere
Die GTX 280 war glaube ich die erste Grafikkarte mit Backplate?
Ein wichtiger Schritt damals im Kartendesign und Nvidia muss man zugute halten, dass sie damit Trendsetter waren. Das Design ist ihnen offensichtlich wichtig, die Karten wirken damit hochwertiger, es ist alles aus einem Guss. Meine GTX 260 hat leider frühzeitig aufgegeben.
IMG_6503.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever, Hardy_1916, nurfbold und 2 andere
Ich hatte damals die GTX260² und war damit eigentlich recht zufrieden. War eine gemodette Karte von Caseking (Kingmod oder sowas)
 
Ahja, das waren diese potthässlichen Zweiteiler-Karten. (Kühler - Lüfter)
 
Tuetensuppe schrieb:
Bei 2560x1600 8xAA/16xAF hat die GTX 280 einen Leistungsvorsprung von 233% (!) gegenüber der GTX 8800 Ultra.
Jenergy schrieb:
Der Performancevorsprung beträgt "nur" 133%.
Und auch dieser Vorsprung entstand wahrscheinlich bloß durch den Speicherausbau --- also nicht durch irgendetwas, was die GPU selbst geleistet hat. Entsprechend...
Tuetensuppe schrieb:
Diese Karte enttäuscht nicht, sie kam nur einige Jahre zu früh.
...verschiebt sich dann auch das Fazit.
 
Interessant gewesen wäre die Karte schon, aber mit 3 3870ern unter Wasser und ohne Ahnung was mikroruckler sind, war ich damals gut versorgt:)

Ich hatte später mal eine 260, die im Fernsehrechner laufen sollte aber zu laut war.
Würde dann zeitnah durch eine ATI 2900xt unter Wasser ersetzt, die den Celeron 420@3,2ghz hat ordentlich arbeiten lassen...
 
CDLABSRadonP... schrieb:
Und auch dieser Vorsprung entstand wahrscheinlich bloß durch den Speicherausbau [...]
Ja, gut möglich, dass hier die zusätzlichen 256MB den Unterschied gemacht haben.
 
Ich hatte nach Release zuerst eine GTX 260/196 und dann etwas später noch eine GTX 285. Ich war mit beiden Karten damals sehr zufrieden.
 
Zuletzt bearbeitet:
Trotzdem war die 8800er Serie ein absoluter Meilenstein in der GPU Geschichte, und hatt damals jeden einfach nur vom Hocker gehaun, hab noch eine 8800GTS 640 hier liegen. Erst die 40er Serie konnte mich erneut in sachen Leistung so vom Hocker hauen wie damals die 8800er.
 
  • Gefällt mir
Reaktionen: Dabaur, Vitec und -=[CrysiS]=-
Tkohr schrieb:
:confused_alt:Trotzdem war die 8800er Serie ein absoluter Meilenstein in der GPU Geschichte, und hatt damals jeden einfach nur vom Hocker gehaun,
Auf jeden Fall. Doch wieso beginnt das Posting mit einem "trotzdem"???
Tkohr schrieb:
Erst die 40er Serie konnte mich erneut in sachen Leistung so vom Hocker hauen wie damals die 8800er.
Meinst du damit wirklich RTX 4000, sprich Ada, ist da kein Tippfehler drinne? Es gab dazwischen auf Seiten von Nvidia drei viel beeindruckendere Generationenwechsel, nämlich Fermi 2.0 → Kepler (GTX 580 → Titan / 780ti), Kepler → Maxwell 2.0 (Titan / 780ti → Titan X / 980ti) sowie Maxwell 2.0 → Pascal ( Titan X / 980ti → 1080ti)

Habe jetzt der Einfachheit halber jedes Mal die Topmodelle genommen, die Midrangechips gehen aber genauso, also 560ti → 680 / 770, 680 / 770 → 980 sowie 980 → 1080.

Oder meinst du damit ATIs 4000er-Serie?
 
memory_stick schrieb:
Das ist die Idee von steigendem P/L Verhältnis durch technischen Fortschritt.

Das Problem ist, heute kriegst du für 770€ nicht den Top chip, nicht den 2. grössten, nein, du kriegst den 3. Grössten chip der Serie! Der Top chip ist mal locker das doppelte, das P/L Verhältnis ist also (auch Inflationsbereinigt) deutlich gesunken die letzten 15 Jahre.
Das ist auch weiterhin gegeben, allerdings sind auch die Ansprüche "etwas" gewachsen und das wird gerne unterschlagen.
Früher war man auch mit einem CRT mit 1280 x 1024 zufrieden, heute muss es 4K sein und am besten mit 160+ fps.

Für Nutzer von Auflösungen <4K die sich auch mit 100fps zufrieden geben ist schon mit <800€ meistens alles erledigt.
Diejenigen die mehr wollen müssen auch mehr investieren und früher hat diese Gruppe z.B. SLI verwendet und das sogar trotz mangelhafter Skalierbarkeit manchmal mit drei bis vier Karten was den Preis wieder etwas relativiert...

Nicht falsch verstehen,
mir wäre es auch lieber wenn eine RTX4090 800€ kosten würde, nur kaufen würde ich sie schon alleine wegen dem Stromverbrauch trotzdem nicht.
 
Robo32 schrieb:
Das ist auch weiterhin gegeben, allerdings sind auch die Ansprüche "etwas" gewachsen und das wird gerne unterschlagen.
Früher war man auch mit einem CRT mit 1280 x 1024 zufrieden, heute muss es 4K sein und am besten mit 160+ fps.
Du vermischst hier Dinge, die nicht zusammengehören, nämlich Ansprüche an Ingame-Settingwahl und Ansprüche an die Hardwareausstattung. Die Ansprüche an die Hardwareausstattung sind nämlich relativ betrachtet in dieser Zeit nicht im Vergleich zu heute nicht mehr* gewachsen; der AD102 der 4090 ist kaum größer als der GT200 der 280.

Kurze Gedächtnisstütze:
https://www.techpowerup.com/gpu-specs/nvidia-gt200.g61
https://www.techpowerup.com/gpu-specs/nvidia-ad102.g1005

*nicht mehr, weil es in den Jahren davor hingegen der Fall war --- der NV10 der Geforce256 war noch etwa 140mm² groß, das Graka-Topmodell trug also aus heutiger Sicht eine Einsteiger-GPU.
https://www.techpowerup.com/gpu-specs/nvidia-nv10.g165

Robo32 schrieb:
Diejenigen die mehr wollen müssen auch mehr investieren und früher hat diese Gruppe z.B. SLI verwendet und das sogar trotz mangelhafter Skalierbarkeit manchmal mit drei bis vier Karten was den Preis wieder etwas relativiert...
Das hingegen ist ein Punkt, den viele oftmals erklären und der auch einer von vielen Gründen dafür darstellt, wieso sich in den letzten Jahren das HighEnd preislich so gut nach oben verschieben konnte.
Robo32 schrieb:
Nicht falsch verstehen,
mir wäre es auch lieber wenn eine RTX4090 800€ kosten würde, nur kaufen würde ich sie schon alleine wegen dem Stromverbrauch trotzdem nicht.
Hier wirst du hingegen abermals getäuscht: Die 4090 lässt sich auch problemlos auf normale 250W drosseln und ist dann eine sehr effiziente Karte.
 
  • Gefällt mir
Reaktionen: memory_stick
Robo32 schrieb:
Das ist auch weiterhin gegeben, allerdings sind auch die Ansprüche "etwas" gewachsen und das wird gerne unterschlagen.
Früher war man auch mit einem CRT mit 1280 x 1024 zufrieden, heute muss es 4K sein und am besten mit 160+ fps.

Für Nutzer von Auflösungen <4K die sich auch mit 100fps zufrieden geben ist schon mit <800€ meistens alles erledigt.
Diejenigen die mehr wollen müssen auch mehr investieren und früher hat diese Gruppe z.B. SLI verwendet und das sogar trotz mangelhafter Skalierbarkeit manchmal mit drei bis vier Karten was den Preis wieder etwas relativiert...

Nicht falsch verstehen,
mir wäre es auch lieber wenn eine RTX4090 800€ kosten würde, nur kaufen würde ich sie schon alleine wegen dem Stromverbrauch trotzdem nicht.
Nichts für ungut, doch die Erhöhung der Auflösung auf 4K, die Erhöhung der FPS auf 160 sind ebenfalls technologische Fortschritte. Vor 15 Jahren hatten wir noch kein 4K, und die TFTs konnten keine 120+ FPS. Heute können sie es, da ist es nur verständlich diesen technologischen Spielraum auch ausnutzen zu können.

Mir ging es in erster Linie auch um die (evtl unterbewusste) Rechtfertigung der erhöhten Preise.
Fakt ist, seit ca. Pascal Generation erhöht NVIDIA die Preise auch Inflationsbereinigt jede Generation an. Der jeweilige Fortschritt der Produkte rechtfertigt die Preiserhöhung nur bedingt, erhalten die Hersteller doch auch durch technologischen Fortschritt erst die Möglichkeit, bessere Produkte (zu ähnlichen Kosten) herzustellen. Im Endeffekt erhöht NVIDIA hier systematisch ihre Marge.

Das ist marktwirtschaftlich korrektes Vorgehen, ich als Konsument kann und muss dies jedoch nicht zwingend hinnehmen. Wenn Kunden diese Margenerhöhung aber dann auch noch relativieren oder verteidigen, dann verstehe ich das nicht.
 
  • Gefällt mir
Reaktionen: Aquilid
memory_stick schrieb:
Das ist marktwirtschaftlich korrektes Vorgehen, ich als Konsument kann und muss dies jedoch nicht zwingend hinnehmen. Wenn Kunden diese Margenerhöhung aber dann auch noch relativieren oder verteidigen, dann verstehe ich das nicht.
Es gibt tatsächlich eine Ausnahme: Gerade sind die hohen UVPs auch nötig, um das Scalping auszutrocknen. Im Endeffekt hätte das auch schon zu RDNA2-Ampere-Zeiten geschehen sollen. Als klar war, dass die Scalper zuschlagen, hätten die Listenpreise steigen müssen, damit das Geld zumindest nicht bei Scalpern oder Händlern, sondern bei den Herstellern landet. Die Hersteller hätten dann damit wiederum mehr bei den Auftragsfertigern bestellen können.

Würde ein Ada-Refresh die Preiserhöhungs-Speicherknausrigkeits-Uhr zurückdrehen, aus der 4090 würde die 5090 für 1000€, aus der 4080 die 5070 für 350€, aus der 4070ti die 5060 für 250€, aus der 4070 die 5050 für 200€ und so weiter, (jeweils mit verdoppelter Speicherkapazität) dann würden diese Karten zwar vielleicht zu den Preisen gelaunched, aber in NullKommaNix wären die Straßenscalperpreise wieder fast in die aktuell gewohnten Lagen zurückgekehrt.

Altes Posting dazu:
CDLABSRadonP... schrieb:
Je höher die UVP angesetzt wird, desto weniger lohnt sich Scalping! Denn desto weniger Geld können die privaten Scalper, die Händler oder die Kartenhersteller beim gleichen Gesamtverkaufspreis abgreifen. Insbesondere die privaten Scalper kann man damit austrocknen, die Händler natürlich weniger und die Kartenhersteller noch weniger.

Einmal praktisch vorgemacht, aber am Beispiel der PS5, weil es einfacher bei einem Gerät ist, bei dem es keine InHouse-Konkurrenz gibt: Stellt euch vor, für 1000€ würden alle PS5s abverkauft werden können, weil es entsprechende Nachfrage gäbe. Jetzt nutzt man zwei Szenarien: Sony gibt sie zu 500€ UVP raus → Händler bieten sie für 850€ an → private Scalper für 1000€. Oder SOny gibt sie zu 900€ UVP raus → Händler bieten sie für 950€ an → private Scalper für 1000€ oder für 1050€, falls sie enorm gierig wären.
Das Risiko für die privaten Scalper steigt massiv, der Gewinn sinkt, sie werden ausgetrocknet.

Aus genau diesem Grund finde ich es auch ziemlich unverantwortlich und gleichzeitig finanziell für sie dumm, dass sich AMD und Nvidia nicht drastisch Anti-Scalping positionieren, indem sie die UVPs nach oben korrigieren. Das hätte keinerlei negative Auswirkung für die Endkonsumenten und wäre viel ehrlicher, als all der Bullshit der letzten Monate. (mit Lotterie-Drops, LHR, ...)
 
Zurück
Oben