Test Test: Nvidia GeForce GTX 260 (216 Shader)

Gibt es bei der GTX 260 also wirklich kein flimmern mehr? Wäre für mich ein entscheidender Grund. ATI hat nette Verbesserungen, aber leider ist bei denen oft so eine alles oder nichts Devise (also entweder alle Optimierungen oder gar keine).
 
@michafol:

Jetzt wo du's sagst: das läßt bei mir die Hoffnung keimen, daß die nächsten Tage endlich der seit Monaten angekündigte, ausführliche CB-Test der HD4870/1G veröffentlicht wird. Die direkte Gegenüberstellung der neuen GTX260 mit ihr, mit aktuellen Treibern auf beiden Karten, mmhhh... :)
 
Schaue mir grade die Preise für die Zotac GTX 260 und die Zotac 260² an.

Bei heise.online sieht man die preiswerteste Zotac GTX 260 liegt bei knapp 230€ und das neue Modell GTX 260² bei javento (Seriöser Shop-noch nicht Lieferbar) für 260€.
Dabei ist noch das Rennspiel GRID (Aktueller Preis ca 40€).
Für den Preis-klare Kaufempfehlung!
 
Zuletzt bearbeitet:
FredKune schrieb:
Toll. OC kann man immer machen. Man muss dann aber den Garantieverlust mit einkalkulieren. Ich zahle lieber 250 EUR für ein etwas schnellers Produkt mit Garantie, also 200 EUR für ein Produkt, dass ich auf die Leistung des 250 EUR Produktes bringe inkl. Garantieverlust.
Dann bist du einer der wenigen der dies Praktiziert ;).Und du zahlst bspw 80 Euro mehr für ca.5-10% mehr Leistung die auch nur im Betrieb ohne AA bzw AF geschieht ;).Denn beim zuschalten der Feautures ist nur marginal(5-6%) ein Performanceschub zu sehn :)


FredKune schrieb:
MOMENT! Man sieht an der 4670, dass PP2.0 BEI DER 4670 funktioniert. Dass bei der 4870 der GDDR5-Speicher soviel zieht ist totaler Blödsinn, denn dann würde die 4870 X2 mit 2 GPUs und 4 mal soviel Speicher(!) nicht nur 10W mehr verbrauchen.
Dann bin ich mal gespannt zu welcher Schlussfolgerung du kommst :)


FredKune schrieb:
Also bei der 260GTX funktioniert das Stromsparen einigermaßen gut. Kann mir nicht vorstellen, dass NVidia sowas aus Spaß einbaut, wenn dafür kein Bedarf existieren würde.
Der Vergleich ist übrigens Blödsinn, denn keiner hat ein Problem, dass die Karte im Lastzustand(=Ferrari auf der Autobahn) etwas Stromzieht. Sinnvoller wäre folgende Frage:
Wer möchte sich für viel Geld einen Ferrari kaufen, der im Leerlauf und beim Einparken genauso viel verbraucht wie bei Tempo 300 auf der Autobahn?
Ich habe auch nicht den Stromverbrauch der 260er kritisiert ;)
Ich hab lediglich damit aussagen wollen,wie man auch meinem Vergleich entnehmen kann,dass jeder der sich so eine Karte holt nicht rumflamen brauch wegen des Stroms ;)

FredKune schrieb:
Sinnvoller wäre folgende Frage:
Wer möchte sich für viel Geld einen Ferrari kaufen, der im Leerlauf und beim Einparken genauso viel verbraucht wie bei Tempo 300 auf der Autobahn?
Die Frage meinst du doch selber nich ernst ;) denn das würde KEINER kaufen,ausser der Ferrari verbraucht nur 3L auf 300 ;)



FredKune schrieb:
Und wenn nicht, dann nicht.
Und wenn doch dann Doch ;),dann gibs ne 260 mit 280Shader :lol:
 
Wie siehst mit der Leistung bei Folding@home aus mit dem GPU-Client?
 
Straputsky schrieb:
Gibt es bei der GTX 260 also wirklich kein flimmern mehr?
Wenn die Texturen flimmern, ist es nicht Nvidias Schuld.
Und wenns flimmert, gibts ja noch SSAA.

Slavefighter schrieb:
5-10% mehr Leistung die auch nur im Betrieb ohne AA bzw AF geschieht ;).Denn beim zuschalten der Feautures ist nur marginal(5-6%) ein Performanceschub zu sehn :)
Einspruch.
Gerade mit AF sinds 10%, check nochmal die Benches und vergleiche 16xAF 1xAA mit 1xAF 1XAA.
Oder check die technischen Daten, speziel die Anzahl der Textureinheiten.

@Kivi 123
Mir scheint es, das du einen falschen Avatar hast.
 
Sagen wir's mal so:
Nvidia hat derzeit kein Geschwindigkeits, sondern eher ein Preisproblem.
Die Mehrheit der Leute ist einfach nicht mehr gewillt, jenseits der 300 Euro Grenze eine Karte zu kaufen.
Und schon gar nicht alle 6 Monate. Die Meldungen, dass das Geschäft bei den Californiern eher schlecht als
recht läuft, zeigen ja auch die roten Zahlen, die das Unternehmen zuletzt eingefahren hat und als Konsequenz daraus mit Entlassungen reagiert.
Die neue GTX260 dient vorallem dazu, um den Imageverlust in Grenzen zu halten, nachdem ATI erst durch ihre P/Leistungspolitik und anschliessend mit der HD4870X2
ein Stück weit Reputation bzw. die prestigeträchtige Performance-Krone zurück erkämpfen konnte.
 
Zuletzt bearbeitet:
Muss jetzt auch mal meine Meinung äußern.
Ich finde die neue GTX260 sc****e, denn bei den Spielen die ich Spiele und in meiner Auflösung ist die HD 4870 meistens schneller. Und dann noch der hohe Aufpreis für die GTX260 ist einfach unverschämt. Wenn sie 20€ teurer gemacht hätten wäre es in Ordnung gewesen.
 
Das Problem ist doch eher das man schneller sein muss, es aber nicht ist.

Der Chip ist viel größer und muss auch teurer verkauft werden als eine 4870.
Dafür muss eine 260gtx^2 aber auch schneller sein.

Bezieht man cat 8.9 mit ein sind die unterschiede zwischen 4870 und ^2 im niedrigen einstelligen bereich, also da wo sie eh keiner merkt.

Warum sollte man für die Karte also 90€ mehr ausgeben ?


Der einzige Anreiz wäre noch der Verbrauch für die Leute die nicht selbst untertakten, dürfte aber nicht relevant sein, da die 50W sich selbst bei 10 stunden idle am Tag erst nach über 2 Jahren amortisieren.

(wobei wie erwähnt : wems darauf ankommt, der taktet eh selbst runter und dann ist der Unterschied noch kleiner)


NV muss den Leuten entweder was bieten, z.b. 280gtx Leistung für maximal 250€ oder ihre Kosten senken durch einen kleineren Chip.

Solche Späße wie die Karte hier bringen jedenfalls nix.
 
Slavefighter schrieb:
Das is ne Gamerkarte,genauso wie die 9800gtx++,260GTX etc....da guckt kein Gamer auf den Strom,der WILL Leistung ;)....Der typisch deutsche lieblingsvergleich:
Man kauft sich nicht ein Ferrari um dann in 30er Zonen umherzugurken oder um auf der Autobahn 120zufahren ;) usw usw usw usw..

der richtige vergleich wäre wohl: verbrauch innenstadt bei 30 km/h 30 l, verbrauch irgendwo bei 300 km/h 40 l.

leistung erbringt die karte, das ist klar, aber hier gehts um den stromverbrauch (=spritverbrauch).

naja, einen artikel über das amd gpu clock tool gibt es wohl überall auf jeder seite im netz. wer es nicht anwendet und trotz allem weiter auf ati/amd rumhackt hat selbst pech gehabt.

und btw, bei einer 8800gtx regt(e) sich keiner über den stromverbrauch auf, obwohl diese karte nur wenige watt weniger im idle verbraucht.
 
Wie erwartet "nur" 5-10 % je nach Anwendung, irgendwie dürftig find ich.

Toller Test anyway :)
 
illegalz schrieb:
nvidia doch erreicht was sie wollten: mit abstand besser sein als die HD4870, dass sind die mit 9 Prozent nun ohne Zweifel.

Yay, die 4870 endlich überholt! Wurde auch Zeit, dass die Pole-Position wieder eingenommen wurde. :king:
 
Die meisten beschränken sich doch nicht auf zotac.

die Alte gibts für rund 210€ lieferbar

Was die neue mindestens kostet bin ich nicht im Stande zu erfahren, schon weil ich die kryptischen Abkürzungen mancher Hersteller nicht bei geizhals suchen kann.
 
Geizhals kennt die Bezeichnung "GTX 260 216" bereits.

Momentan gibts eben nur 2 von Zotac, die nicht gelistete Inno3D und die die immer überteurten EVGA + BFG.
 
Haette man fuer Ati die Werte des Cat. 8.9 genommen, die CB in diesem Test selbst ermittelt hat ( https://www.computerbase.de/2008-09/bericht-ati-catalyst-8.9/ ) wuerde man sehen, das ein Vorsprung der neuen 260er irgendwo zwischen minimal und nicht existent ist.

Mit anderen Worten, der Test zeigt ein falsches Bild und CB weiss das, denn CB hat den 8.9er Test selbst durchgefuehrt, nimmt aber uralte (8,3-8,6) Werte um die 260er besser aussehen zu lassen.

Gratuliere CB !!!
 
Weis nicht ob es schon jemand geschrieben hat, aber die 4870 X2 skalliert ja echt gut!
Sehr oft knapp doppelt soviel wie 4870, der hammer. Sonst war das doch immer so, mit 30 % wars schon gut
Mir persönlich aber zu teuer.
 
Ich versteh auch nicht ganz, wie man im Fazit darauf kommt, dass die GTX260² schneller als die 4870 ist. Sobald man 8xAA einschaltet oder mit mehr 1600x1200 und 4xAA zockt, ist die GTX260² langsamer.
Ich würd sagen nVidia hat momentan ein Problem beim Quallitäts-Rendern...
Könnt durch die schlechte Speicherverwaltung kommen...
 
Zurück
Oben