News GeForce GTX 260 – Die Kosten müssen runter

Fakt ist und bleibt, dass sich nVidia mit den G200 Chips gröber verkalkuliert hat, und die jetzt gesetzten Maßnahmen das Produkt sicher nicht verbessern.

Die GTX 260 mag einige Vorteile gegenüber der HD4870 haben (Performance, BQ - wobei dies wirklich ein Streitthema ist, denn die Nutzbarkeit der höchsten Qualitätsstufen ist nicht sonderlich oft gegeben und die Karten verlieren im HQ Modus doch auch einiges an Performance, von SSAA ganz zu schweigen),

doch ebenso hat sie etliche Nachteile (Schlechtere Kühlerauswahl, erfordert stärkere Netzteile (dadurch geringere Effizienz), kein integrierter Audiochip (für mich ein wichtiges Argument, für andere womöglich gänzlich uninteressant), teurer...)

@ y33H@

falls jemals ein Spiel herauskommen sollte, welches die 5D Shader der HD48xx Serie so gut auslastet wie der Furmark, kann sich die GTX 285 aber gleich verstecken gehen, denn dann hat sie gar keine Chance.
Meine HD4850 hatte auch mit Standardkühler keinerlei Probleme mit Furmark (nach .exe renaming) , und rendert dieses "spektakuläre" Fellringerl auch mit der eingebauten Bremse, schneller als die vergleichbaren nVidia Karten. Vielleicht haben diese also von Anfang an eine Bremse eingebaut, oder sind einfach nur erheblich schwächer in ihrer Shaderleistung...

Es gibt momentan einfach keinen Hersteller den man generell bevorzugen kann, sondern höchstens individuelle Argumente mit beschränkter Gültigkeit (ich habe Ati, weil bei meinem System mit Multimonitoring die nVidia Treiber meiner alten 8800GT pünktlich alle 2-4 Stunden abgeschmiert sind, du nimmst ne nVidia weil die BQ hier mehr deinen Geschmack trifft -- alles verständlich)

Und die Einsparungsmaßnahmen von nVidia sind sicher kein Vorteil für den Kunden...
 
@ Pickebuh

Ok, Update.

Furmark = 79A
Crysis Ice = 57A
Badaboom = 47A

Ergo lastet der Badaboom schon recht gut aus - und zwar die GPU.


erfordert stärkere Netzteile (dadurch geringere Effizienz)
Deswegen ist eine HD4870 (55nm) ja in 3D auch überhaupt nicht viel Strom-geiler als eine schnellere GTX260 (55nm).
falls jemals ein Spiel herauskommen sollte, welches die 5D Shader der HD48xx Serie so gut auslastet wie der Furmark, kann sich die GTX 285 aber gleich verstecken gehen, denn dann hat sie gar keine Chance.
FLOPS sind nicht alles.
rendert dieses "spektakuläre" Fellringerl auch mit der eingebauten Bremse, schneller als die vergleichbaren nVidia Karten
Ergo schneller als eine 8800Ultra oder 9800GTX. Checke ich die Tage mal :)


cYa
 
Zuletzt bearbeitet:
@ bensen

Was aber nichts daran ändert, dass sie sich verspekuliert haben, was den Markt angeht. Nicht umsonst rudert man jetzt wieder (verzweifelt) zurück.
Und auch ein Midrange G92b machen dies nicht besser. Im Gegenteil: Es zeigt deutlich, dass etwas im argen liegt...
Das gab es ja noch nie, dass man das Midrange-Segment nicht mit der abgespeckten "neuen Architektur" bedient. Auch wenn Nvidia das jetzt mit der tausendsten Namensänderung anscheinend suggerieren will.


@ y33H@

Und zeigt, wie realitätsfremd Furmark ist...
 
bensen schrieb:
Nein definitiv nicht. Was soll Nvidia einen neuen kleinen Chip mit akzeptabler Performance und niedrigem Herstellungspreis bringen wenn sie den schon haben mit dem G92b?
Wer sagt denn dass die das sollen ? Da war nie die Rede von.

Ich zitiere nochmal den Thread-Titel:
"GeForce GTX 260 – Die Kosten müssen runter"

Und nochmal die Frage auf die ich geantwortwt habe:
"Anderseits frage ich mich wie ATI es dann schafft das Preis/Leistungsniveau zu halten, wenn NV so starkt umbauen muß um da mitzuhalten."

Hier gehts also um die 2x0er Serie, nicht um die 9800er, ob die 9800er jetzt der Burner sind oder nicht ist hier vollkommen belangslos.
 
Das gab es ja noch nie, dass man das Midrange-Segment nicht mit der abgespeckten "neuen Architektur" bedient.
Man kann hier aber von zwei Seiten argumentieren. Entweder, die GT200b sind zu teuer um sie zu kastrieren, oder die G92(b) sind so geil, dass es nichts andres braucht.

cYa
 
Da hier viele Posts OT sind werde ich meinen Senf auch dazugeben^^.

Nach meiner HYBRID-POWER-Odyssee bin ich mittlerweile sehr schlecht auf NVIDIA zu sprechen. Ein ganzes Wochende hatte ich versucht diese Totgeburt, namens Hybrid-Power, mit einer 9800GTX+ zum laufen zu bringen. Was folgte waren ca. 10 x CMOS-Reset um wieder ein stabiles System zu bekommen. Von NVIDIA gab es auf meine Support-Anfrage bis heute keine Antwort. Danke für das Interesse an den Problemen eurer Kunden NVIDIA ! Die 9800GTX+ habe ich mittlerweile wegen der Geräuschkulisse wieder zurückgegeben.

Mir drängt sich der Verdacht auf, das NVIDIA den kleinen Kreis der AMD-Kunden als Versuchskaninchen für Hybrid-Power benutzt hat. Ein Scheitern von Hybrid-Power auf dem S.775 hätte folglich zu mehr verärgerten Kunden, nähmlich Intel-Kunden, geführt. Spekulation aber nicht abwegig.

Da es mir bei Hybrid-Power um ein Geräuscharmes Arbeiten unter Office ging, bin ich, dank dem CB-Test der ASUS 4850 MATRIX, anderweitig fündig geworden. Diese bietet mir ein Geräuscharmes bzw. Geräuschfreies Arbeiten unter Office und Gleichzeitig die selbe Performance wie eine 9800GTX+.

So viel zum "Sinn" der Asus 4850 MATRIX den Du, y33H@, angezweifelt hast. :D

Für mich ist NVIDIA -vielleicht für immer- gestorben. Wenn ich dann noch dieser Tage lese, das NVIDIA die 9800GT bzw. 8800GT ein zweites Mal umbenennen will...:freak:
 
Zuletzt bearbeitet: (Korrektur)
@ y33H@

Wenn die alte Architektur noch "so geil" ist, dann läuft aber bei der neuen etwas falsch. Denn sollte diese nicht viel "geiler" sein? Zumindest wars bis jetzt immer so.
Aber man kann sich auch alles so hindrehen, dass es in einem positiven Licht steht...

Der erste Punkt trifft den Nagel glaub ich eher auf den Kopf. Und bestätigt ja die Kritik vieler hier.
 
Wenn alles so "geil" laufen würde, müsste Nvidia wohl kaum zu solchen Änderungen am Design schreiten. Fakt ist, die 260 lässt sich nur schwer mit Gewinn verkaufen. Und das Problem ist nicht nur der Gewinn oder Verlust von Nvidia sondern der Partner.
Nicht umsonst wandern diese ab. Nvidia hat von diesen Maßnahmen erst einmal nichts. Die Board Partner jedoch schon eher. Für die zählt praktisch jeder Euro. Und jeder Euro der näher an die HD4780 im Straßenpreis heran führt führt zu mehr Umsatz und mehr Gewinn. Zur Zeit ist die 260 nicht Konkurrenzfähig. Und das nicht in der Leistung sondern schlicht im Preis.
 
So viel zum "Sinn" der Asus 4850 MATRIX den Du, y33H@, angezweifelt hast
Meine 280 kann ich idle auch passiv laufen lassen, so ists nicht :D

@ Seppuku

G80 war fett, G92(b) ist günstiger, aber nicht wirklich besser. Und der GT200(b) ist wenn man so will auch "nur" ein aufgebohrter G80. Eine GTX+ mit hochgetaktetem VRAM kommt einer 260-216 ziemlich nahe, sofern ihr nicht vorher der VRAM ausgeht. Schon schei0e irgendwie. AMD hat die crappy R600-Architektur zumindest verbessert und ausgebaut, der G92(b) ist in meinen Augen nur ein Rückschritt, weil der G80 zu teuer war. Und das gleiche Schicksal ereilt nun wohl auch den GT200(b). Rein von der Kosteneffizienz her ist AMD da besser dran und die meisten Kunden geben für 10% mehr Fps und einige coole BQ-Features sowie PhysX halt keine 20€ mehr aus (4870/1g vs. 260-216). Dagegen muss Nvidia angehen. Daher bin ich froh mit der 280 eine Karte gekauft zu haben, die den Namen High-End-Karte auch verdient hat.

cYa
 
Zuletzt bearbeitet:
@ all:
Ihr habt ja durchaus recht. Zweifelsohne wirft dies ein ganz schlechtes Licht auf NVidia -
insbesondere wenn man das im Zusammenhang mit den unzähligen und dreisten Umbenennungen seit der GF8-Reihe sieht, a b e r
was bleibt NV denn noch großartig übrig? Das Preis-Leistungsverhältnis ist im Vergleich zu den ATI-Karten momentan alles andere als konkurrenzfähig. Sie müssen also zwangsläufig die Produktionskosten senken, auch wenn dadurch die Qualität nicht unerheblich vermindert. Ansonsten ist die Firma in Windeseile bankrott. Irgendwann müssen die Fixkosten ja mal wieder gedeckt werden...

Es muss jetzt schnellsten eine neue, leistungsfähige Serie bei NV her. Ansonsten seh' ich schwarz. Features wie Cuda und PhysX allein reißen es dann eben doch nicht raus.
Die einzige Karte, die man bei den Grünen derzeit empfehlen kann ist die 9800 GTX+, sofern man sie irgendwo günstig erwischt, da stimmt das P/L-Verhältnis und die Qualität.
 
@ yeeha

Furmark lastet eben die nVidia Chips lange nicht so stark aus, wie die Radeons, da diese eben verhältnismäßig einen größeren ALU Anteil haben. Deshalb ist er für Verbrauchsvergleiche wohl nicht so ideal geeignet. Ne HD3870 ist schneller als ne 8800GTX, und ne HD4850 schneller als ne GTX280!

--> http://www.ozone3d.net/benchmarks/fur/#comptable

(Ergebnisse weiter unten)

Der Furmark kann vielleicht als Programm für die Erzeugung von maximaler Hitze herhalten, aber keinesfalls als Verbrauchsmessinstrument im Vergleich AMD-nVidia, da er einfach den Chip der Radeons besser auslastet. Einfach gesagt umso besser ein Programm eine Architektur ausreizt, umso mehr Strom verbraucht es. Man kann Stromverbrauchswerte höchsten über eine Vielzahl von Programmen gemittelt bestimmen, und wird dabei feststellen, dass sie stark anwendungsabhängig sind...
 
[Meine 280 kann ich idle auch passiv laufen lassen, so ists nicht
/QUOTE]

Schon abstrus die Argumentation mancher "Hardware-Experten". Da wird in einem Thread der Sinn einer (im 2D-Modus) Geräuschlosen Grafikkarte von ASUS/ATI in Frage gestellt um dann, in einen anderen Thread, zu verkünden das seine GTX 280 das auch schafft :freak:
 
die Entwicklung einer neuen GPU Generation verschlingt lt. Nvidia mehr als 100Mio USD und da der G92b die Cashcow schlechthin ist wird die bis zum Erbrechen gemolken zumal die ATI GPU nicht wesentlich besser ist.
 
Seppuku schrieb:
Was aber nichts daran ändert, dass sie sich verspekuliert haben, was den Markt angeht.
Inwiefern? Ich glaube nicht das die extrem unzufrieden mit dem Absatz der Karten sind. Nur die Kosten sind zu hoch.
Nicht umsonst rudert man jetzt wieder (verzweifelt) zurück.
Nein man rudert nicht zurück. Man versucht nur die Kosten zu senken. Ehrlich gesagt ist das ganz normal, wurde bisher in jeder Generation gemacht. So gut wie alle Platinen mit Abweichungen vom Refernzdesign sind dazu da um Kosten zu sparen.

Das gab es ja noch nie, dass man das Midrange-Segment nicht mit der abgespeckten "neuen Architektur" bedient. Auch wenn Nvidia das jetzt mit der tausendsten Namensänderung anscheinend suggerieren will.
Verstehe ich nicht ganz. G92 hat doch die gleiche Architektur wie G200. Der G200 hat nur mehr Ausführungseinheiten bekommen, vom GPGPU-Kram mal abgesehen.

Blutschlumpf schrieb:
Wer sagt denn dass die das sollen ? Da war nie die Rede von.
Einspruch stattgegeben. :) Hast du nie behauptet, das kam von anderen.
 
@ Pimmelfummler
Da wird in einem Thread der Sinn einer (im 2D-Modus) Geräuschlosen Grafikkarte von ASUS/ATI in Frage gestellt
Möglicherweise verwechselst du mich. Ich habe das nicht in Frage gestellt - im Gegenteil: Ich als Silent-Freak finde sowas super. Kannst mir aber gerne den betreffenden Post verlinken :freak: Die passiv-Werte der 280 reiche ich gleich nach ...

cYa
 
Zuletzt bearbeitet:
Zuletzt bearbeitet: (Ergänzung)
y33H@ schrieb:
Meine 280 kann ich idle auch passiv laufen lassen, so ists nicht :D


cYa

ich kann meine 4870 im idle auch untertakten,dass sie so effizient läuft wie ein G200b, das auch vollautomatisch, geräuscharm ist sie auch ohne rumbasteln, dieses miese karte da,die ich hier habe.
 
@ Pimmelfummler

Das bezog sich schlicht auf die Optik :freak: Interpretiere bitte nichts in meine Posts rein, ich schreibe was ich denke. btw:

280_passiv.PNG

@ Schinzie

Ich kann meine auch undervolten und weiter untertakten und spare Strom und Temps ... diese Vergleiche sind witzlos. Vergleicht die Karten bitte so, wie sie ausgeliefert werden oder räumt allen die gleichen Mittel ein.
dieses miese karte da,die ich hier habe.
Warum kaufst du sie, wenn du sie mies findest? :freak: [Ich kapiere diesen ungerechtfertigten sinnlosen Seitenhieb, keine Angst]

cYa
 
Zuletzt bearbeitet:
@
skcusBC <-

Bei mir wirst Du erfolglos um Verständnis für NVIDIA werben. Zumindest auf meine Support-Anfrage hätte NVIDIA reagieren können/müssen. Ich habe 230 Euro für "Technik" ausgegeben (Hybrid-Power Mainboard & 9800GTX+) die hinten und vorne nicht funktionierte. NVIDIA kann mir in Zukunft den Buckel runterrutschen^^ :)

@
y33H@

Wenn Du dich nur auf die Optik bezogen hast, dann nehme ich meinen Vorwurf zurück. Allerdings liess Dein Post eine entsprechende Interpretation zu.
 
Zuletzt bearbeitet: (Ergänzung)
Es ging mir rein um die Optik, ja. Im idle den Lüfter anzuhalten ist freilich ne super Sache :) Silent ist immer gut, solange die Hardware dabei nicht verkohlt.

cYa
 
Zurück
Oben