News GeForce GTX 260 – Die Kosten müssen runter

schon verwunderlich, dass nvidia wegen vielleicht 5USD so ein Risiko eingeht und potentielle Kunden vergrault. Meine ersten 55nm 260² gingen alle zurück wegen den dauerhaften hochfrequenten Störgeräuschen verursacht durch die billigen Bauteile.
Manche Nutzer mag das nicht stören weil man schon sehr gute Ohren braucht um die sehr hohen Töne wahrzunehmen.
Die "alte" GTX280 macht jedenfalls keine Probleme und bei einem GPU Stückpreis von ca. 100USD braucht man nicht an den Bauteilen sparen um 5USD mehr zu verdienen.
Die Karten kosten schließlich über 200 Euro und da darf man schon etwas erwarten zumal Nvidia und ATI das große Geschäft nicht mit den High End Karten machen sondern mit der Mittelklasse.
 
War immer treuer Nvidia-Anhänger und habe mir auch vor einem Monat eine GTX 260 216 65nm gekauft,
sie fiept nur beim crysis-intro, stört mich daher nicht. Übertakten lässt se sich gut, aber ich bin nun echt enttäuscht von Nvidias Kundenpolitik.
Nächste Karte hätte also Chance, eine ATI Karte zu werden...
 
@keks2me

"Crysis ist kein Spiel sondern ein Grafiktestprogramm !"

vielleicht steckt schon in diesem satz das armutszeugnis drin das mich beschäftigt.

bei mir werkelt vista 64, ein intel e8500( @3600mhz) 4gb ram und ati 3870 ,22"tft glotze

und es laaangweilt sich einfach, oder ist es die persönliche computerspiel midlife crisis?

mit fällt nicht ein, warum ich 300 flöhe( für neue graka) zu meinem langjähren einzelhändler bringen sollte.

bei der voodoo2 gab es damals kein halten um 500 flöhe abzulegen.
 
Zuletzt bearbeitet:
Jo, und am ende der Sparmaßnahme verdient Nvidia wieder etwas auf kosten eines schlechten Rufes da ein Fiepen noch das kleinste übel der Karte war ...

ist dann die Frage wann ein Leistungsvorsprung auf ATI durch anderen Krempel gänzlich zunichte gemacht wurde ...


Ich dachte allerdings immer das dies Sachen der Boardpartner wäre und nur die eigtl. GPU vom Nvidia kommt ... , was machen dann eigtl. die Boardpartner noch?
 
Ihren Aufkleber draufpappen und zum Großhändler schicken.

cYa
 
r31c01m schrieb:
Wie schafft denn ATi das ihre Karten so "günstig" zu halten?
Zumal die ja in der Rohleistung noch stärker als die von nVidia sind.

zb. die 4870 hat seit Anfang an ein billiges PCB mit 256bit Speicheranbindung dafür aber etwas treueren Speicher und die Spannungswandler sind schon seit Anfang an billig. Überhitzen(120Grad und mehr) sich wenn man die Karte 100%ig auslastet und das PCB hat ein Problem mit Stromschwankungen, darum stützt die 4870 ab, wenn Furmark schnell an und ausgeschaltet. Power Play 2 funktioniert deshalb bestimmt auch nicht weil eben das PCB die Lastwechsel nicht gut verträgt, bzw. kein PP2 zulässt. Dann kommt noch dazu das die 4870 keinen Hybrid Crossfire Chip drauf hat der die Karte komplett abschalten kann mit entsprechenden Mainboard, die GTX 260 hat den Chip drauf. Software ist auch immer sehr teuer und in dem Bereich hält sich ATI mit ATI Stream auch sehr zurück.

Die Kunden haben entschieden sie wollen FPS/€ um jeden Preis. Egal wieviel die Karte an Strom verbraucht oder was sie sonst noch kann. NV muss jetzt nachziehen und Kosten einsparen. Normalerweise würde eine GTX 260² sonst 300-400€ kosten.

Würd mich nicht wundern wenn demnächst der Stromverbrauch der NV Karten wieder steigt weil das PCB und Spannungswandler noch billiger hergestellt wird. :eek:

Hybird Power ist bei der GTX 285/295 schon gestrichen worden. Geiz ist eben nicht geil.

Wenn die GT 300 Karten auch auf einem so billigen Niveau gebaut werden und nur 100-200€ kosten werde ich mir eben keine neue Grafikkarte mehr kaufen. Würd gern 300€ zahlen, dafür dann aber Qualität.

MfG Kasmo
 
Zuletzt bearbeitet:
Demnächst kommt hier sicherlich noch jemand daher und macht ATI vollstenst für den (scheinbaren) Qualitätsrückschritt nvidias verantwortlich.
Es ist nunmal so, dass ATIs Strategie einen kleinen, auf hohe Taktraten ausgelegten Chip zu setzten, aufgegangen ist. Bedeutet das allgemeinen Rückschritt? Ich denke nicht. ATI hat bewiesen dass man mit wenig(er Transistoren) auch viel erreichen kann. - Zur Überraschung nvidias.
Hat ATI die Marktpreise kaputt gemacht? Ich denke nicht. ATI hat die Marktpreise auf realistische Höhen zurück gebracht.

Wenn es nvidia beim G200 schafft die Mehrkosten der Chipherstellung durch ein weniger aufwändiges PCB bei gleichbleibender Funktionalität zu kompensieren, so soll uns das nur recht sein. Es ist schließlich nicht so dass nvidia von Anfang an die Chance zu diesem Schritt gehabt hätte. So werden die Qualitäten des G200 für viele bezahlbar.
Ich jedenfalls freue mich, demnächst vielleicht Besitzer einer günstigeren GTX260 zu sein.
 
hmmm, kann mir nix unter "fiepen" vorstellen...

hat mal jemand nen vergleich, dass mans sich vorstellen kann?
 
So langsam verstehe ich die Welt nicht mehr. Warum beschweren sich denn auf einmal alle? Die selben Schreihälse, die jetzt laut brüllen, haben sich sicher die letzte Generation der Grafikkarten im Schlage der 8800er Ultra oder 8800 GTX für 500-800€ gekauft? Ist es nicht so? Leugnen ist zwecklos :freak:

Jetzt kosten die Karten "nur" noch 200-300€ - sind schneller, besitzen mehr RAM und haben dafür aber andere Macken wie Stromverbrauch / Lautstärke / Abwärme / Fiepen (WTF? Mimosen - schon einmal neben einer Festplatte mit 15.000 U/min gesessen?). Echt, manchmal frage ich mich wirklich, wo diese "Geiz ist geil" Mentalität noch hinführen soll. Selbes sieht man beim Arbeitsspeicher. Jeder schreit, wenn der 1GB-DDR2-Riegel mehr als 20€ kostet - früher hat man für 512 über 150€ bezahlt (vor einigen Jahren). Gehört hier aber nicht hin.

Das hat nichts mit Fortschritt zu tun. Das beginnt selbst bei Redakteuren wie auch der Computerbase (als Beispiel). Ernsthaft, in den Test heißt es mitlerweile "oh, die Karte kann keine Auflösung von 2560 x 1600 (ohne AA/FF?) oder 1900x1200 auf maximalen Details spielen - hallo, gehts noch? Welches Spiel unterstützt das überhaupt? Mit vielen Games kommt man nicht mehr als 1600er Auflösung - Programmbedingt!

Im letzten Test der 4850/4870 so um die 1680x1050 (mit AA/AF) getestet. Wer spielt denn auf den Auflösungen? Ich habe selbst einen 26" LCD und brauche das nicht. Nur weil alle Welt den angeblichen Gamern einredet, man "müsse" das so machen, wird es geglaubt. Dabei sind das oft die Vollspaten, die gerade einmal wissen wie man den PC einschaltet, aber von der Technik nichts verstehen.
Ich kann den "echten Gamern" (Campern) nur empfehlen wie früher in 800x600 in höchster AA zu spielen. Es ist zwar unfair, aber ihr seht den Gegner bevor er euch sehen kann :lol:
Bei den hohen Auflösungen sieht man auch nicht mehr, wenn 2/3 des Bildschirms aus Wand / Gras / Bäumen bestehen, die eh die Sicht rauben :king:

Mitlerweile ist es sogar so schlimm geworden, dass man sich als informierter Hardwarekenner (oder auch Möchtegern, muss jeder für sich entscheiden) sehr lange wartet, bis man sich neue Hardware kauft, weil befürchtet werden muss, dass sie schon beim Erscheinungstermin veraltet ist. Also wartet man und wartet - aber durch den Markt- und Kostendruck passieren Fehler wie hier beschrieben.

Der Käufer denkt: Das nächste Update kommt ja bestimmt. Hoffentlich gelingt es bald wieder den größtmöglichen Kompromiss aus Preis-/Leistung und angebotener Technik zu bieten. Bedenkt doch bitte, es handelt sich hier um "High-End" HARDWARE. Das ist nicht so eine billige Trödellampe wie im Baumarkt. Die Ursache ist die zu kurze oder nicht vorhandene Testzeit.

Alleine die Anzahl / Ausmaße der Spannungswandler auf Mainboards und Grafikkarten. Jetzt beschwert sich der Nutzer, es würde Fiepen (oder sonstige Krankheiten wie z.B bei Seagate zurzeit). Jeder DDR3-Speicher hat sogar mehr MHz als ein alter Pentium 3. Die hohen DDR3-2000er könnten gut mit einem Pentium 4 mithalten - rein von der MHz-Zahl (Wellen- / Schwingungsbereich).

* das Kilohertz, kHz, tausend Schwingungen/Vorgänge pro Sekunde
* das Megahertz, MHz, eine Million Schwingungen/Vorgänge pro Sekunde
* das Gigahertz, GHz, eine Milliarde Schwingungen/Vorgänge pro Sekunde
* das Terahertz, THz, eine Billion Schwingungen/Vorgänge pro Sekunde
Quelle: Wikipedia :lol:

Sobald für Redakteure und User das mal wieder ins rechte Licht gerückt wird, wäre die Welt viel besser. Ich meine, warum wird immer sofort auf allem herumgekaut? Die Technik bewegt sich zurzeit am Limit. Wenn also hochfrequenzspannung durch minimalste "Kanälchen" durchgeschossen wird, muss man sich nicht wundern, wenn es lauter wird als mit normaler Spannung :evillol:

Hauptsache der neue ALDI-PC hat noch mehr GHz / THz oder Ultra-Hz. Mit der richtigen Strategie könnte man das sogar auch verkaufen. Die meisten haben eh keine Ahnung (Ausnahmen bestätigen wie immer.....).

Ich wünsche weder ATI noch Nvidia solche Schwächen. Immerhin sind es die einzigen Hersteller am Markt die noch etabliert sind. Die anderen Randgruppen lasse ich einmal außen vor.
 
@MacPok: So siehts aus.

@Kasmopaya: Erzähl doch nicht so einen Quatsch. Vor allem der Die (Chip) ist viel kleiner und lässt sich mit geringerer Fehlerquote produzieren. Zudem gibt ATI diesen Preisvorteil einfach an die Kunden weiter, im Gegensatz zu NVIDIA. Dir ist schon klar, das NVIDIA mit einer Gewinnmarge von 50% rechnet (totaler Bullshit, in der Autobranche sind 10% schon ein Traum, vermutlich wie überall anders auch)

Früher ging das problemlos, weil keine Konkurrenz da war, jetzt eben nicht mehr. Du willst mir doch nicht erzählen, das die 8800GTX ein Jahr nach Einführung immer noch so teuer sein musste, das war ganz klar Abzocke.

So, weiter im Text: Furmark ist kein Spiel-->irrelevant.

ATI Stream: immerhin kostenlos, im Gegensatz z.B. zu Badaboom.

Wenn ATI nicht wär, würde NVIDIA die alte 260 (denn wozu einen teuren und "gefährlichen" die-shrink durchführen und dem Kunden Leistung schenken?) immer noch für 300€+ verkaufen, wenn nicht noch mehr.
 
Das Jahr 2008 geht nun mal eindeutig an ATI mit der HD4xxx Serie, weil sie die bessere Strategie hatten (Kosten zu sparen) und die bessere Chipidee, welche bei den Kunden vom Preis her gut ankommt!

NV hat dagegen momentan wie ATI mit der HD29xx-Karten ein Problem. Dabei muss man sich aber vor Augen halten, dass es dabei nur um den High-End Sektor handelt, der natürlcih prestigeträchtig ist, aber nicht für den Hauptgewinn zuständig ist.

Was ich nicht verstehe: Warum hat NV nicht sofort auf 55nm umgestellt als die HD3xxx Karten schon lange draussen waren, gabs da Probleme und außerdem muss doch NV bei den HD3 Karten geahnt haben was kommt?
 
Der Nutzen von Hybrid SLI ist doch auch nur gegegeben, wenn dein Board es unterstützt, und da find mal eins ;)
 
Ich bekenne mich schuldig. Im Sinne der Anklage. Ich bin voll dieser Geiz ist Geil Mentalität aufgesessen. Ich kaufe keine Karte mehr über 120 Dollar und ich finde es klasse, was man dafür bekommt. Meine 2900GT hat soviel gekostet, dann vielleicht 6 Monate später die 8800GT.
 
Schon seltsam, mit Einführung des 55nm GT200b samt billigem PCB war alle Welt super scharf auf billige Karten. Mehr noch, es wurde angeprangert das diese Karten trotz keiner Vorteile keine höhere Produktbezeichnung bekommen haben.

Jetzt ist es umgekehrt, woher kommts, sind einige aus dem Schlaf erwacht?
Nein bezweifel ich, einerseits ist Nvidia anflamen gerade in, andereseits ist es völlig egal ob andere Karten bereits am kritischen Limit agieren.

Stromsparfeatures werden auch wieder abgebaut, kostet halt zu viel und will doch keiner, bis sie erfahren das es abgeschaft wird, da werden die Stimmen schnell laut.

Aber keine Sorge, mit GT300 wird Nvidia auch endlich die Filterqualität wieder senken. Mal sehen wie das aufgenommen wird.
 
"Ich bekenne mich schuldig. Im Sinne der Anklage. Ich bin voll dieser Geiz ist Geil Mentalität aufgesessen."

von mir aus.

andere einschliesslich mir hätten gern noch anderen spaß ;)

ps: geiz ist geil mentalität gibt es eigentlich nicht. denn mit jedem geldstück was du verteiltst, vertrittst du nur dein vertrauen gegenüber dem produkt.
 
So, weiter im Text: Furmark ist kein Spiel-->irrelevant.
Und AMD wie Nvidia setzen die TDP mithilfe von Ponyhof17 fest? Ist klar :freak: Der Hersteller des Kühlers kann ja nicht ahnen, dass AMD Vitecs verbaut, die heizen wie ein Krematorium ...
ATI Stream: immerhin kostenlos, im Gegensatz z.B. zu Badaboom.
Der Gegenpart von Stream ist CUDA und das kostet auch nichts. Der Gegenpart von Badaboom ist der Avivo-Converter, der 1) nicht auf der GPU rechnet und 2) eine beschissene BQ bietet. Es gibt genug kostenlose Tools die das besser können.

cYa
 
Ich stimme meinem Vorredner voll und ganz zu... @Hardware Hoshi

Letztes Jahr hab ich mir günstig, eine neue GeForce 8800 GTX im Onlinehandel als Restposten gekauft. ( unter 200,-€ )

Die Leistung ist mehr als ausreichend. Im Normalfall spiele ich auf einem 19" Display mit max. 1440 x 900.

Wenn mal ein Spieleabend angesagt ist, kommt der PC an meinen 37" Full HD TV. Und selbst dort hat diese Karte mehr als genug Leistung, um alles flüssig darzustellen. Auch ein Crysis läuft flüssig auf 1920 x 1080.

Dieser Updatewahn der uns allen sugeriert wird, ist einfach unglaublich. So schnell kann ich mein verdientes Geld ja gar nicht ausgeben, wie man uns einreden will. Da eine neue Hammer CPU, hier die beste GraKa aller Zeiten und so weiter...

Und sollte die Leistung mal knapp werden, dann wird erst mal gnadenlos übertaktet... Meine alte 8800 GTX liegt übertaktet auf dem Leistungsnivau knapp unter einer GTX 260, ATI Radeon 4870...

Schaut Euch mal im Netz um...

Einfach mal mit bedacht einkaufen und nicht auf jeden Zug aufspringen... Geiz ist nicht geil, sonder macht blöd und kostet Arbeitsplätze !!! ( Nicht umsonst hört man diesen Werbeslogan nicht mehr... )

Auch sollte jeder darauf achten, daß seine Komponenten aufeinander abgestimmt sind... Was nutzt mir eine GeForce GTX 295 mit einer lahmen Dual Core CPU ??? Oder falschen RAM ???

Mitdenken, mitlenken

Teradoc
 
Warum auch? Die Karte ist gut positioniert: Kaum teurer als eine HD4870, dafür schneller und sparsamer. Was will der Otto-Normal-Kunde denn mehr? Die Freaks erfreuen sich zudem an besserer AF, der Option CUDA sowie den xS- und SSAA-Modi und dem prozentual höheren OC-Potenzial.

cYa
 
Zurück
Oben