News GeForce GTX 260 – Die Kosten müssen runter

radoxx schrieb:
sry Leute aber was zum Teufel erwartet ihr hier? High-End für 200€.... *totlach*

Heutzutage will jeder absolute High-End Geräte zum Diskont Preis. Irgendwo müssen die Hersteller ja sparen und das ist dann halt das PCB.

Leute vor ein paar jahren kosteten High-End karten noch 500-600€, heuzutage noch einen Bruchteil. Aber dann regt euch bitte nicht auf, dass die Qualität der Karten schlechter wird, wenn ihrs so billig haben wollt.


Trotzdem: die Sparmaßnahmen am Spannungsregler finde ich echt mies. Der Volterra-Regler kostet zwar alleine einige € aber der ist es auch wert... so long
Wer 500-600 € für eine Karte ausgibt ist ein Freak oder hat zu viel Geld. Otto-Noraml-Verbraucher gibt soviel für eine Karte aus wie für ein paar Schuhe ca. 50 bis 150 Euro. Obwohl auch für Schuhe 500 bis 600 € ausgeben kann. Aber 600 €uro für eine Karte ausgeben aber 10 € Latschen von Aldi anziehen. Kein Wunder das man da keine Freundin findet.:rolleyes:
 
vander schrieb:
Nvidia verarscht bei der Hardware, ATI bei der Software, so what?
echt,wo wird man da verarscht? bei dem AF-bug? Was war dann bei Nvidia der Vram-Bug, der Heat Bug, die lautstärke? da ist ein fehlendes AF in zwei spielen,was noch nichteinmal als mutwiilig zu bezeichnen ist ein witz dagegen.
Keks2me schrieb:
@SchlachtVati

Crysis ist kein Spiel sondern ein Grafiktestprogramm !

Ich hab die neue 260 GTX 55 nm und ich merke nichts vom fiepen,...
Meine läuft Minimal übertaktet auf 280 Niveau, kein Heat Bug wie bei der 280 und auch kaum hörbar, alles argumente wo ich mir 100 € spare und trotzdem 280 Niveau besitze.

Manchmal steht aber hier auch dummes zeug echt...

ist ja nicht so,dass eine GTX280 mehr ausführungseinheiten besitzt und man diese auch noch übertakten könnte,gell...

y33H@ schrieb:
Warum auch? Die Karte ist gut positioniert: Kaum teurer als eine HD4870, dafür schneller und sparsamer. Was will der Otto-Normal-Kunde denn mehr? Die Freaks erfreuen sich zudem an besserer AF, der Option CUDA sowie den xS- und SSAA-Modi und dem prozentual höheren OC-Potenzial.

cYa

haben dafür eine lautere Karte, keine möglichkeit auf hochwertiges geometrisches AA, keinen eingebauten audio chip usw



Kasmopaya schrieb:
Furmark Last hat man schnell mit GPGPU Anwendungen erreicht, ist also nicht so praxisfern wie einige hier glauben. Das heißt die versprochenen GFlops bei der HD 4800 kannst man schon mal vergessen, die Karte ist dafür nicht ausgelegt! So wie die CPU mit Prime getestet wird für Stabilität und Stromverbrauch wird mit Furmark eben die GPU getestet.

komisch,dass meine 4870 selbst nach 12std Folding@Home nicht abschmiert,oder nach mehreren Stunden Crysis. Für das hab ich die Grafikkarte,für was also für mehr bezahlen? ein spiel das eine karte primär nur auf hitze anstatt auf leistung beansrucht,wie ein Ultra heat test ist schwachsinn...

y33H@ schrieb:
Pfeifen im Crsyis-Menü ist nicht besonders tragisch im Vergleich zu der Option, dass in den nexten Monaten ein Spiel kommt, welches auf dem Level des Furmarks ist. Dann ist das Geschrei groß.Dann darfst du dir keine GTX2x0 und keine HD4870 (X2) kaufen.

cYa


ich glaube du weißt ganz genau,dass nie ein spiel rauskommen wird,dass eine hitebeanspruchung nur ansatzweise wie Furmark hat... nahch 8std crysis ist die Graka nicht mal so war wie nach 5min Furmark. Ich kann dir auch zeigen wie du mit einem C++ Programm mit weniger als 10Zeilen einen Ultra stabilen, untertakteten Core I7 platt haust..ist er jetzt unstabil?


gruß
 
wunderbar sparsam wenn man so intelligent ist manuell den Speichertakt im 2D herunterzutakten
Meinst du AMD wäre nicht so intelligent? Meinst du nicht, wenn es vollkommen unbedenklich wäre, den MC mit so krassen Taktschwankungen zu quälen, dann gäbe es hier einen 2D-Mode? Ist wie mit dem FurMark und wie mit AI - AMD geht auf Nummer sicher. Beim Furmark drosseln wir die Leistung, beim AI die Bildqualität und beim VRAM-Takt ist halt der Stromverbrauch sehr hoch. Aber solange der Kunde mitspielt, ists ja kein Problem.

@ hübie

Zockst du im Standbild? Bewegung = Flimmern = ein BIAS, das der Dev nicht so vorgesehen hat

ich glaube du weißt ganz genau,dass nie ein spiel rauskommen wird,dass eine hitebeanspruchung nur ansatzweise wie Furmark hat
Das weiß ich nicht genau. Unmöglich ist es aber nicht.
Ich kann dir auch zeigen wie du mit einem C++ Programm mit weniger als 10Zeilen einen Ultra stabilen, untertakteten Core I7 platt haust
Hau rein, mein i7 wird der Testproband sein.
keine möglichkeit auf hochwertiges geometrisches AA
Wenn interessiert angesichts der heutzutage massenhaft eingesetzten Shader, Alpha-Tests usw. eine perfekte Geometrie-Glättung? 4x HQ-AAA oder 4x TSSAA sieht um Welten homogener aus als jegliche ED-Stufen.

cYa
 
Zuletzt bearbeitet:
komisch,dass meine 4870 selbst nach 12std Folding@Home nicht abschmiert,
Wo ist sie denn die versprochene GFlop Leistung? NV ist bei weitem schneller und hat auch noch die bessere Watt/Performance. Glaubst du es ist Zufall das ATI die größeren Stränge berechnen muss die nicht so gut heizen wie viele kleine...

Ich kann dir auch zeigen wie du mit einem C++ Programm mit weniger als 10Zeilen einen Ultra stabilen, untertakteten Core I7 platt haust..ist er jetzt unstabil?
Durch Erhöhung der Vcore mit dem Programm, wie willst du das machnen? Wenn du es doch schaffst ohne Vcore Erhöhung, mach bitte ein Youtube Video das will ich sehen. :D

MfG Kasmo
 
y33H@ schrieb:
Das weiß ich nicht genau. Unmöglich ist es aber nicht.
Unmöglich ist auch nicht, dass morgen die Welt untergeht...
Aber sehr, sehr unwahrscheinlich. Und welches Spiel hat jemals schon eine so hohe Hitzeentwicklung verursacht, wie eines dieser Testprogramme? Also ich bitte dich. Kann man wenigstens halbwegs objektiv und realistisch bleiben. Furmark und co. stellen ein theoretisches Szenario dar, das mit sehr großer Wahrscheinlichkeit nie eintreten wird. Und wenn es eintritt, dann gibts schon 2-3 neue Generationen und die alten interessieren nicht mehr...

Der Kunde wird so lange mitspielen, so lange er nicht effektiv eingeschränkt ist!
 
Unyu schrieb:
Blutschlumpf
Dann kannst du 4850 und GTX 280 mit keiner anderen Karte vergleichen, auch gut.

Bleiben GTX 260 vs 4870....
Lies dir doch den Thread mal ganz durch, ich habe das Gefühl, dass du nur "niedrigerer Verbrauch" ohne Kontext gelesen hast und dann meckern musstest/wolltest.

Ich vergleiche nicht 260 mit 4870 sondern 260 mit 4850 sowie 280 mit 4870.
Ich vergleiche auch nicht gleiche Performance-Level sondern die aktuellen Chips beider Hersteller.

Bei NVidia wurde auf dicken teuren Koloss und max. Performance hin gearbeitet, bei ATI auf annehmbare Performance bei massentauglichen Herstellungskosten, darum gings und um nicht anderes.
 
Zuletzt bearbeitet:
Damit vergisst du G92b, der sehr wohl für die Massen gebaut ist.

Der Kontext war klar, du hast erklärt warum die GTX 260 zu teuer ist. Ein Punkt war der angebliche Stromvebrauch.

Edit: Im übrigen müsstest du die 4830 mit der GTX 260 vergleichen. Sind beides Mal die abgespeckten TOP-Chips verbaut.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Und Badaboom nutzt bestimmt 100% der GPU! Solange das nicht der Fall ist kannst du ja kaum verlangen das es bei ATI so ist.
Ja, Badaboom nutzt die GPU: Die VDDC geht fett hoch, die 3D-Clocks springen an, die GPU und die VRMs werden heißer, der Lüfter dreht auf. Die CPU ist nicht großartig belastet.



Bei einer HD4870 ist ein DC volle Pulle ausgelastet, der GPU-load pendelt idR bei 0-5%rum und die Karte macht keinerlei Anstalten in den 3D-Modus zu wechseln. Nun bist du am Zug - mach mir einen Shot der zeigt, dass der Avivo die GPU nutzt. Und ja ich verlange, dass ein Tool, welches laut AMD die GPU nutzt, diese verdammt noch mal auch nutzt. Die Konkurrenz kann es ja auch.

cYa
 
Speed ist nicht mehr alles. Bei der 8800GT oder GTS oder Ultra ging das Konzept von Nvidia noch auf. Eine HD3850 konnte einer 8600GT oder GTS kaum das Wasser reichen. Und beide Karten waren mehr oder minder weit weg von der 8800. Also waren die Herstellungskosten Nebensache. Zumal viele zu der 8800 griffen, alleine der Hype war dermaßen, das es nahezu 30 verschiedene 8800er auf dem Markt gab und die Board Partner auch dran verdienen konnten. Aber, viele Kunden merkten, das eine HD3870 einen guten Preis/Leistungs Kompromiss schaffte. Nvidia blieb erst einmal bei seinem Design während AMD den neuen weg weiter ging. Im July brach dann der Absatz von nvidia Karten nahezu auf 25% ein. Dank der HD4850 und der 4870. Das Problem war für Nvidia nicht nur deren gute Leistung sondern besonders der Preis. 170 und 230€ waren einfach von Nvidia nicht zu kontern. Nvidia schaffte zwar die 260 vor der 4870 von der Leistung her zu stellen nur leider reichte die Mehrleistung nicht aus um 50 oder mehr Euro dafür zu verlangen. Also blieb der Absatz weit hinter den Erwartungen und damit auch der Umsatz. Mehr noch, die Preissenkung ging meist auf die Board Partner und deren Konto. Es wanderten viele langjährige nur Nvidia Partner ab. Die machten einfach keinen Gewinn an den Karten. Und heute reicht die Leistung der 260 immer noch nicht aus um den Mehrpreis im Markt zu rechtfertigen. Daher dürfen die Board Partner nun diese Veränderungen vornehmen. Damit diese zumindest ein paar Euro/Dollar dran verdienen.
 
@Unyu:
G92b ist die Vorgänger-Serie, die Frage war warum AMD seine Sachen günstiger auf den Markt werfen kann als NVidia den GTX260, um den G92b gings hier nie.
Und wenn du die Punktze addierst (Speicheranbindung, Kosten für den Chip, Strombedarf), dann liegt der 4850 einfach von den Kosten her weit unter den 260ern.
Wenn AMD sogar die Vollstufe (4870) günstiger auf den Markt bekommt als NVidia die "B-Ware" (260), dann muss mand avon ausgehen, dass der ganze Chip zu groß geplant war.

@y33H@:
Ich glaube es ging ihm um die Vollast (100%) der GPU, nicht, dass die prinzipiell genutzt wird.
 
Zuletzt bearbeitet:
G92b ist die aktuelle Mainstream/Performance GPU und somit weiterhin vergleichbar. Im Übrigen ist sie ähnlich alt wie GT200A.

Ich bestreite nicht das die 4830 weitaus billiger zu produzieren ist als die GTX 260.
Nur ist die ähnlich schnelle 9800 GT nicht teurer.

Ich bestreite auch nicht, das 576mm² Chips teuer(er) sind. Ich denke nur gerne an abgespeckte 334mm² Chips auf 70€ Karten und wunder mich warum alle Welt verückt spielt wenns 470mm² für 212€ gibt.
 
Zuletzt bearbeitet:
Ich verstehe die ganze Diskussion nicht ganz. Fakt ist doch: nV will kosten sparen, aber deswegen sind sie meines Erachtens noch nicht "böse". Klar unter billigen PCBs leiden evtl.* die Kunden, denn es besteht die Gefahr von höherem Stromverbrauch, schlechterem OC--Verhalten und eben auch Dingen à la Spulenfiepen... ABER das will der Markt.
Die GTX260 65nm war einige Zeit preislich zwar über der HD4870 positioniert, aber nicht extrem viel höher. Zu dieser Zeit konnte man sich entscheiden zwischen einer günstigen HD4870 mit höherem Stromverbrauch, etwas schlechterem PCB (wie wichtig das jetzt ist, dass die Karte Furmark nicht aushält soll jeder für sich entscheiden) und einem deutlich geringerem OC-Potential
ODER
der etwas teureren GTX260, mit gutem OC-Potential, damals noch gutem PCB, niedrigem Stromverbrauch - kurz all den Vorteilen, die jetzt durch eine evtl. erneute Revision des PCBs flöten gehen könnten.

Und viele Kunden - mehr als man bei nV scheinbar erwartet hat - haben sich klar für die günstige HD4870 entschieden. Also wieso sollte nV da einfach zusehen, wie ihre Karte scheinbar nicht den Bedürfnissen des Marktes entspricht und sich schlecht verkauft?!



(*nur mal wieder nebenbei bemerkt: sicher wissen wir es nicht, da wir noch keines der neuen PCBs in der Hand hatten... und wenn ich den Artikel richtig lese, noch nicht einmal offiziell bestätigt wurde, dass es ein solches neues PCB geben wird)
 
Unyu schrieb:
G92b ist die aktuelle Mainstream/Performance GPU...
Kannst oder wilslt du einfach nicht verstehen ? :freak:
Hier gehts um die Kosten der 260, was NVidia sonst noch im Programm hat ist da völlig nebensächlich.
 
y33H@ schrieb:
Nun wie du siehst, nutzt Badabum die GPU - und zwar zu 100%. So wie es sein soll und so wie es bei AMD nicht der Fall ist. Wenn er etwas anderes meint, möge er sich entsprechend ausdrücken.

Ich habe das schon so gemeint mit den 100% Auslastung !

Dein Screenshot ist zwar schön aber leider wertlos da es keinerlei GPU-Auslastung anzeigt !
Zwar kann man über den VDDC spekulieren das die GPU ausgelastet wird allerdings sind 40A noch sehr weit weg von 100% !! :cool_alt:
Bei 80-90A können wir von annähernd 100% sprechen.Vorher nicht !
Und komm mir jetzt blos nicht und sag das die NV-Karte ja so sparsam sind... :rolleyes:

Ich hab selber ein Screenshot gemacht.

Und siehe da ... Beide GPUs der X2 werden angesprochen wobei die erste GPU sogar in 3D-Modus springt.
Das die Temps der X2 so niedrig sind liegt an der WaKü.

Und du schneidest dir mit der Aussage das Badaboom 100% GPU-Auslastung besitzt nur ins eigene Fleisch. Denn dann währe das Ergäbnis vom ATI-Converter-Test noch deutlich niederschmettender für NVidia-Karten.
 

Anhänge

  • ATi-Converter.jpg
    ATi-Converter.jpg
    80,3 KB · Aufrufe: 538
Zuletzt bearbeitet:
Dieses ganze Hickhack um die GTX260 hat mich jetzt doch dazu bewogen, ne Radeon zu kaufen. Obwohl ich das die ganze Zeit aufgrund der hohen Leistungsaufnahme im Leerlauf *niemals* in Erwägung gezogen hatte. Aber das läßt sich ja beheben.
Die Karte hat zwar laut einigen Tests auch so ihre liebe Not mit der Überhitzung der digitalen Spannungswandler, aber ich lasse mich einfach mal überraschen. Ich fahre ja nicht den ganzen Tag Volllasttests mit Furmark. Von daher...
 
Vielleicht hätte NV besser daran getan, von Anfang an eine günstigere Karte mit einfacherem PCB, kleinerem Chip etc. zu entwickeln.
Mir kommt jedenfalls vorerst keine Geforce mehr ins Haus.
 
@ Pickebuh

Was für ein OS? CPU-Auslastung? Und ja, 100% (FurMark) sind bei der 280 knapp 80A. THX für den (etwas unvollständigen *g*) Shot.
Dein Screenshot ist zwar schön aber leider wertlos da es keinerlei GPU-Auslastung anzeigt!
Das geht bei einer Geforce (leider) nicht.
Und du schneidest dir mit der Aussage das Badaboom 100% GPU-Auslastung besitzt nur ins eigene Fleisch.
Ich suche mal nach größerem Input-Material und jage die Settings hoch, vll schaffe ich zumindest 70A :)

EDIT
Ich komme nicht über 47A. Bliebe zu vergleichen: Auslastung vs. Bildqualität vs. CPU-Nutzung vs. Geschwindigkeit.

Würde der Avivo nicht voll auf die CPU gehen ... mit Badaboom dümpelt mein i7 bei 15-24% rum (SMT aus).

cYa
 
Zuletzt bearbeitet:
Ich denke es ist ein schritt in die Flasche Richtung. Die Kosten müssen zwar runter sonst verlassen immer mehr Hersteller Nvidia oder fahren Zweigleisig aber das hier geht sicher auf kosten der Qualität.
Vielleicht bekommt es Nvidia beim GT300 hin die Kosten so weit nach unten zu senken das Board Partner wieder Gewinn machen können.
 
Blutschlumpf schrieb:
Hier gehts um die Kosten der 260, was NVidia sonst noch im Programm hat ist da völlig nebensächlich.
Nein definitiv nicht. Was soll Nvidia einen neuen kleinen Chip mit akzeptabler Performance und niedrigem Herstellungspreis bringen wenn sie den schon haben mit dem G92b?

Sie wollten mit dem G200 nen schnelleren Chip bringen und der ist dann eben auch größer.
 
Ich denke auch, daß es in die falsche Richtung geht.
Früher konnte man Highendprodukte kaufen, da wußte man, das das (zumindest was die Bauteilqualität betrifft) was taugt.
Heute muß man ewig Reviews lesen, um dann festzustellen, daß die eine Kartengeneration hier fiept, die andere dort überhitzt usw., weil an irgendwelchen Pfennigartikeln gespart wurde.

Von daher find ich die Idee von [F]L4SH mit der "Quality Edition" eigentlicht nichtmal verkehrt. Dann könnte der mündige Verbraucher selbst entscheiden, ob er für bessere Qualität etwas mehr Geld in die Hand nimmt und dafür auch einiges seiner wertvollen Freizeit mit dem Nichtlesen irgenwelcher Reviews spart oder ob es ihm nur auf die reine Leistung der Grafikkarte ankommt.
Gigabyte hat es übrigens damals vorgemacht mit den AllSolid Kondensatoren (korrigiert mich, wenn eine andere Firma der Vorreiter im Mainboard-Bereich war). Das GA-965P gab es als S3 und DS3, damals (2006) waren es glaub ich 15 € Unterschied.
 
Zurück
Oben