Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 260 – Die Kosten müssen runter
- Ersteller Jan
- Erstellt am
- Zur News: GeForce GTX 260 – Die Kosten müssen runter
BestPower²TDP
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.250
Es wird wohl eher eine Maßnahme für die Partner sein. Immerhin können diese dem folgen oder weiterhin selber eigene Layouts, mit den besseren Material, verwenden. Nur verdienen die Partner von Nvidia kaum oder nichts an den Karten, Zumal auch der Absatz selber schlecht ist.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Von 10 auf 8.illegalz schrieb:- PCb von 14 auf 8 reduzieren, das klingt hart, welche auswirkungen hat das auf Leistung/ Physikalische Stabilitaet und OC?
Der Schritt 14 auf 10 wurde begeistert aufgenommen, im Zusammenhang mit heiligen 55nm.
Damals wurde Nvidia verteufelt, weil sie die Karte trotz 0% Mehrleistung nicht GTX 270 nannten.
Genau diese Leute hätten den Namen GTX 270 zwar trotzdem verachtet, aber egal. Jetzt konnten diese Leute hinterher noch jammern, das 55nm samt billigem PCB gar nicht besser sind. Oh welch Überraschung.
Warum schreibst du nicht, das die 1,4 Milliarden Transistoren inklusive DP ALUs und einem fetten Haufen Transistoren für die anisotrope Filterung sind? Keine Sorge, AF wird wieder abgeschafft wenn der Markt es nicht will.hübie schrieb:Immerhin hat der GT200 1400 Millionen Transistoren während ATis RV770 956 Millionen inklsuive Tesselation-Unit hat.
Zb. beim unterfilterten AF, das selbst mit AI-off nicht beseitigt werden kann?DonGeilo33 schrieb:Geil. wo ist AMD in der BQ den schlechter?
Super, dann steht der Kosteneinsparung doch nichts im Wege. Ist schließlich nicht nötig, das eine GTX 260 Furmark packen muss.MixMasterMike schrieb:@yeeha: dass furmark praxis aufzeigt ist doch gar nicht wahr.
Wobei das Pfeifen das du natürlich kritisierst nach yeeha nur dort auftritt, wo alle anderen Karten auch pfeifen.
Nö, mehr Stromverbrauch wäre richtig.Blutschlumpf schrieb:Weniger Verbrauch = einfachere Kühlung und Spanungsversorgung
Zumindest wenn du GTX 260 mit 4870 und GTX 285 mit X2 Karten vergleichst und nicht die 4670 mit der GTX 295.
Hefele
Lt. Junior Grade
- Registriert
- Juni 2007
- Beiträge
- 347
Hi,
dass Nvidia die Kosten senken muss war abzusehen und wurde bereits durch den 55 nm Die eingeläutet.
Inwieweit die neuen Veränderungen wie PCB, Spannungswandler und Stromversorgung die Qualität der Karte verschlechtern werden, kann man jetzt doch noch gar nicht sagen.
Ich bin darüber auch nicht gerade erfreut aber man sollte ersteinmal die Tests bzw. Erfahrungen mit diesem neuen Layout abwarten und dann kann man ja immer noch darüber diskutieren wieso, weshalb und warum das so ist.
Wegen Spulenfiepen auf der Grafikkarte habe ich so meine Erfahrungen gemacht. Mit meinen 4870ern von Sapphire.
Sobald ich z.B. Far Cry 2 oder 3DMark gestartet habe, haben sie gepfiffen.
Ich hatte als Stromversorgung ein BeQuiet Dark Power Pro mit 650 Watt. Mit allerdings nur zwei PCIexpress Stromanschlüssen. Da eine 4870 zwei braucht musste ich noch zwei Adapter hinzunehmen.
Ich hab dann das BeQuiet gegen ein Coba Nitrox mit 750 Watt und vier! PCIexpress Anschlüssen mit Ferritkernen (welches deutlich günstiger war) ausgetauscht.
Tja, und seitdem haben meine Grafikkarten keinen Ton mehr von sich gegeben sondern nur noch schöne Bilder.
Also entweder habe ich Glück gehabt dass das Fiepen durch das neue Netzteil der Vergangenheit angehört oder es lag wirklich am Netzteil.
Gruss
Hefele
dass Nvidia die Kosten senken muss war abzusehen und wurde bereits durch den 55 nm Die eingeläutet.
Inwieweit die neuen Veränderungen wie PCB, Spannungswandler und Stromversorgung die Qualität der Karte verschlechtern werden, kann man jetzt doch noch gar nicht sagen.
Ich bin darüber auch nicht gerade erfreut aber man sollte ersteinmal die Tests bzw. Erfahrungen mit diesem neuen Layout abwarten und dann kann man ja immer noch darüber diskutieren wieso, weshalb und warum das so ist.
Wegen Spulenfiepen auf der Grafikkarte habe ich so meine Erfahrungen gemacht. Mit meinen 4870ern von Sapphire.
Sobald ich z.B. Far Cry 2 oder 3DMark gestartet habe, haben sie gepfiffen.
Ich hatte als Stromversorgung ein BeQuiet Dark Power Pro mit 650 Watt. Mit allerdings nur zwei PCIexpress Stromanschlüssen. Da eine 4870 zwei braucht musste ich noch zwei Adapter hinzunehmen.
Ich hab dann das BeQuiet gegen ein Coba Nitrox mit 750 Watt und vier! PCIexpress Anschlüssen mit Ferritkernen (welches deutlich günstiger war) ausgetauscht.
Tja, und seitdem haben meine Grafikkarten keinen Ton mehr von sich gegeben sondern nur noch schöne Bilder.
Also entweder habe ich Glück gehabt dass das Fiepen durch das neue Netzteil der Vergangenheit angehört oder es lag wirklich am Netzteil.
Gruss
Hefele
- Registriert
- Aug. 2005
- Beiträge
- 7.002
@ Unyu
Nein, das Pfeifen tritt eben nicht nur dort auf, wo andere Karten auch pfeifen...
Du musst ja nur mal den Bericht hier auf CB lesen.
Und wenn eine Firma es nicht auf die Reihe bekommt, ein Produkt auf den Markt zu werfen, das den rudimentären Ansprüchen nicht genügt (eine Grafikkarte hat einfach nicht zu fiepen!), dann gibt es auch keinen Grund, dies herunterzuspielen...
Nvidia hat einfach eine, im nachhinein, falsche Strategie verfolgt und muss jetzt auf Teufel komm raus die Kosten senken...
Wenn man das schafft, ohne den Großteil der Kunden einzuschränken oder zu nerven, dann ist ja alles in Ordnung. Nvidia schafft dies anscheinend nicht...
Nein, das Pfeifen tritt eben nicht nur dort auf, wo andere Karten auch pfeifen...
Du musst ja nur mal den Bericht hier auf CB lesen.
Und wenn eine Firma es nicht auf die Reihe bekommt, ein Produkt auf den Markt zu werfen, das den rudimentären Ansprüchen nicht genügt (eine Grafikkarte hat einfach nicht zu fiepen!), dann gibt es auch keinen Grund, dies herunterzuspielen...
Nvidia hat einfach eine, im nachhinein, falsche Strategie verfolgt und muss jetzt auf Teufel komm raus die Kosten senken...
Wenn man das schafft, ohne den Großteil der Kunden einzuschränken oder zu nerven, dann ist ja alles in Ordnung. Nvidia schafft dies anscheinend nicht...
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Seppuku
Eine Karte muss auch für Volllast gebaut sein....
Was hat der GTX 285 Artikel mit der GTX 260 zu tun?
Erstaunlich ist es nur nachwievor, das die 55nm selig gesprochen wurden, Nvidia für den gleichen Namen verteufelt wurde, obwohl bekannt war das das PCB seine 4 Layer verlieren würde und das ganze einfach nur Kosten sparen soll. Jetzt ist die Situation exakt die gleiche, bis auf das es nur noch 2 Layer sind und kein Shrink dabei ist.
Eine Karte muss auch für Volllast gebaut sein....
Was hat der GTX 285 Artikel mit der GTX 260 zu tun?
Erstaunlich ist es nur nachwievor, das die 55nm selig gesprochen wurden, Nvidia für den gleichen Namen verteufelt wurde, obwohl bekannt war das das PCB seine 4 Layer verlieren würde und das ganze einfach nur Kosten sparen soll. Jetzt ist die Situation exakt die gleiche, bis auf das es nur noch 2 Layer sind und kein Shrink dabei ist.
Zuletzt bearbeitet:
Hefele
Lt. Junior Grade
- Registriert
- Juni 2007
- Beiträge
- 347
Erstaunlich ist es nur nachwievor, das die 55nm selig gesprochen wurden, Nvidia für den gleichen Namen verteufelt wurde, obwohl bekannt war das das PCB seine 4 Layer verlieren würde und das ganze einfach nur Kosten sparen soll. Jetzt ist die Situation exakt die gleiche, bis auf das es nur noch 2 Layer sind und kein Shrink dabei ist.[/QUOTE]
@Unyu
Was erwartest du? Von dem Shrink haben sich alle Vorteile erhofft wie geringerer Stromverbrauch und gleichzeitig besser zum Übertakten.
Durch die neuen Sparmaßnahmen erwarten die meisten nur Nachteile.
@Unyu
Was erwartest du? Von dem Shrink haben sich alle Vorteile erhofft wie geringerer Stromverbrauch und gleichzeitig besser zum Übertakten.
Durch die neuen Sparmaßnahmen erwarten die meisten nur Nachteile.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Ganz schön naiv zu glauben Shrinks sind immer toll und können sogar deutlich billigere Bretter ausgleichen.
Ist der Athlon 64 schon so weit zurück gedrängt worden?
Oder hat die Masse lieber übersehen, das 55nm G9x auch nicht direkt Vorteile brachten. Dort sind zudem die Bretter gleich geblieben...
Gut, war anzunehmen das eine Karte bei gleichem Namen auf einmal besser wird, der Normalo denkt sich je kleiner desto besser, wie fies von Nvidia keinen 55nm Aufkleber raufzukleben, sonst kauft niemand mehr die ordentlichen 14 Layer Karten ...
Ist der Athlon 64 schon so weit zurück gedrängt worden?
Oder hat die Masse lieber übersehen, das 55nm G9x auch nicht direkt Vorteile brachten. Dort sind zudem die Bretter gleich geblieben...
Gut, war anzunehmen das eine Karte bei gleichem Namen auf einmal besser wird, der Normalo denkt sich je kleiner desto besser, wie fies von Nvidia keinen 55nm Aufkleber raufzukleben, sonst kauft niemand mehr die ordentlichen 14 Layer Karten ...
Zuletzt bearbeitet:
P
Pickebuh
Gast
Das Spulenfiepsen ist zwar nervig kann man aber umgehen indem man einfach V-Sync einschaltet.
Durch das limitieren von 60 FPS wird die Grafikkarte deutlich weniger beansprucht bzw. braucht auch weniger Energie um betrieben zu werden.
Durch das limitieren von 60 FPS wird die Grafikkarte deutlich weniger beansprucht bzw. braucht auch weniger Energie um betrieben zu werden.
hübie
Lt. Commander
- Registriert
- Dez. 2002
- Beiträge
- 1.903
Unyu schrieb:Warum schreibst du nicht, das die 1,4 Milliarden Transistoren inklusive DP ALUs und einem fetten Haufen Transistoren für die anisotrope Filterung sind? Keine Sorge, AF wird wieder abgeschafft wenn der Markt es nicht will.
Weil ATi ebenso GP kann wie nVidia.
Und der anistrope Filter ist bei ATi zu 90% dem von nVidia gewachsen.
Zeige mir deutliche Beispiele in Spielen wo nVidia so viel besser aussieht, dass es ein paar Millionen Transistoren mehr rechtfertigen würde...
Beweise bitte und nicht nur Geplapper.
bye Hübie
Edit: Oh ich lese gerade DP. Was verstehe ich darunter???
Edit2: double precision?
Zuletzt bearbeitet:
eLan
Lt. Junior Grade
- Registriert
- Dez. 2007
- Beiträge
- 401
mhh klingt klug, aber die frage is, ob dabei nicht der kunde verarscht wird. zu 55nm-karten: meine karte fiept gottseidank nicht, hatte damals auch bedenken.
aber was ich mich frage, wieso stürzen die preise so drastisch?! ich mein wenn nvidia sagt, dass sie die karten für 250€ an die händler verkauft, dann werden die auch für 250€ verkauft. wieso können dann die endhändler 220€ verlangen. wer macht die 30€ miese? bei apple z.b. kostet jedes produkt in fast jedem shop überall gleich viel.. nix mir preissturz?!
//DP: double penetration
aber was ich mich frage, wieso stürzen die preise so drastisch?! ich mein wenn nvidia sagt, dass sie die karten für 250€ an die händler verkauft, dann werden die auch für 250€ verkauft. wieso können dann die endhändler 220€ verlangen. wer macht die 30€ miese? bei apple z.b. kostet jedes produkt in fast jedem shop überall gleich viel.. nix mir preissturz?!
//DP: double penetration
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.406
Warum sollte ich das tun ? Hier geht es darum warum Ati seine Karten viel günstiger anbieten kann. Die nächststbilligeren zu GTX280/260 sind die 4870 und 4850 die (zumindest unter Last, idle ist für die dimensionierung der Stromversorgung eher zweitrangig) weniger verbrauchen.Unyu schrieb:Nö, mehr Stromverbrauch wäre richtig.
Zumindest wenn du GTX 260 mit 4870 und GTX 285 mit X2 Karten vergleichst und nicht die 4670 mit der GTX 295.
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.406
Eben nicht, die X2 hat 2 Cores, kannste also nicht vergleichen, die 4870/GTX280 wären die Voll-Takt-Versionen, die 4850/GTX260 die "Lite"-Versionen.
Evtl. hast du das Thema nicht ganz verstanden, hier ging es nicht um den Verbrauch bei equivalenter Performance.
Evtl. hast du das Thema nicht ganz verstanden, hier ging es nicht um den Verbrauch bei equivalenter Performance.
- Registriert
- Aug. 2005
- Beiträge
- 7.002
Sofern diese Volllast auch in der Realität wirklich relevant wird, dann ja. Wenn es sich nur um ein theoretisches Szenario handelt interessiert es so gut wie keinen.Unyu schrieb:Eine Karte muss auch für Volllast gebaut sein....
Was hat eigentlich das damit zu tun, dass einige Karten von Nvidia fiepen? Versteh ich nicht ganz...
Der Artikel war nur ein Beispiel, wie man durch falsche Kosteneinsparungen, den Großteil der Käufer mehr oder weniger stark direkt beeinflusst. Und wenn schon eine Karte für über 320€ nicht die grundsätzlichen Dinge drauf hat (also einfach leise zu sein (Lüfter mal außen vorgelassen)), was soll man da noch sagen?
Einziger Schluss: Die Strategie ist aber sowas von nicht aufgegangen...
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
[F]L4SH schrieb:Fiepen hier Fiepen da... bis jetzt konnte ich es entdecken in: Menü von Stalker Clear Sky und ... äh halt nein das wars ja schon
Das tritt auch bei mir auf und hat weniger mit der Grafikkarte zu tun.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.670
@ Pickebuh
Der Avivo-Converter war im 8.12 ganz normal im Treiber integriert. Unter x64 hat nur die CPU gerechnet, nicht aber wie propagiert die GPU. AMD hat was wohl auch mitbekommen, daher steht nun in den Release Notes des 9.1 (welcher am 29. Januar erschien) nicht nur drin, dass unter DX10 der Treiber kein AF forcieren kann, sondern auch, dass der Avivo-Converter unter x64 nicht auf der GPU läuft. Und lustigerweise steht erst seit dem 29. Januar (ja, Launch des 9.1 samt Release Notes, der Avivo geht nicht), beim Avivo "available soon". Ein Schelm, wer böses denkt ...
cYa
Der Avivo-Converter war im 8.12 ganz normal im Treiber integriert. Unter x64 hat nur die CPU gerechnet, nicht aber wie propagiert die GPU. AMD hat was wohl auch mitbekommen, daher steht nun in den Release Notes des 9.1 (welcher am 29. Januar erschien) nicht nur drin, dass unter DX10 der Treiber kein AF forcieren kann, sondern auch, dass der Avivo-Converter unter x64 nicht auf der GPU läuft. Und lustigerweise steht erst seit dem 29. Januar (ja, Launch des 9.1 samt Release Notes, der Avivo geht nicht), beim Avivo "available soon". Ein Schelm, wer böses denkt ...
cYa
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Blutschlumpf
Dann kannst du 4850 und GTX 280 mit keiner anderen Karte vergleichen, auch gut.
Bleiben GTX 260 vs 4870.
Mir erschliesst sich nicht der Sinn, einen vollen GT200 mit einem vollem RV770 zu vergleichen. Sind nunmal andere Klassen, was soll das?
Dann vergleichen wir nächste Mal auch einen vollen R580+ mit einem vollen G80?
Seppuku
Richtig, es geht hier weder um die GTX 285, noch um eine unzureichende Spannungsversorgung der 4870.
Es geht um die unzureichende Spannungsversorgung der zukünftigen GTX 260.
Die Karte, wo es definitiv nicht pfeifende Karten gibt. Die Zahl ist mir unbekannt und nebenbei vollkommen egal.
Dir ist es nicht bekannt, ob das neue PCB einfach nur Furmark untaugliche Karten zur Folge hat oder Pfeifen? Ersteres müsste doch bejubelt werden, weil Furmark ist doch angeblich soo praxisfern.
Dann kannst du 4850 und GTX 280 mit keiner anderen Karte vergleichen, auch gut.
Bleiben GTX 260 vs 4870.
Mir erschliesst sich nicht der Sinn, einen vollen GT200 mit einem vollem RV770 zu vergleichen. Sind nunmal andere Klassen, was soll das?
Dann vergleichen wir nächste Mal auch einen vollen R580+ mit einem vollen G80?
Seppuku
Richtig, es geht hier weder um die GTX 285, noch um eine unzureichende Spannungsversorgung der 4870.
Es geht um die unzureichende Spannungsversorgung der zukünftigen GTX 260.
Die Karte, wo es definitiv nicht pfeifende Karten gibt. Die Zahl ist mir unbekannt und nebenbei vollkommen egal.
Dir ist es nicht bekannt, ob das neue PCB einfach nur Furmark untaugliche Karten zur Folge hat oder Pfeifen? Ersteres müsste doch bejubelt werden, weil Furmark ist doch angeblich soo praxisfern.
Zuletzt bearbeitet:
redfirediablo
Lt. Junior Grade
- Registriert
- Okt. 2006
- Beiträge
- 509
Nvidia hat halt einfach mal voll daneben gegriffen.
Dumm gelaufen wenn der eigene Chip mehr als doppelt soviel in der Herstellung kostet als der meiner Konkurrenz aber praktisch nicht wirklich schneller ist. Da muss man halt an den Bauteilen die Karte kaputtsparen um halbwegs auf einen grünen Zweig zu kommen.
Lächerlich das die ganze NV Fans jetzt meinen ATI sei daran schuld das NV (oh die armen) ihre Kunden mir minderwertigen Karten beglücken muss.
Ich kann von 2 4870ern sprechen, einmal 512, einmal 1024. Beide im Referenzdesign:
- kein fiepen, egal wo
- perfekt stabil, alle Spiele laufen prima
- wunderbar sparsam wenn man so intelligent ist manuell den Speichertakt im 2D herunterzutakten
- wunderbar leise 2D/3D, eindeutig die angenehmste Karte in der Leistungsklasse, siehe auch Cbase
Die AF Diskussion ist auch lächerlich. Die einen stehen auf schärfere Texturen mit etwas mehr unruhe und die anderen eher auf verwaschene Texturen mit mehr ruhe. Lächerlich das die Fraktion der "matsch" Texturen Liebhaber meint ihre Meinung sei der Standard für alle und deshalb habe ATI ja die schlechtere BQ.
Dumm gelaufen wenn der eigene Chip mehr als doppelt soviel in der Herstellung kostet als der meiner Konkurrenz aber praktisch nicht wirklich schneller ist. Da muss man halt an den Bauteilen die Karte kaputtsparen um halbwegs auf einen grünen Zweig zu kommen.
Lächerlich das die ganze NV Fans jetzt meinen ATI sei daran schuld das NV (oh die armen) ihre Kunden mir minderwertigen Karten beglücken muss.
Ich kann von 2 4870ern sprechen, einmal 512, einmal 1024. Beide im Referenzdesign:
- kein fiepen, egal wo
- perfekt stabil, alle Spiele laufen prima
- wunderbar sparsam wenn man so intelligent ist manuell den Speichertakt im 2D herunterzutakten
- wunderbar leise 2D/3D, eindeutig die angenehmste Karte in der Leistungsklasse, siehe auch Cbase
Die AF Diskussion ist auch lächerlich. Die einen stehen auf schärfere Texturen mit etwas mehr unruhe und die anderen eher auf verwaschene Texturen mit mehr ruhe. Lächerlich das die Fraktion der "matsch" Texturen Liebhaber meint ihre Meinung sei der Standard für alle und deshalb habe ATI ja die schlechtere BQ.
Zuletzt bearbeitet: