News Nvidia GeForce GTX 260 bald mit 216 ALUs?

Also bei mir ist der IDLE-Stromverbrauch der eigentliche Grund, weshalb ich gerade über eine GTX 260 nachdenke und KEINE HD 4870 kaufen will. Sollte ATI den PowerPlay 2 auf der HD 4870 1GB in diesem Leben noch zum Laufen kriegen, wird es vielleicht eine 4870. Aber im Gegensatz zu ATI scheint NVidia ja 2 Generationen nach der 8800 GTX/Ultra ein wenig gelernt zu haben wie man Stromsparmechanismen baut. Bei ATI steht die X2 zwar im Verhältnis zur 4870 gut dar, aber warum der Verbrauch der HD 4870 immer noch so hoch ist bzw. warum der Verbrauch bei der X2 nicht noch geringer ist, frage ich mich auch.

Ich meine die GTX 260 verbraucht deutlich weniger als die 4870, aber die 4870 X2 verbraucht kaum mehr als die 4870. Klingt etwas merkwürdig. Naja, mir eigentlich ohnehin egal. Ich kaufe die Karte, die das beste Paket bietet und die bessere Stromsparfunktion der 260 macht diese für mich attraktiver. Und wenn es jetzt noch ein paar Shadereinheiten extra gibt, freut mich das sehr. Mal abwarten wie sich die Preise noch entwickeln. Ich bin mir sicher dass sie das Warten auf den G200b lohnt. Den dürften die so schnell wie möglich bringen wollen.
 
Das mit dem Übertaktungspotential wurde auf Grund des CB-Tests etwas verfälscht. Ein anderes Mitglied aus dem Forum hatte die CB Redaktion angeschrieben diese im folgendes bescheinigten:
GTX 260 (gutes Modell zum ocen erwischt)
GTX 280 (schlechtes Modell zum ocen erwischt)
HD4870 (schlechtes Modell zum ocen erwischt)

Die Erfahrung in meinem Umfeld zeigte folgendes auf.
Ein Kumpel hatte sich eine POV GTX 260 zugelegt. Nach geringer Anhebung der Taktraten auf das Niveau einer von Haus auf übertakteten XFX XXX Edition war Ende und der Furmark stürzte regelmäßig ab.
Ich hatte eine XFX XXX Edition. Diese überstand den Furmark Stabilitätstest ebenfalls nicht obwohl sie von Haus auf übertaktet war. Noch weiter übertakten war schonmal garnicht drin.
Die Evga FTW Edition die ich für meinen Praxistest benutzt habe hatte auch nicht mehr viel Spielraum nach oben. Sie produzierte Artifakte im Artifaktenscan des ATI Tools.
Also tut mir Leid es ist bei weitem nicht die Regel dass sich die GTX 260 gut übertakten lässt zumal man wie gesagt schon weit übertakten muss um einer HD4870 generell gefährlich zu werden sie meinen Praxistest:

https://www.computerbase.de/forum/t...-vs-powercolor-hd4870-oc.459033/#post-4660052
Hier schafft es die Evga GTX 260 FTW Edition (666/2214/1404) nicht sich von einer HD4870 (770/1000) abzusetzen.

- CUDA und PhysX: Cuda ist für den normalen Verbraucher der zocken will absolut nicht von Bedeutung während PhysX es auf Dauer schwer haben wird weil Intel und ATI gemeinsam auf Havok setzen und damit eine große Konkurrenz für Nvidia darstellen
- Option auf schnelleres SLI: Für mich persönlich wäre sowohl SLI als auch CF nie eine Lösung. Wer sowas will muss sich überlegen ob er SLI oder CF vorzieht. Doch jetzt eine Karte zu kaufen und später die gleiche nochmal wenn sie billiger ist lässt sich meist in der Praxis nicht umsetzen da es dann schon wieder eine neue Generation von Grafikkarten gibt und man besser bedient ist eine neue einzelne Grafikkarte zu kaufen
- Hohe Kompatibilität zu Software: Ich weiss nicht was du damit meinst. Ich glaube nicht dass jemand mit seiner HD4870 Kompatibilitätsprobleme hat selbst in den "Meant to be played" Games nicht. Also ich habe davon noch nichts gemerkt.
- Stromverbrauch: Geb ich dir Recht hat die ATI das nachsehen allerdings muss man für sich sehen wie lange man den Rechner wirklich laufen hat und was das im Jahr ausmacht. Zumal eine übertaktete GTX 260 auch mehr Saft zieht als die Stockvariante. Drum relativiert sich das Argument ein bisschen wenn man Ocen noch als Für-Argument herbeizieht. Im Idle sind es ca. 40 Watt mehrverbrauch da kann sich nun jeder ausrechnen was man im Jahr mehr an Strom bezahlt wenn man den Rechner so und solang laufen hat.

Rechenbeispiel STROM:
Ich hoffe das ist richtig gerechnet wenn net korrigiert mich jemand bitte ;)

HD4870 40Watt Mehrverbrauch pro Stunde im Idle
Laufzeit des Rechners 8 Stunden pro Tag
= 320 Watt (Mehrverbrauch am Tag mit einer HD4870)
Das ganze Mal 365 Tage = 116800 Watt mehr im Jahr
116800W : 1000W x 0,20 Cent (KWh Stundenpreis) = 23,36 Euro

Das jeweilige System würde bei 8 Stunden Laufzeit pro Tag im Jahr 23,36 Euro mehr kosten, wenn man den PC permanent im Idle fahren würde.
Da man den Rechner ab auch hin und wieder unter Last benutzt und hier der die Mehrwattleistung der HD4870 zur GTX 260 unter Last auf 13 Watt sinkt (siehe CB Test) relativiert sich das ganze natürlich.
 
Zuletzt bearbeitet:
Bei 24/7-Rechner zieht die 4870 etwa 75 Euro mehr Strom je Jahr

(197W-154W)*24Std*365Tage/1000*0,20€ = 75 Euro im Jahr bei 24/7 Betrieb.

Die Vorteile, die ich aufgeführt habe, müssen übrigens nicht unbedingt wesentlich sein. Aber auch 5 Spiele mit PhysX sind besser als 0 Spiele (also ein Vorteil). Und natürlich hat auch die 4870 ihre Vorteile (z.B. Preis, (8x)AA-Leistung in (alten) Spielen, Lautstärke, Aussicht auf Leistungssteigerung durch DX10.1, ...). Ich wollte mich also nicht streiten, sondern nur konstruktiv auf deine Behauptung antworten, das die GTX260 keine Vorteile gegenüber einer 4870 hat.

Das diese Vorteile nicht für jeden auch maßgeblich sin, zeigt ja deine Kaufentscheidung. Vorhanden sind sie trotzdem, aber gewichten muss sie jeder für sich selber.
 
Zuletzt bearbeitet: (DX10.1 Vorteil ergänzt)
Eusterw schrieb:
- Stromverbrauch (vor allem in 24/7-Rechnern wesentlich geringerer Verbrauch)
- Aussicht auf PhysX (erste Spiele sind da, weitere angekündigt)
- Übertaktungspotential (GTX ist die kleinere der G200 Versionen)
- Option auf schnelleres SLI (falls man das mal nutzen möchte)
- Hohe Kompatibilität zu Software aufgrund von G80 Architektur
- Aussicht auf CUDA unterstützte Software (z.B. Videokonvertierung)

Alles mal Vorteile einer GTX260 gegenüber einer 4870...

- Ca 60 € mehr Stromverbrauch im Jahr ist kein Argument. Welche Zielgruppe hat den PC 24/7 laufen? Die wenigsten. PP 2.0 funktioniert und das wird es auch auf den 4870 Karten.
- PhysX braucht man noch genausowenig wie DX10.1. Ein nettes Feature ohne grossen Nutzen. DX11 und die Physikschnittstelle mit Havok wird es richten. Ausserdem stehen die Chancen gut das ATI auch PhysX unterstützt.
- 96% Der Käufer übertakten nicht. Auch eine 4870 lässt sich übertakten. Ich kaufe mir auch keinen Golf mit der Option des Tunings wenn ich gleich was grösseres fahren kann.
- Option auf CF oder bei der X2 auf Quad CF mit nur 2 Steckplätzen.
- Von welcher Kompatibilität sprichst du?:freak:
- Die gleiche "Aussicht" gibt es bei ATI auch. Lesen hilft da ungemein.
- Schlechte Leistung in 8xAA 16xAF. Egal ob bei alten oder neuen Spielen.

Schon sehe ich garkeinen Vorteil mehr ;)
Das sind die selben Posts wie damals als die FX 5900 Ultra auf dem Markt kam. Da haben die ganzen NV Jünger auch alles vermeintlich Positive ihrer Karte der 9800pro entgegengestellt. Man hat Valve sogar Fehlprogrammierung vorgeworfen weil HL nicht spielbar war im DX9 Modus und noch dazu bei jeder NV Karte heftigst Grafikfehler verursacht hat. Trotzdem war die 5900 Ultra in vielen AUgen die bessere und schnellere Karte.....
 
Zuletzt bearbeitet:
Eusterw schrieb:
Bei 24/7-Rechner zieht die 4870 etwa 75 Euro mehr Strom je Jahr

(197W-154W)*24Std*365Tage/1000*0,20€ = 75 Euro im Jahr bei 24/7 Betrieb.

Die Vorteile, die ich aufgeführt habe, müssen übrigens nicht unbedingt wesentlich sein. Aber auch 5 Spiele mit PhysX sind besser als 0 Spiele (also ein Vorteil). Und natürlich hat auch die 4870 ihre Vorteile (z.B. Preis, AA-Leistung in alten Spielen, Lautstärke, ...). Ich wollte mich also nicht streiten, sondern nur konstruktiv auf deine Behauptung antworten, das die GTX260 keine Vorteile gegenüber einer 4870 hat.

Das diese Vorteile nicht für jeden auch maßgeblich sin, zeigt ja deine Kaufentscheidung. Vorhanden sind sie trotzdem, aber gewichten muss sie jeder für sich selber.

Die AA Leistung ist nachwievor besser bei ATI nicht nur in alten Spielen. PhysX ist derzeit einfach noch kein Kaufargument genauso wenig wie Havok. Zudem sind die GTX260 und GTX 280 lediglich PhysX Ready. Ansonsten stimme ich meinem Vorredner über mir komplett zu.
 
Eusterw schrieb:
Ich seh es schon wieder kommen. Statt die Karten nach einem Schema wie z.B.:
....
zu nennen, heißen wieder alle Karten GTX260/280 und niemand weis, was er wirklich bekommt.
Der Name ist ungewiss, auch wenn in der News das Fragezeichen fehlt.

@X-Factor1982
Fast identische Preise und die Mehrkosten durch den Verbrauch vernachlässigen wir.

Zum Thema OC:
280 (260 gibts leider nicht): http://hwbot.org/quickSearch.do;jsessionid=50691450B1BAB628BF321A5574316107?hardwareId=GPU_1356
4870: http://hwbot.org/quickSearch.do?hardwareId=GPU_1361
Die 260 hat eindeutig mehr OC Potential.

Du nimmst Herstellerseitig übertaktete Karten, die teilweise fehlerhaft sind und überträgst das auf normale Karten. Das ist inkorrekt.

Alle GF8,9 und 200 sind PhysX ready!

Plasma81 schrieb:
- Schlechte Leistung in 8xAA 16xAF. Egal ob bei alten oder neuen Spielen.

Streich das 16xAF raus, lediglich 8xQ AA ist bei nvidia langsam, seit 2 Jahren.

Zum Glück gibts ja 16xCSAA, das schneller ist und 8xS(Q) das zum Teil schneller und bei heutigen Titeln deutlich hübscher ist, testet nur niemand.

Plasma81 schrieb:
- PhysX braucht man noch genausowenig wie DX10.1.

Zumindest habe ich hier schon PhysX Spiele liegen, die auch spielbar sind.

Plasma81 schrieb:
- Von welcher Kompatibilität sprichst du?:freak:

Eventuell die AA Kompatibilität.

________
Fühlt sich der X1800 XT Käufer verarscht, wenns später zum selben Preis eine X1900 XT gibt?
 
Zuletzt bearbeitet:
Unyu schrieb:
Der Name ist ungewiss, auch wenn in der News das Fragezeichen fehlt.

Abschnitt aus der News schrieb:
...in einem Gespräch mit Nvidia hat uns Jens Neuschäfer, PR-Manager für Zentraleuropa, nun verraten, dass diese Gerüchte den Tatsachen entsprechen. So wird die GeForce GTX 260 ab sofort aufgerüstet und die langsameren Modelle sollen mit der Zeit abverkauft werden. Eine von uns vorgeschlagene Namensänderung auf „GeForce GTX 270“ soll es allerdings nicht geben, da dazu die Modifizierungen zu gering sein sollen...
Wo soll da denn noch ein Fragezeichen sein? So wie ich das lese, wurde von NVidia offiziell (ich denk mal den PR-Manager kann man als offiziell durchgehen lassen) bestätigt, das die unterschiedlichen Modelle mal wieder den exakt gleichen Namen bekommen.
 
Ein Abweisen eines bestimmten anderen Namens ist keine Bestätigung.
Ist auch im Grunde egal, ob 260 oder sonstewie, wir suchen ja das Wort Verarsche.

Mehrleistung als Verarsche zu betiteln ist schon seltsam, aber vielleicht hilft mir X-Factor1982 mal weiter.
 
@Unyu: Du liest auch immer nur das was du lesen willst oder? ;) Nicht nur die XXX Edition XFX lies sich nimmer übertakten auch die POV die mein Kumpel hatte (steht auch im Post) war nicht gerade sehr OC-freundlich. Die Evga FTW genauso wenig. Und ich kann nicht sagen dass die FTW und XXX Edition fehlerhaft waren. Solange man sie nicht nochmal übertaktet hat war alles perfekt.

Und was willst du jetzt von mir von wegen Verarsche? Wie kann ich dir da jetzt weiterhelfen?

Also
Beispiel 1: Ware die neue GTX 260 jetzt tatsächlich 10 Prozent schneller als die alte und würde das gleiche oder sogar weniger kosten, wären alle die für den teureren oder gleichen Preis vor kurzem die alte Variante gekauft haben die gearschten. Ich würde mir da verarscht vorkommen.
Beispiel 2: Würde der Name, Verpackung etc gleich bleiben und man könnte nicht nachvollziehen welche Karte man bekommt (ob neu oder alt) wäre man als Kunde wieder der Depp.
Beispiel 3: Würde die überarbeitete GTX 260 nur noch 5% von der GTX 280 Leistung entfernt liegen aber wie das alte Modell knapp hundert Euro billiger sein würden die die eine teure GTX 280 gekauft haben die Gelackmeierten sein. Weil hundert Euro mehr für 5 Prozent mehr Leistung ich weiss nicht, net so das Wahre.

Das waren nur Beispiele "was wäre wenn" und bei jedem Beispiel wäre der Endkunde der Depp. Und das wäre im Grund eine große Verarsche seitens Nvidia dem Endkunden gegenüber.
 
Zuletzt bearbeitet:
Ich dachte das mit den "fehlerhaften" GTX wäre mittlerweile geklärt. Die Kühler waren mies platziert und/oder zu viel Wärmeleitpaste wurde benutzt.
 
Muscular Beaver schrieb:
Ich dachte das mit den "fehlerhaften" GTX wäre mittlerweile geklärt. Die Kühler waren mies platziert und/oder zu viel Wärmeleitpaste wurde benutzt.

Das Problem hierbei ist aber dass es nicht so leicht ist diese wieder aus dem freien Umlauf zu kriegen da noch viele irgendwo auf Lager liegen wo man nicht weiss ob das da auch der Fall ist. Das merkt letztendlich mal wieder der Endkunde der dann wieder umtauschen muss usw. Schon allein die Aktion fand ich eine Frechheit und zwar von sämtlichen Herstellern bei denen das aufgetreten ist. Billig das Zeug irgendwo zamschustern lassen, viel Geld dafür verlangen und dann funktioniert das Zeug nicht mal oder hat Fehler. Und wenn man dann irgendwo darüber seinen Unmut kunnt tut wird man von Fanboys noch dumm angeredet. Hab ich hier im Forum schon öfter jetzt gesehen. Als ob es nicht verständlich ist dass wenn man 250-400 Euro (je nachdem welche GTX) für eine Karte ausgibt auch etwas möchte was funktioniert. Schließlich hat man seine Pflicht des Kaufvertrages erfüllt als kann man auch verlangen dass dies die Gegenseite tut und ein hundert prozentig funktionierendes Produkt liefert.
 
Dann schickt man sie zurück und bekommt ne bessere. Oder man richtet es selbst, was laut Aussagen einiger enormes Potential freisetzt, da man dann auch gleich bessere Wärmeleitpaste nehmen kann.
 
Das kleine Update an der GTX260 wird die Karte auch nicht nach vorne reißen, da sind 5% vielecht mehr drin, alles in allem eine Verzweiflungstat Seitens NV :rolleyes:

Das zeigt auch das sie mit dem G200b in 55nm noch nicht so weit sind :lol:
 
@X-Factor1982
Wie G200 sich übertakten lässt, habe ich ja bereits belegt. Da helfen Einzelschicksale nicht weiter.
Dein Vergleich Ultra XXX FTW/WTF Version vs Ultra 1337 merkwürdig, hier gehts ums Referenzdesign.

Beispiel1: Das wäre einer normalen Entwicklung gleich zu setzen, Preise sinken mit der Zeit. :)

Beispiel2: Wäre unschön, der informierte Käufer würde sich über eine Normale ärgern.
Aber der normale Käufer weiß gar nichts von den 10%, er kennt ja nur die normalen GTX 60 Tests. ;)

Beispiel3: Abegesehen das die 5% nicht ganz passen, wo ist da der Unterschied zu Beispiel1? :confused_alt:
Das die 260 P/L-mäßig besser als die 280 ist, ist ja nicht neu.

"Schließlich hat man seine Pflicht des Kaufvertrages erfüllt als kann man auch verlangen dass dies die Gegenseite tut und ein hundert prozentig funktionierendes Produkt liefert."
So etwas gibt es nicht.
Aber wie gesagt: Wenn Defekt, dann zurückgeben.

@Jake_Dunn
Warum muss immer alles "Verzweiflung" sein?
Außerdem, wenn der Name bleibt, dann bringt das Update ja null, die Tests der 260 stehen bereits, der Kunde wird die 10% so nie erfahren.

Könnte auch heißen, das G200b weiter ist..... die 8800 GTS 112 ALUs gabs auch am Anfang der G92 Ära, von speziellen Herstellern als WTF 1337 Versionen.
 
Zuletzt bearbeitet:
Jake_Dunn schrieb:
Das zeigt auch das sie mit dem G200b in 55nm noch nicht so weit sind :lol:
In der letzten Analystenkonferenz meinten die Bosse von Nvidia, das man die 55nm nicht sehr bald einführen kann, da man von AMD komplett überrascht wurde und nun sehr hohe Lagerbestände von alten 65nm Chips hat, die man in Erwartung eines nicht vorhandenen Wettbewerbs bei TSMC bereits produzieren lassen hat.

Bis die aktuellen Lagerbestände und die bereits bestellten 65nm Chips verkauft sind und man auf 55nm gehen kann, würde es (wegen diesem blöden Wettbewerb) noch wesentlich länger dauern, als man sich das gedacht hatte...
 
Eusterw schrieb:
In der letzten Analystenkonferenz meinten die Bosse von Nvidia, das man die 55nm nicht sehr bald einführen kann, da man von AMD komplett überrascht wurde und nun sehr hohe Lagerbestände von alten 65nm Chips hat, die man in Erwartung eines nicht vorhandenen Wettbewerbs bei TSMC bereits produzieren lassen hat.

Bis die aktuellen Lagerbestände und die bereits bestellten 65nm Chips verkauft sind und man auf 55nm gehen kann, würde es (wegen diesem blöden Wettbewerb) noch wesentlich länger dazern, als man sich das gedacht hatte...
Diese Quelle will ich sehen...!!!
 
Zurück
Oben