News Nvidia GeForce GTX 260 bald mit 216 ALUs?

Unyu schrieb:
@X-Factor1982
Aber woher soll der Kunde wissen, das die 260 plötzlich 10% besser ist? Am Namen in dem Fall ja wohl kaum und die Ergebnisse stehen seit Wochen.

Da Nvidia keine Grafikkarten fertigt und die GPUs bei den Herstellern liegen könnte es Nvidia vollkommen egal sein, was mit den GPUs der alten Revision ist.

@aivazi
Die 280 ist jetzt P/L mäßig schon schlechter als die 260.
Daran ändert sich ja nichts, wenn jetzt zwischen 260 statt 30% nur noch 20% Leistungsunterschied besteht.

Ich würde einfach eine leichte Preissenkung der 280 vermuten, gerade jetzt zum Ende des G200 nicht unwahrscheinlich.

Nvidia beliefert die ganzen Fremdhersteller mit GPU's. Jedoch nur mit der Stückzahl die von diesen bestellt wurde. Zudem stellt Nvidia ja selbst noch Grafikkarten her. Was bedeutet dass nicht alle GPU's die Nvidia herstellt an Fremdhersteller gehen. Des Weiteren weisst du und ich nicht was für Abkommen mit den Fremdherstellern getroffen werden. Ob nicht verwendete GPU's von Nvidia wieder zurückgenommen werden usw.
Also Nvidia zieht ihre Einnahmen bestimmt nicht nur aus dem GPU Abverkauf an Fremdhersteller. Diese Fremdhersteller erwerben erstmal die Lizenz von Nvidia unter ihrem Namen diese Grafikkarten im Referenzdesign produzieren und verkaufen zu dürfen. Des Weiteren geht ein prozentualer Anteil der VK-Preises an Nvidia. Das ganz kann man mit dem typischen Franchisesystem vergleichen.
 
Zuletzt bearbeitet:
Mann echt, ihr habt vielleicht Probleme, jeder will hier sein eigenes Produkt verteidigen. Echt amüsant muss ich sagen, soll jeder dass kaufen was er möchte!;)
 
Interessantes Logo :D
 
X-Factor1982 auf Postcount-Sammlung

@Topic
Ich seh das Problem nicht. Die alte GTX260 wird durch die neue nicht schlechter. Zudem ist noch gar nicht bekannt, welchen Namen die "neue" GTX260 erhalten wird.

Es gab zu G80 8800GTS-Zeiten auch Karten mit 96 und einmal mit 112 ALUs. Auf den Verpackungen war das immer einsehbar.

Aber klar, die HD4870 bekommt stärkere Konkurrenz, da muss man natürlich wieder alles anschwärzen:rolleyes:

Abwarten und Tee trinken, aber die "neue" GTX260 könnte sich zum echten Tipp mausern, solange ATi an ihrem AI-Tripp nichts ändert:(
 
Bin nicht auf Post Sammlung
 
also wenn es eine neue gtx geben würde würde ich sie einfach mal spontan gtx 270 nennen
 
FredKune schrieb:
Also die Werte decken sich ja überhaupt nicht mit den Werten von CB (wenn man mal in den Test der HD 4870 X2 z.B. schaut). Bei CB schneidet die GTX 260 im Verhältnis etwas besser ab als in der Grafik. Würde gerne mal wissen woher die Unterschiede wohl kommen.

Bei CB verbraucht die 4870 im Idle ja etwa 40W mehr; unter last 10-15W. Wie kommt es, dass sie hier plötzlich so gut dasteht? An PowerPlay wird es wohl nicht liegen. Da wird ATI zumindest in diesem Jahr wohl nix mehr auf die Beine stellen und nächstes Jahr haben das Thema sowieso alle vergessen. Notfalls lenkt man die Aufmerksamkeit einfach auf die neue Generation und wie toll super man doch PowerPlay 3.0 weiterentwickelt hat.

romeon schrieb:
die x-bit labs Werte scheinen mit viel Wohlwollen festgehalten worden zu sein. Viel realistischer sind die öfter gemessenen 35-40 Watt Idle-Mehrverbrauch der 4870.

Weil bei X-Bit NUR die Graka gemessen wird und nicht das gesamte System, dadurch hat man genauere Werte und kann Messfehler/Toleranzen minimieren ;)

Unyu schrieb:
Liegt wohl am 3DMark, da laufen die vielen ALUs im Leerlauf.
Im IDLE ?
 
Frag mich wie ein normaler PC Nutzer, der sich nen PC fürs Spielen kauft, da noch durchblicken soll.

Wenn ein Hardwarekenner ihn beraten will, erklärt der normale Nutzer diesen doch für Bekloppt. :)
 
Unyu schrieb:
Es muss also alles passen:
Der doofe Kunde muss den neuen Test der neuen Revision lesen, die alten Tests ignorieren, die Karte muss gleich heißen, er muss ein altes Modell erwischen und dann kann er sich über 10% ärgern.

:daumen: Kann man besser kaum zusammenfassen.

DerToast schrieb:
... ich bin also ein Fanboy von ATI und nVidia

So hab ich das noch nicht gesehen. Ich bin folglich Fanboy von ATI, nVidia und (mindestens) Matrox (Historie).

aivazi schrieb:
also wenn es eine neue gtx geben würde würde ich sie einfach mal spontan gtx 270 nennen

Mir gefällt "GTX 260 PRO" recht gut. Abgeleitet von: In dubio PRO reo. :verwandlung:

Edit:
NachtkindFX schrieb:
Frag mich wie ein normaler PC Nutzer, der sich nen PC fürs Spielen kauft, da noch durchblicken soll.

So wie früher nach dem Preislimit.
 
mir tut dabei nur der Kunde leid

ständig wird einem unter die Nase gerieben, daß die Karte die man grad gekauft hat, schon wieder nen update erfahren hat, daß seine neue Karte schon wieder alt ist, daß sie abverkauft wird

Das is, als kaufe ich mir den Golf 5 und nächste Woche kommt Golf 6. Der Golf 5 is ja deswegen nicht gleich schlecht, aber das ist ja auch Kopfsache, jedenfalls hat man nicht mehr das neuste Modell wie noch vor einer Woche beim Kauf und das nörxt

zum Glück kaufe ich die Roten, da weiß ich was ich hab, was solides, etwas auf einer Stufe und das meist für fast 1 Jahr und selbst wenn man noch die letzte Generation hat, in diesem Falle ne 3870 z.B. , fühlt man sich immernoch gut, weil die technologisch immernoch vor den aktuellen grünen liegt

einfach schön, rot zu sehen :evillol:
 
Zuletzt bearbeitet:
NachtkindFX schrieb:
zum Glück kaufen ich die Roten, da weiß ich was ich hab, was solides, etwas auf einer Stufe und das meist für fast 1 Jahr und selbst wenn man noch die letzte Generation hat, in diesem Falle ne 3870 z.B. , fühlt man sich immernoch gut, weil die technologisch immernoch vor den aktuellen grünen liegt

So ging es mir knapp 2 Jahre mit einer X1900 und viele Monate lang mit der HD3850. Bei folding@home. Technologisch waren die ATIs in der Lage die wissenschaftlichen Aufgaben zu rechnen, nVidia hatte nichts Vergleichbares. Mit dem GPU2-Client wurde dann die gesamte HD2000- und HD3000-Serie unterstützt. Für nVidia kam Wochen später ein Client dazu.

Und meine (inzwischen auf zwei Stück angewachsene) ATIs rechnen heute noch für FAH, zwar etwas langsamer, aber sie rechnen - gemessen an der technologischen Entwicklung - vergleichsweise schnell. Die großen Workunits für die HD4000-Serie werden (logisch) langsamer durchgerechnet, jedoch nicht langsamer als die kleinen WUs, d.h. sie brechen nicht ein wie manche Modelle der HD2000-Serie.

Die Rolle der Software ist bei der DC-Geschichte sehr groß (bei Games etwa nicht ?). Die wiederholte Entscheidung für die vermeintlich alte R600-Technik habe ich nicht bereut, die Effizienz an Stromkosten zu Output ist sehr gut.

Die Performance der nVidias auf diesem Gebiet will ich nicht verschweigen, rechne ja mit der GTX 260 selbst damit. Aber ein neuer Aspekt unter Ausweitung auf BOINC tut sich auf: kompletter Ersatz von CPUs durch die GPU, funktioniert derzeit nur unter Linux (64bit) und originalen nVidia-Treibern für Linux:
- http://www.gpugrid.net/
 
Jake_Dunn schrieb:
Weil bei X-Bit NUR die Graka gemessen wird und nicht das gesamte System, dadurch hat man genauere Werte und kann Messfehler/Toleranzen minimieren ;)
Natürlich. Und was soll gleich noch in ansonsten identischen Systemen bei allen anderen Reviews >20W mehr Idle-Verbrauch bewirkt haben? ;)
 
@ Johnny B und aivazi:

Ein paar Cluster sind immer kaputt sonst wäre sie nicht zu einer 260er
geworden, die können dann natürlich nicht aktiviert werden und
der Rest wurde noch per Laser-Cut deaktiviert also
unwiederbringlich.

Außerdem wie unyu schon sagte hat man ja auch nicht
den RAM der 280er.

Die Zeiten wo man so GK tunen konnte sind schon
lange vorbei. (Ging glaube ich bis zur Geforce 6)
 
... ich finds schei**e, dass die den zwischenschritt jetzt noch machen. ich hätt lieber mitte september den gt200b gehabt -_-
 
und wer soll noch ne GTX280 kaufen dann? wenn noch 10% leistungsunterschied ist, aber 100€? die wird ja noch schwerer zu verkaufen dann und die chipherstellung ist bei beiden gleich teuer.

aber nvidia muß wohl was machen, damit der marktanteil nicht noch weiter abstürzt, nur geld verdienen die damit nicht mehr dann.
machen ja jetzt schon verluste.
 
Zuletzt bearbeitet:
Zurück
Oben