News Nvidia GeForce GTX 260 bald mit 216 ALUs?

Da kommt er ja gekrochen, der ATi-Teilzeitarbeiter:evillol:

Mir ist immer schleierhaft, woher du deine Erkenntnisse bezüglich Marketsharing hernimmst:lol:

Naja, wers braucht:rolleyes:
 
@cosmicparty: Es steht noch garnicht fest, ob das nicht eine neue, teurere Karte wird.

@Hans Payne: Da gibts imo 3 Möglichkeiten

  • Der GT200b verspätet sich
  • Die neue Karte verwendet den GT200b
  • Nvidia präsentiert zwei Wochen später den GT200b
 
@ cosmic

dein geliebtes AMD macht doch auch derbe Zahlen..sogar in ihrer lieblingsfarbe: Rot.





Ich weiß nicht was ihr gegen die GTX260(+) habt...so kann sich die GTX 260 mal merklich von der 4870 abstoßen und dann wird die 4870 auch wieder im Preis fallen....
habt doch eigentlich nur vorteile...
 
ach, ist nicht so schwer draufzukommen, warum die neue GTX260 im bereich der GTX280 "wildern" wird.

wenn die GTX280 nur noch ca 10% schneller als ne GTX260 sein wird, dürften sich einige potentielle GTX280 käufer es sich anders überlegen und die 100€ einsparen wollen und kaufen eben ne GTX260.

die chipherstellungskosten sind aber nun mal für nvidia für beide gleich, also sinkt im prinzip nur der umsatz. ist nicht schwer zu verstehen , oder? ;)
 
Jo, Shaderleistung und Texelleistung kommen der GTX280 gefährlich nahe. Das, was wirklich nervt ist aber, dass das Namenschaos bei NV wieder von vorne losgeht. Ich werd jedenfalls vorerst bei ATi bleiben. Das P/L stimmt, Treiberprobs hab ich auch nicht großartig und das CCC gefällt mir wesentlich besser als das aktuelle Forceware-Menü.
Mal sehen, wie es beim GT200b aussehen wird, wenn NV da aber Taktraten und vllt. noch mehr ändert, und den Namen beibehält wie jetzt, dann wird´s langsam unglaubwürdig.
 
@cosmicparty:

Ich denke eher, das die bei NVidia (mal GANZ grob) nach diesem Schema planen:

Alt (10 Mio. Käufer für Grafikkarten von 200-300 Euro)
4 Mio kaufen eine 4870
4 Mio kaufen eine GTX260
2 Mio kaufen eine GTX280

Neu (10 Mio. Käufer für Grafikkarten von 200-300 Euro)
2 Mio kaufen eine 4870
7 Mio kaufen eine GTX260
1 Mio kaufen eine GTX280

Obwohl der Durchschnittspreis sinkt, hat man eine reale Aussicht, die Berge an 65nm Chips irgendwie wegzubekommen und gleichzeitig verkauft der doofe Wettbewerb (den ja eigentlich niemand geplant hatte) deutlich weniger.
 
@ eusterw: gewagte theorie, aber es ist so, falls wirklich die GTX260 dann bei der 4870 "wildern" sollte, ist ati ist der lage, die preise aufgrund des viel günstigereren, da kleineren und effizienteren chips, zu senken.

ati hat immer den anspruch ein sehr gutes preis-leistungsverhältnis zu haben, am absatz der ati wird das nichts ändern meiner meinung nach. eher kostest es GTX280 absatz.

ati hat den marktanteil von 30 auf 40% gesteigert und will bis ende des jahres auf 50% kommen, da werden die sich auch nicht von abbringen lassen, der chip ist halt viel kleiner und effektiver und günstiger in der herstellung.
 
Zuletzt bearbeitet:
du vergisst die teuere speicheranbindung bei nvidia. tut sich also nix.



ati und nvidia verkaufen eben gpus. und die speicheranbindung macht eher nvidiagpus teurer. macht ja auch die gpu größer ;)
 
Zuletzt bearbeitet:
Das PCB ist aber Nvidias Sache, GDDR5 aber nicht die AMDs ;)

cYa
 
es ändert nichts an den tatsachen, dass ati die gpus günstiger produzieren kann und preise senken kann.

desweiteren ist davon auszugehen, dass gddr5 speicher im preis auch fallen werden, wenn die ersten engpässe abgearbeitet sind.
 
Warten wir es ab. Die G9x-Chips in der 55-nm-B-Revision sind ja schon am Markt und der G200b wird auch kommen, damit kann auch nV reagieren. Zudem haben die keine Lieferprobleme mit dem Speicher.

cYa
 
cosmicparty schrieb:
...und will bis ende des jahres auf 50% kommen, da werden die sich auch nicht von abbringen lassen...

- Und NVidia hat sich vorgenommen 80% Marktanteil zu haben und will sich da nicht von abbringen lassen.
- Und SIS will zurück ins Grafikkartengeschäft uns will sich da nicht von abbringen lassen.
- Und Intel will der größte Anbieter von Grafikchips werden und will sich da nicht von abbringen lassen.

Am Ende will keiner verlieren, weil verlieren ist doof. Aber es wird Verlierer geben müssen. Und keine Firma kann von sich behaupten, sich davon nicht abbringen zu lassen. Wenn SIS morgen einen 3x so schnellen Chip wie AMD/NVidia bringt, wenn werden sich beide damit abfinden müssen, das ihr Plan nicht funktioniert.

Momentan ist NVidia auf dem Rückzug. Aber genauso gut kann es sein, das man den G200b schon im September mit +20% Takt und +1Cluster ausgeliefert bekommt und sich AMD´s Schritt auf 40nm um 1,5 Jahre verspätet. Kann auch sein, das NVidia den G200b erst zu Weihnachten bringt und AMD schon vorher den Sprung auf 40nm packt.

Iss aber am Ende alles Kafeesatzleserei. Momentan schreiben beide Firmen im Desktop-Markt Verluste und der einzige, der was davon hat ist der Kunde...
 
ja schon, aber es gibt eben dinge realistischer und dinge eher utopischer natur.

das ati in richtung 50% geht ist eher wahrscheinlich und es ist auch wahrscheinlich, dass ati als erster 40/45 nm gpus auf dem markt bringen wird und dann wieder im vorteil ist.

PS: und die g92 in 55nm will doch so wirklich auch niemand mehr haben zu zeiten, wo ne 4850 125€ kostet. ;)
 
Zuletzt bearbeitet:
Faranor schrieb:
kunktioniert dann sli eig noch mit einer neuen und einer alten gtx260?

ich denke ja, nur der frametimes unterschied (siehe mikroruckler) dürfte größer werden, da die zwei karten nicht gleich schnell rechnen
 
Naja wenn die 4850X2 draußen is kann die Neuauflage der Gtx260 auch schon wieder ein packen.

Würde ich sagen und wer weiß was Amd noch in der Entwicklung hat.
Villt kommt irrgen wann die HD4950 aber das is nur stiner rei.
 
Versuch dein Glück: http://www.slizone.com/page/home.html

Sehr langatmige Marketingtexte. Das einzige was man nicht erfährt ist, welche Karte man jetzt mit welcher mixen kann. Der allgemeine Konsens ist, dass es das selbe Modell mit der selben Anzahl von Funktionseinheiten und der selben Speichermenge sein muss. Nur die Taktraten dürfen unterschiedlich sein - die schnellere Karte wird runtergetaktet.
 
cosmicparty schrieb:
ach, ist nicht so schwer draufzukommen, warum die neue GTX260 im bereich der GTX280 "wildern" wird.

wenn die GTX280 nur noch ca 10% schneller als ne GTX260 sein wird, dürften sich einige potentielle GTX280 käufer es sich anders überlegen und die 100€ einsparen wollen und kaufen eben ne GTX260.

Leute, die sich eine GTX280 oder eine HD 4870 X2 kaufen, kaufen sie sich nicht, weil das Preis-/Leistungsverhältnis so super ist.

cosmicparty schrieb:
@ eusterw: gewagte theorie, aber es ist so, falls wirklich die GTX260 dann bei der 4870 "wildern" sollte, ist ati ist der lage, die preise aufgrund des viel günstigereren, da kleineren und effizienteren chips, zu senken.

Eine Karte besteht aber aus mehr als aus der GPU. Ich würde z.B. mal behaupten, dass der GDDR5-Speicher auf der 4870 teurer ist als der Speicher auf der 260. Man darf einen Kostenvergleich der beiden Karten nicht nur auf die GPU beschränken. Schließlich geht es hier um GrafikKARTEN und nicht um GrafikCHIPS.

cosmicparty schrieb:
ati hat immer den anspruch ein sehr gutes preis-leistungsverhältnis zu haben, am absatz der ati wird das nichts ändern meiner meinung nach. eher kostest es GTX280 absatz.

Das sehe ich auch so. 50% der Leute hier im Forum (eher mehr, aber will mal defensiv herangehen) kaufen doch eh nach Firma und nicht nach irgendwelchen Objektiven Gründen.

cosmicparty schrieb:
ati hat den marktanteil von 30 auf 40% gesteigert und will bis ende des jahres auf 50% kommen, da werden die sich auch nicht von abbringen lassen, der chip ist halt viel kleiner und effektiver und günstiger in der herstellung.

effektiver gibt es nicht; Du meinst wohl effizienter. Allerdings kann man das nicht so sagen. Zum einen ist der Chip bei der G260 ja nicht vollständig in Gebrauch; einige Teile sind abgeschaltet, so dass die genutzte Fläche kleiner ist. Außerdem ist der Chip ja auch in 65nm statt in 55nm gefertigt. Welche Architektur effizienter ist, lässt sich also so gar nicht sagen. Außerdem nutzen heutige Spiele die Chips so schlecht aus, dass man diese nur schwer vergleichen kann. Meist wird ein Spiel etwas für einen Chip optimiert. Das verhindert aber einen objektiven Vergleich beider Chips.

Was den Stromverbrauch betrifft scheint der NVidia Chip allerdings nicht ganz so schlecht zu sein. Wenn man sich den Stromverbrauch der 260 und der 4870 anschaut und dann Chipgröße und Speicher vergleicht, schneidet die 260 nicht so schlecht ab. Ich habe ja so die Vermutung, dass der AMD-Chip v.a. deshalb kleiner ist, weil man auf alle Stromsparmöglichkeiten verzichtet hat. Immerhin ist der Chip kleiner als der einer 8800GTX, die Karte verbraucht IDLE aber etwas mehr und die 8800GTX hatte - man erinnert sich - keine wirklichen Stromsparmechanismen, weil NVidia das nicht gebacken bekommen hat/das (absichtlich?) kaputt war.
 
Zuletzt bearbeitet:
Auch ein 80%iger gt200 ist noch fast 80% größer als ein rv770.
Eine 4850 verbraucht Idle wesentlich weniger als eine 8800 GTX. Die 4870 unterscheidet sich von ihrer kleinen Schwester im wesentlichen nur im Speicher. Den letztendlichen Beweis, dass der GDDR5 am Verbrauch schuld ist gibt hier. Dummerweise konzentriert sich Powerplay auf den Grafikchip und lässt den Speicher außer acht.
Wenn sich nichts tut wird ein GT200b in 55nm immer noch deutlich über 300 mm² liegen (55nm bringt gegenüber 65nm eine Verkleinerung von ~40%).

Wäre mal interessant zu wissen wieviel teurer GDDR5 wirklich ist und was mehr PCB-Layer kosten. Aber das erzählt uns Normalsterblichen ja keiner.
 
Zuletzt bearbeitet:
riDDi schrieb:
Auch ein 80%iger gt200 ist noch fast 80% größer als ein rv770.
Eine 4850 verbraucht Idle wesentlich weniger als eine 8800 GTX.

Warum vergleichst du im zweiten Satz nicht die Paare aus dem ersten Satz ? (CB-Artikel als Bezugsgröße) Ist mir nur so aufgefallen.

Idle
HD4850 vs. GTX 260 vs. 8800 GTX: 157 zu 154 zu 192 Watt

Last
HD4850 vs. GTX 260 vs. 8800 GTX: 290 zu 320 zu 307 Watt

@FredKune
Die fehlenden Stromsparmechanismen der 8800GTX würde ich einfach mit der Situation im Herstellungsjahr begründen.

Die erste Erwähnung von Unterschieden in der Stromaufnahme bei Grafikkarten - aus Spiele-Perspektive, Artikel in Chip und c´t lasse ich aussen vor - war m.W. im PCGH-Heft 12/2004, S. 130ff., Artikel "100 Euro im Jahr sparen !", verglichen wurden dort u.a. Komponenten an Grafikkarten lediglich eine ATI 9800 Pro und eine nVidia FX 5900, Verbrauch beide 70 Watt, empf. Sparmaßnahme war "Runtertakten", Sparpotential 6-10 Watt, bei der ATI zusätzlich "Kein AF/AA", Sparpotential 3-7 Watt.

Heft 08/2005, S. 108ff., Artikel "Bis zu 250 Euro pro Jahr sparen" (sic !) umfaßte bereits

- (nVidia) alle Generationen von Geforce 2 MX-440 bis 2x 7800 GTX sowie
- (ATI) 8500 bis X850 XT-PE,

säuberlich getrennt nach AGP/PCIe. Von einer 8800GTX noch keine Rede. Diese beiden Artikel waren Ausgangspunkt meiner Recherchen in diesem Bereich, die Entscheidung fiel gegen die etwas effizientere X800 Pro für eine 6800 GT aus.

Wer sich noch erinnern kann, siehe die Kurven unten, das Verbrauchsniveau vor drei Jahren war dem heutigen vergleichbar, die Leistung hingegen ... ;)

 
Zurück
Oben