ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Da steht nicht "next Generation Gaming" sondern "next-generation GeForce", was was grundlegend anderes ist! "neue GeForce® Generation" ist noch fast eindeutiger... Von "Next Level Gaming" kann ich übrigens auch nirgends was lesen, geschweige denn dass 3D Vision Surround als solches bezeichnet wird. Hast du den Link überhaupt besucht?:rolleyes:

@Lübke
Von GTX4 steht da nix...
 
Zuletzt bearbeitet:
es kommen eh wieder 1000 dx 11 geforce karten raus =)
am anfang kam doch auch erst die gtx 280 und die gtx 260 192 alus =)
dann kam doch die gtx 275 +285 und die 260 wurde später mit 216 alus ausgestattet damit die die 4870 schlägt glaub ich und dann brauchte man nochwas um die 4870x2 zu schlagen und es kam die geforce gtx 295 so wird es dieses jahr genau so sein =)

siehe ati wieviel karten jetzt raus sind =) 5970 bis 5670 glaub ich alles dabei^^
naja neue graka steht höchstens nächstes jahr im sommer an wo die preise noch schön fallen können =)
 
Black&White schrieb:
es kommen eh wieder 1000 dx 11 geforce karten raus =)
auf lange sicht vielleicht. ob nvidia allerdings im gleichen tempo wie ati sein komplettes dx11-linup, von low-end bis high-end, vorstellen wird und es dann auch noch käuflich erwerblich ist, dass ist in meinen augen ziemlich fraglich.
 
Charlie mal wieder... dieses mal ein sehr langer Artikel über GF100.
Wie üblich mit gebotener Vorsicht betrachten. ;)

Nvidia's Fermi GTX480 is broken and unfixable


Kernaussage:

For those not interested in the 'why' side of things, the short answer is that the top bin as it stands now is about 600MHz for the half hot clock, and 1200MHz for the hot clock, and the initial top part will have 448 shaders. On top of that, the fab wafer yields are still in single digit percentages.

Im folgenden Artikel geht er darauf ein warum das seiner Meinung und Kentnissstand nach so ist.

Steckt sicher ein Teil Wahrheit drin, das schwere ist wie immer zu erkennen wo sie sich versteckt :D
 
NVIDIAs Antworten auf den "Artikel":

Lars Weinland:
Oh Charlie... that just another hilarious post
Igor Stanek:
Oh Charlie... that just another hilarious post me: I think with this post Charlie totally destroyed his credibility :)

I want to see how he is going to explain his article in March.... looks like biggest lie and mistake of his life :)

@madciapka: @Igor_Stanek there was any sign of credibility before that? I don't think so :-) :me right, you are right..

So long... Wobei der "Arikel" meine Aussage von vor zwei Wochen bestätigen würde:D
 
johnieboy schrieb:
Charlie mal wieder... dieses mal ein sehr langer Artikel über GF100.
Wie üblich mit gebotener Vorsicht betrachten. ;)

Nvidia's Fermi GTX480 is broken and unfixable


Kernaussage:



Im folgenden Artikel geht er darauf ein warum das seiner Meinung und Kentnissstand nach so ist.

Steckt sicher ein Teil Wahrheit drin, das schwere ist wie immer zu erkennen wo sie sich versteckt :D
Mal sehn was da drann isr wenns stimmt dürfte der Fermi nur in homöopathischer Dosis erscheinen.:D
 
Viel anders ist's bei den HD58x0 derzeit auch nicht. Da schwappen auch nicht gerade viele Exemplare in die Shops, die Verfügbarkeit hat sich seit September nicht spürbar verbessert - daher sind auch die Preise hoch. Angebot und Nachfrage halt.
 
Da ist wohl eher die nachfrage unverhältnismässig hoch weil NV nichts zu bieten hat gegen die 5 K Radeons,
 
Das halte ich für unwahrscheinlich, so hoch ist die Nachfrage nach GraKas für deutlich über 250€ nicht. Und frühere High-End-Karten wie GTX 280, 8800 GTX oder X19x0 XT waren weitaus besser verfügbar. Mit Nachfrage hat das nichts zu tun - es laufen schlicht zu wenig Chips vom Band.
 
das lässt sich ohne markzahlen allerdings recht schwer belegen. das die bestellungen die auslieferungen übersteigen liegt für mich allerdings auf der hand. in wie weit die schere da aber auseinander geht, kann uns wohl keiner sagen. die einzigen die da einblick haben sind wohl leute bei großen distributoren und die werden wohl nicht mit der sprache rausrücken. hoffentlich bricht zu dem thema nicht gleich wieder ein streit los.
 
Könnte man ja auch mal posten, diese Quellen....

Die Verfügbarkeit hat sich schon gebessert. Klar, die shops haben nur relativ wenig da, aber wenn man eine Karte bestellt, bekommt man sie meistens innerhalb weniger Wochen.

Ein Kumpel hat seine (HD 5850) schon im Dezember in einem Münchner Computer-Shop gekauft. Für 220€ mit ca. 2 Wochen Lieferzeit.
 
Die Quellen kann man schlecht posten :lol:
Felixxz21 schrieb:
[...] aber wenn man eine Karte bestellt, bekommt man sie meistens innerhalb weniger Wochen.
Mit Betonung auf "Wochen". Kollege hat bei drei Shops eine HD5870 VaporX geordert, einer hat nach einigen Wochen geliefert - aber die neue, schlechtere Rev2. Unschön.
 
AwesomeSauce schrieb:
NVIDIAs Antworten auf den "Artikel":
Lars Weinland

1. heißt der Lars Weinand (ohne L)

2. ist das der Senior Technical Marketing Manager von NVIDIA.

Dazu darf ich dich nochmal zitieren:

AwesomeSauce schrieb:
Jaja, der Richard Huddy - was der sagt, muss natürlich stimmen;) Alles PR-Geschwätz...

Sowas nennt sich Doppelmoral.

3. außer Gewäsch im Sinne von "jaja, ihr werdet noch sehen" haben sie Charlie auch nix entgegenzusetzen.

Die Zeit wird zeigen, was rauskommt. Vielleicht bekommen sies ja doch noch hin und widerlegen Charlie. Was natürlich nicht bedeutet, das er nur Lügen verbreitet, sondern das er eben falsch spekuliert hat. Das Recht sollte man jedem zugestehen, zudem hat er bis jetzt Recht behalten und dies auch immer begründen! können.

Ich glaub allerdings nicht, das NVIDIA die Probleme in Kürze auf die Reihe bekommt, denn wenn man sich den Artikel auf anandtech durchgelesen hat, weiß man, dass AMD die Yield-Probleme nur mit einer Verdoppelung der "vias" (also Stromversorgungskontakte für die GPU) hinbekommen hat. Und genau sowas muss von vornherein ins Chipdesign einfließen, ein neues Stepping reisst da so gut wie gar nix.

Da NVIDIA dies nicht getan hat, werden sie mit dem aktuellen A Stepping wohl auf lange Zeit bei sehr schlechten Yields bleiben. Ein Base Layer Stepping könnte dem abhelfen, das dauert aber eben entsprechend lange, 6 Monate wenns gut läuft.

Die weiteren Probleme hat Charlie auch aufgeführt, wer lesen kann ist klar im Vorteil. Nun kann man den NVIDIA-Weg gehen und die Augen vor der Wahrheit verschließen oder wie Charlie immer so schön sagt "scream at the law of physics", aber ändern wird das auch nix. :evillol:

Lübke schrieb:
@KAOZNAKE: ich rede ja nicht von einer dauerlösung, sondern als übergang bis zum fermi. eine "gts350" mit der leistung einer gtx260 wäre ein guter gegenpart zur 5770.

Also nochmal ;):

1. Was soll GDDR5 bei dem G92 denn bringen? Soweit ich weiß, hat der G92 kein Speicherbandbreitenproblem, also würde man mit GDDR5 so gut wie keine Mehr-Performance erreichen.
2. Was du so leicht als Austausch der Speichercontroller beschreibst, benötigt eine komplette Neuentwicklung der Fertigungsmasken, was allein eine Million kostet (lt. Charlie). Ob und wie das alles kompatibel ist, ist noch ne andere Frage, im Prinzip muss man eine komplette GPU neu entwickeln. In Anbetracht von 1. ein sinnloses Unterfangen.
3. Wie schon geschrieben, 55nm ist ein Auslaufmodell, wenn auch kostenseitig kein Nachteil, (weil die Wafer billiger sind), so doch Performance/Watt-technisch. In Anbetracht von 2. ebenfalls sinnlos
4. Könnte die Karte kein DX11, was die ganze Geschichte ad absurdum hoch drei führt.
5. hat NVIDIA nicht genug Leute, um sich mit solchen Geschichten zu beschäftigen, die brauchen jeden Mann für Fermi(2)

Das einzige was noch *einigermaßen* Sinn machen würde (Punkt 4 mal außen vor), wäre der G92 auf 40nm, was NVIDIA ja auch schon versucht hat, aber eben auch gescheitert ist. GT212 aka GT200c-->R.I.P.
GT214 aka G92c-->mit einem Bein im Grab, von 112 auf 96 Shader gekürzt aktuell als GT240 (GT215) aufm Markt.

Und der größte GPU den NVIDIA sinnvoll in 40nm fertigen lassen kann.
 
Zuletzt bearbeitet:
@KAOZNAKE
Deswegen schrieb ich ja
mir selbst schrieb:
NVIDIAs Antworten auf den "Artikel"
weder zustimmend noch ablehnend...:rolleyes:

Auf Charlies Trefferquote bei seinen Spekufiktionen gehe ich nicht mehr ein - es hat einen Grund, wieso er auf B3D komplett ignoriert wird. Es sei nur soviel dazu gesagt [bezüglich des aktuellsten Berichts]:
Ailuros schrieb:
Charlie hat lediglich XMAN's Daten aus dem B3D Forum genommen und sponn einfach weiter in seiner bekannten Art. Er wusste nichtmal wo die wirklichen originalen Zielfrequenzen lagen aber es ist besser wenn Charlie nur das Material hat welches er eigentlich auch braucht fuer seinen Schreibstil. 1250-1300 fuer die 470 und die 480 nur als Pressevorstellungsdingsbums mit extremer Seltenheit.

***edit: irgendwann wenn ich Bock dazu habe mach ich mal ein harmloses kleines Experiment mit ihm
Spasstiger schrieb:
Was schreibt denn Charlie da für eine gequirlte Scheisse?
Nach dieser Rechnung wäre es unmöglich, den Cypress wirtschaftlich zu fertigen. Angenommen, man kommt mit dem Redwood (104 mm²) auf sehr gute 90% Yield. Dann läge der Cypress (334 mm²) bei weniger als ein Neuntel dieser Yieldrate, also unter 10%. Das ist natürlich Unsinn und sowas müsste Charlie eigentlich sofort sehen. Stattdessen rechnet er mit seiner unsinnigen Annahme weiter und schließt darauf, dass die Yieldraten des GF100 im einstelligen Prozentbereich liegen müssen.
Eine sinnvolle Abschätzung ist Yield_B = Yield_A ^ (Fläche_B/Fläche_A).
Im obigen Beispiel käme der Cypress dann auf 71% Yield.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170&page=585

Du darfts natürlich glauben, was du willst;)

BTW: Ich war zwei Wochen schneller als Charlie:lol:
 
Ich glaube, die ursprüngliche Quelle war Fudzilla, zu den DX11.1 Gerüchten habe ich auf die Schnelle nur was von BSN* gefunden. Laut ATi soll bereits Evergreen DX11.1 vollständig unterstützen
 
Zuletzt bearbeitet:
Nein, damit meinte ich, dass die GTX480 nur mit 448CCs antanzt; was Charlie im letzten "Artikel" geschrieben hat
and the initial top part will have 448 shaders
Alles bisher gezeigte des GF100 sollen ja nur 448-Shader-GPUs gewesen sein. Marc [y33h@] sollte mehr wissen. In der PCGH 3/10 steht folgendes:
Auf der GF100-Vorstellung zeigte man uns zwar Live-Demos, aber die dazu verwendeten Karten entsprachen noch den Tesla-Modellen für den Einsatz in Rechenzentren und im High-Performance-Computing-Markt. Deren Design werde jedoch noch geändert, bevor die GF100-Chips als Geforce-Grafikkarten in den Handel kommen, so Nvidia. Dies soll unbestätigten Gerüchten zufolge noch im März der Fall sein
http://www.hardwareluxx.de/community/showpost.php?p=13924015&postcount=1013
 
Zuletzt bearbeitet:
Das hab ich mir schon fast gedacht, aber wäre das nun so unwahrscheinlich, wenn die Gerüchte angeblich unterirdischer Anzahl funktionierender Chips mit 512 Cores kurzfristig nur zwei Möglichkeiten zuließen?
Ergänzung ()

Das hat Charlie sogar schon im Dezember vermutet/behauptet/whatever http://www.semiaccurate.com/2009/12/21/nvidia-castrates-fermi-448sps/
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben