ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

AwesomeSauce schrieb:
Die Yield-Raten lagen bisweilen immer um die 60% rum (bei NV), alles darunter geht nicht in die Produktion. Ganz einfach.

Fermi wäre von den Rohdaten her schon in der alten GT200-Architektur schneller als jede HD5870, deswegen kann es sich NV leisten, so lange die Fertigungstechnik zu perfektionieren, bis anständige Yields erreicht werden.

Kann man so nicht stehen lassen. Yield bezieht sich immer auf einen bestimmten Chip, sonst hat das keinen Sinn. Das ist als wenn man sagt: In Deutschland wars heut 6°C warm ;)

Zum zweiten: Du sagst es: wäre. Bringt aber nix, weil man das Teil so einfach nicht herstellen kann UND dann noch zu bezahlbaren Preisen anbieten. Ich sag mal so 600-800€, aber wer das heutzutage noch bezahlen kann/will, hat echt keine Probleme ;)

Ist auch überhaupt nicht notwendig so viel auszugeben, da moderne Grakas eh genug Power haben für die meisten Spiele selbst @30". Es ist also fraglich, das vielle Leute mehr Geld als für Cypress zahlen, weils einfach eh nix bringt.

Aktuell haben wir nur noch 448Shader statt 512 und geringere Taktraten als ursprünglich geplant. Insofern steht sowieso noch aus, das der Fermi viel schneller als ein Cypress wird. Und JHH sollte zu allen Göttern beten, die er kennt, das das so sein wird.

Achso, perfektionieren kann NVIDIA an der Fertigungstechnik eh nix, das ist allein TSMCs Ding. NVIDIA kann eigentlich nur beten, das es irgendwann hinhaut. Und leisten können sie sichs schon gar nicht. AMD hat trotz schlechter Verfügbarkeit 800000Chips verkauft von Evergreen, bis Ende des Jahres vielleicht 1 Million und im nächsten Jahr könnte sich das locker verzehnfachen bei gescheiter Verfügbarkeit und niedrigeren Preisen.

Wie NVIDIA da konkurrieren will ohne gescheites Produkt aufm Markt bis frühestens Q2 und auch dann nur mit dem highend-Ableger ist mir mehr als unklar. Je länger Fermi braucht, desto länger brauchen die Mainstream-Chips- NVIDIA kann sich also eigentlich keinen Tag Verzögerung mehr leisten.

Affenkopp schrieb:
Na allem was man (hier) so liest, ist schon Fakt, dass NVidia ATI um Längen schlagen wird. Dann darf man wieder auf ATIs neue Architektur (die ja bereits für Ende 2010 angekündigt wurde) warten.

Preis/Leistung sollten bei ATI aber wieder besser sein, wenn NVidia bei den Spitzenmodellen nicht mal über seinen Schatten springt. ;)

Ironie? :) Wenn nicht, siehe oben. Nach aktuellem Stand ist Fermi im "Originalzustand" nicht zu produzieren, gesenkte Taktraten und Shaderzahlen sind die Folge.

-->Der Vorsprung aufm Papier schrumpft und Papier ist bekanntlich geduldig.

Der Chip bleibt aber trotzdem "riesig" (obwohl kleiner als G200ohneb) und NVIDIA hat gar keine Wahl als Fermi teurer zu verkaufen als Cypress.

Ich bezweifle zudem, das wir vor 2011 was von Northern Islands (Evergreen Nachfolger) sehen, weil GloFo und TSMC 32nm Fertigung (bulk) überspringen und gleich auf 28nm setzen.

Ich galube kaum, das man da vor Ende 2010 was erwarten kann, obwohl ich es mir natürlich wünsche.

Achso, NVIDIA wird natürlich nicht von der Bildfläche verschwinden, aber ich bin echt gespannt wie Flitzebogen, wies weitergeht. ATI hat von NVIDIA genug Zeit zum aufholen bekommen, ich bezweifle, das es andersrum jetzt genauso läuft. AMD muss ja immer drauf gefasst sein, das Larrabee doch noch kommt, da kann man sich keine Ruhepause gönnen, sonst sind die Lichter ganz schnell aus.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

mal zu diesem langsam nervigen fermi-hype der überall grassiert:

ich glaub im moment mal noch gar nix was da die marketing abteilung von Nvidia über die vielgelobte, noch nirgends aufgetauchte "Fermi" zum besten gibt! die erkennen wohl nun in letzter minute, dass sie nicht toppen und auch nix schlaues mehr aus dem hut zaubern können was sie mit abstand an die performance spitze katapultieren würde wie oft prophezeit! vielleicht basteln sie noch verzweifelt an einer besseren kühllösung oder wie sie die ram noch bisschen höher kriegen um competitive zu sein mit ATI (mein gefühl)

die benches die vielerorts gesichtet wurden hatten sich ja offenbar als fakes rausgestellt..

das modell an der pressekonferenz war auch fake, keine lauffähige karte, ein haufen plastik nur..

ich schliess mich an am statement von 'xbitlabs'

"The single-processor model of this solution will be a priori inferior to Radeon HD 5970 in terms of technical specifications and computational capacity and the dual-processor modification of this new card will definitely turn out extremely complex and unrealistically expensive. In fact, it may be so complex and expensive that it may never see the light of day" http://www.xbitlabs.com/articles/video/display/radeon-hd5970_15.html#sect0
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

http://www.pcgameshardware.de/aid,7...ias-GF100-Fermi-beantwortet/Grafikkarte/News/
Der Grund, warum Nvidias neue Grafikkartengeneration noch auf sich warten lässt, sei momentan die Treiberentwicklung. Man wolle sicherstellen, dass sowohl die Hardware, als auch die Treiber zum Launch perfekt arbeiten und keine Wünsche offen lassen. Wir halten Sie auf dem Laufenden. Das komplette, englischsprachige Video-Interview finden Sie direkt auf donaminhaber.com.
Das soll jemand glauben?
Es ist der Treiber - und das verzögert Fermi um Monate?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ja klar.^^ Man will anscheinend nach der Schiene arbeiten, dass Nvidia Treiber soviel besser sind als ATI Treiber.
Der Grund sind die bescheidenen Yields und weil keine MAssenfertigung angepeilt werden kann, weils zu teuer ist, ganz einfach.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ja warum sollten sie das Problem auf die Treiber schieben? Es ist doch allseits bekannt und schon gesichert, dass es am Yield liegt. DAs mit den Treibern ist jetzt ganz was neues.
Wenn dann liegt es am Yield und an den Treibern. DAsses nur an den Treibern läge, ist doch Quatsch. Bzw wäre das nicht denkbar, für mich nicht und für viele andere hier auch nicht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

PR Director ja ne alles klar ! :D

Das allein die Treiber schuld an der Verzögerung sein sollen ist einfach nicht zu glauben.
Sicherlich wenn der Fermi eine komplett andere Architektur hat dann ist das mit den Treibern bestimmt kein einfaches Plug&Play. Aber...
NVIDIA verdient sein Geld mit dem Verkauf von Hardware und nicht von Treibern.
Treiber lassen sich immer nachreichen aber das Weihnachtsgeschäft ist nun vorbei.
Wenn NVIDIA wirklich in der Lage gewesen wäre Karten zu präsentieren dann hätten sie es schon längst gemacht. Mit oder ohne Treiber eventuell erstmal mit Beta-Treiber die sich in 1-2 Monaten komplettieren hätten können.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Treiberprobleme können sehr hartnäckig sein und massive Performanceprobleme verurachen, was eigentlich jeder ATI-User, der mal OpenGL-Performance zwischen unter Direct3D ebenbürtigen Nvidia und ATI-Karten verglichen hat, wissen müsste.

Mag ja sein, dass es ua. immernoch die Probleme mit der Yieldrate bei TSMC 40nm gibt, aber das schließt ja weitere Gründe nicht aus. ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

das mit open gl liegt nicht unbedingt an den treibern. die architektur ist bei nvidia wohl besser darauf zugeschnitten. ich erinnere mich noch daran, dass damals die "kleine" 6600gt die ursprüngliche x800 für 550 € in doom3 (open gl) geschlagen hat, und das war wirklich schon ne ganz andere zeit. dafür spricht auch, dass sich nvidia immer sehr bei der entwiklung von open gl engagiert hat, und natürlich dadurch besser ihre architektur auf open gl optimieren konnte.

genauso wenig kann man bei nvidia den rückstand unter 8 x aa einfach per treiber fixen. da hat ati die architektur optimiert.

@Schaffe89: dass es an den yields liegt ist eine sehr verbreitete und sehr naheliegende spekulation. ob es wirklich so ist, ist aber nicht absolut sicher. auch wenn ich der meinung bin, dass das wohl das hauptproblem sein wird. kann mir nicht vorstellen, dass die treiber soweit daneben sind, dass ein release ausgeschlossen ist. optimierungsbedürftig vllt, aber deshalb hätte man die fertige hardware ja schon an den man bringen können, wenns denn einigermaßen läuft und hätte dann kurzfristig sehr starke leistungssprünge und etliche bugfixes durch treiberupdates. aber sich das so wichtige weihnachtsgeschäft entgehen zu lassen bedarf dann wirklich schon gravierender mängel.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Da man ja spekulierte, das es dem Fermi an einem Hardware Teassalator mangeln würde, würde ein Treiberproblem bei der Softwarelösung durchaus plausibel sein.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

HW-Tessellation ist iirc Pflicht für DX11.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
HW-Tessellation ist iirc Pflicht für DX11.

Wenn das wirklich so ist, was wuerde es dann theoretisch bedeuten, wenn der Fermi Tessellation per Software macht (unabhaengig davon wie schnell es waere).

Duerfte die Karte sich dann nur nicht DX11 Karte nennen obwohl sie alle Funktionen bereitstellt oder waere ueber eine ID (oder sonstige) Abfrage die Ausfuehrung von DX11 Software gesperrt?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dass Fermi keine HW-Tesselation bietet, ist Quatsch mit AwesomeSauce, der irendeinem halbklugen Kopf im Forum entstanden ist. Zudem: wieso sollte die Berechnung über die CUDA-Cores sogenannt "Software" sein? ATIs Tesselator ist auch programmierbar, also genauso wenig Fixed-Function-HW wie ein CUDA-Core. Dass ATI diesen auslagert und im Chip-Diagramm abgesondert darstellt, hat wahrscheinlich weniger mit der wirklichen Chip-Architektur zu tun, sondern dient eher der Anschaulichkeit...

Ausserdem: das "alte" Tesselation, das hier immer wieder als Feature der früheren Radeon-GPUs angepriesen wird, ist nichtmal kompatibel zum DX11-Ansatz:
Microsoft’s Kevin Gee schrieb:
Gee went on to explain that DX11 tessellation was more robust and general than the solution built into current AMD GPUs. The AMD hardware uses essentially the same as the tessellation unit in the Xbox 360; DX11 tessellation is a superset of the AMD approach.

DX11-Tesselation basiert sowieso auf verschiedenen Shader-Stufen (hull shader and tessalator domain shader [mit einer dazwischenliegenden Fixed-Function-Tesselator-Stufe]), ich sehe also das Problem nicht, das ganze auf CUDA-Cores laufen zu lassen?! ATIs-Tesselator besteht mit Sicherheit auch nur aus zusätzlichen Stream-Processors. Die Hardware-Tesselator-Stufe zwischen Hull Shader und Domain Shader ist Fixed-Function und Vorschrift von DX11. Da gibts gar nichts dran zu rütteln, oder die Spezis von DX11 sind nicht erfüllt... Punkt!

Aber ich denke, da weiss y33H@ noch mehr...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

AwesomeSauce schrieb:
DX11-Tesselation basiert sowieso auf verschiedenen Shader-Stufen (hull shader and tessalator domain shader), ich sehe also das Problem nicht, das ganze auf CUDA-Cores laufen zu lassen?! ATIs-Tesselator besteht mit Sicherheit auch nur aus zusätzlichen Stream-Processors. Die Hardware-Tesselator-Stufe zwischen Hull Shader und Domain Shader ist Fixed-Function und Vorschrift von DX11. Da gibts gar nichts dran zu rütteln, oder die Spezis von DX11 sind nicht erfüllt... Punkt!
Eben - warum soll ein CUDA-Core keine HW-Tessellation sein?
Der Tesselator bei Ati ist explizit dafür verbaut doch es ist ja nicht verpflichtend eine dedizierte Hardware-Tesselator Einheit zu verwenden.
Bereits seit dem R600-Grafikprozessor verbaut ATI sogenannte Tessellator-Einheiten, welche mit der DirectX-11-Unterstützung grundsätzlich notwendig werden. Mit ihnen ist es möglich, durch relativ geringem Rechenaufwand die Anzahl der Polygone in einem Objekt zu erhöhen. Neu ist dabei die Verknüpfung mit den Hull- und Domain-Shadern, während auf der Vorgängergeneration der Tessellator weitgehend nur mit dem Geometrie-Shader agierte.
nvidia wird seine Shader für andere Anwendungen zur Verfügung stellen wollen wenn eben keine Grafik Berechnung nötig ist.

Doch das sollte man auch mit in Betracht ziehen wenn man von der Anzahl der Shader auf die Fps schließen will, wie das ja einige versuchen. Einige der Shader sind dann eben für Tesselation belegt, während die HD5xx diese nicht extra noch abzwacken müssen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Eben - warum soll ein CUDA-Core keine HW-Tessellation sein?
Frage ich mich auch, die Aussage schwebte hier irgendwo im Forum rum...

Die Frage ist aber, was ATI mit Tesselator meint. Ob es sich um das Bundle von Hull-, Domain-shader und der dazugehörigen Fixed-Function Tesselator-Einheit handelt, also auch mit zusätzlichen Shader-Einheiten, oder eben nur um die FFHW-Einheit. Wäre letzteres der Fall, müsste ATI genau so Shader-Einheiten für die anderen Shader-Stufen abzwacken, um Tesselation zu realisieren.

Und afair ist die Fixed-Function-Tesselator-Unit sowieso Teil der DX11-Spezifikation. Auf dem Chip-Diagramm von ATI ist die "Tesselator-Unit" jedoch als "programmable" bezeichnet; (ausschliesslich) reine Fixed-Function Bauteile wirds da also nicht geben, sofern die Angaben korrekt sind.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

übrigens: kurz nach Weihnachten war für einen Tag ein Angebot bei ebay: 14 x 5870. Der Typ (shop!) meinte die waren für 4 (???) Superrechner (o.ä.) bestimmt, aber die Kunden wären wg. dem kurz bevostehendem launch der Fermis abgesprungen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

halte ich eigentlich für ein gerücht. als die 5870 bestellbar war, war über den fermi schon einiges bekannt und außerdem war da noch der releastermin auf 11/2009 gesetzt. entweder hatte dieser ominöse kunde insiderinfos und der fermi steht wirklich kurz bevor, oder der typ hat dummes zeug geredet. ich tippe dabei eher auf letzteres, auch wenn ersteres wünschenswert wäre...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

yo, ich auch, aber ist nicht völlig an den Haaren herbei gezogen, da es immerhin ein Profi war. Passte also in den thread. ;) Glaubs aber auch nicht...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

naja gerücht ist gerücht ;)
aber solche sogenannten "profis" kenn ich in der praxis zu genüge. wenn man sich mal in einem pc"fachgeschäft" beraten lässt streuben sich mir meist die haare zu berge, was die einem da erzählen wollen^^
vor allem merkt man schnell, wenn man denen ma ne tiefergehende fachfrage stellt, dass die ganz schnell ins schwimmen geraten und sich meist was aus den fingern saugen, um kompetent zu wirken -.-
gibt natürlich auch leute, die wirklich ahnung von der materie haben, aber die meisten werden dir wohl erklären, dass eine geforce g210 mit 1024mb ddr2 eine highend gamerkarte ist.^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben