News Kommt Nvidias GK110 für Desktop-PCs nicht vor März 2013?

ja aber Yield Raten sind nebensächlich wenn es darum geht ob etwas technisch möglich ist. Erst neulich kam ja die Aussage von TSMC, dass die Yield bei den Chips bereits bei über 80% liegt.

Für eine Teslakarte die 5000€ bringt kann die Yield wirtschaftlich gesehen deutlich unter 80% liegen und die Karte rechnet sich doch. Aber hier hat man wenig Zeitdruck.

Was man technisch kann heißt noch lange nicht, dass man es wirtschaftlich kann oder muss. Mag sein dass die Yield bei einem GK110 heute bei um 50% oder darunter läge... jetzt wäre es interessant zu wissen wie hoch diese Yield beim GF100 mit GTX480 war.

Bei diese musste ja sogar teildeaktiviert released werden, leistete aber 71% mehr als der Vorgänger GK200 was auch nötig war um gegen die HD5870 Licht zu sehen.

Die GTX 480 zeigt was geht wenn man muss. Nvidia wollte die Kone. Also kam der Vollausbau extrem schnell für die neue Fertigung (damals 40nm). So schnell dass man ihn überarbeitet / optimiert hat und dann in Form GF110 nochmal neuauflegen konnte/musste.

Dass wir heute noch keinen Vollausbau (GK110/GK110) auf den Markt haben liegt in meinen Augen weniger an schlechter Yield (oder überhaupt technischer Unmöglichkeit), sondern eher aus wirtschaftlichen Gründen. Der Chip wäre teuer (hier spielt die Yield rein ja), könnte kaum teurer verkauft werden als zB der deutlich kleinere GK104, alles drum rum wie Layout, Board, Kühlung käme teurer und man könnte wenig Innovation bis 20nm bieten.

Warum also ala GTX480 nun mit GK110/GK100 einen von der Stange brechen?

Seit RV670 konnte ATI/AMD mit jeder neuer Generation aufholen.
Da AMD im Einführungs-Jahr die Performance-Krone bei Single-GPU-Karten halten konnte, hatte HD7000 wieder AMD einen Schritt nach vorne gebracht.

naja, ich finde mit der HD6XXX und dem Umstieg 5D -> 4D hat man eher eingebüst. Die HD5870 war AMDs Glanzstück bei GamingEffizienz.
Bei AMD steht aber HPC im Raum. Parallel zur APU Entwicklung im Desktop Umfeld richtet man AMD ihre Grafikkarten auf HPC aus, genau wie das Nvidia seit dem GT200 tut.

Vermutlich will man die eigene GPU Architektur auch nach und nach für die angestrebte vollintegierte APU umstellen und zunehmend HPC Karten abieten. GCN ist deutlich flexibler als 4D / 5D.

Die GTX480 zeigt dir was das bedeutet. Der Chip wird bei Gaming vor allem eines. Ineffizienter. Tahiti kompensiert das durch 28nm statt 40nm. Wenn man sich aber vor Augen hält, dass die HD5870 mit einem Bruchteil der Transistoren daherkommt merkt man schnell dass es bei Tahiti anders läuft. Diese triumphiert bei GPGPU und haut da locker den GK104 weg (der ist ja auch nicht der HPC Chip).

Mit GCN wurden die Karten neu gemischt. AMDs GCN ähnelt nun 1D / Kepler weit mehr als die Vorgänger dies taten.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja, ich finde mit der HD6XXX und dem Umstieg 5D -> 4D hat man eher eingebüst.

Performancemäßig nicht.

Ganz davon abgesehen, dass GK110 für den Desktop sowie nicht vor Mai kommt, was wieder bitter werden wird, nachdem AMD ihre HD 8970 ja schon mitte Dezember raushauen will.

o.O
 
Freddy72 schrieb:

von der Performance nicht, wäre aber auch eher schlecht als recht wenn der Nachfolger schlechter dasteht als der Vorgänger. Vor allem im GPU Segment.

Die 4D Chips sind was Transistorzahl/Fläche + Takt angeht eher etwas bezüglich Effizient eingeknickt, allerdings minimal und durch etwas weniger V auf der GPU + etwas mehr Takt war das schnell reingeholt.

GCN braucht allerdings ne ganze Latte mehr Transistoren, was aber den Computing Fähigkeiten auch massiv zu gute kommt. Die kleinen GCN Ableger zeigen ja, dass auch AMD hier im Mainstream mehr Wert auf die Spieleleistung legt und hier mehr bezogen auf den mm² aus der GPU rausholt. AMD HPC Modell ist also Tahiti.

Wann AMDs Nachfolge Gen kommt bleibt abzuwarten, ich tippe auch auf Dez. Typischerweise etwas vor Nvidia. Muss aber nicht immer ein gutes Zeichen sein. zZ wirft Nvidias GPU Politik weit mehr Gewinne ab, trotz späterem Launch. Die Karten um GTX670 an sich werden auch günstiger produziert, weniger RAM / kleineres SI / kleinere TDP sei dank.

Hier muss man nicht immer "erster" sein. Ich frage mich eher, was Nvidia dagegen setzt, ich denke nicht dass AMDs Nachfolgechip direkt den GK110 angehen wird... (schön wärs). Ich denke hier muss man dann einen teil-deaktivierten GK110 als GTX770 heranziehen der gegen die HD8970 steht.

Würde mich auch nicht zusehr überraschen wenn beide Nachfolge-Generationen minimal später kommen. Auch abh. davon wann TSMC 20nm oder darunter liefern kann. Ist dem früher der Fall, so kommt die neue Gen etwas eher (um dann wieder ein Jahr später TSMCs neuen Prozess zu nutzen).
Ich denke beiden Seiten kann es nur recht sein mit möglichst kleinen, sparsamen, günstigen 28nm Chips lange gute Margen & Preise zu erzielen. Wenn der eine mit der neuen Gen durchstartet wird der Andere nicht lange mit seiner neuen Gen warten.

Dez HD8970 - Januar HD8950 und Februar/März 2013 GTX780 + GTX770 wäre mein Tipp.

Seit GCN möglich, dass auch AMD nun 500mm² Chips raushaut. Mal sehen. Wird spannend. Spätestens dann wird man sehen dass mit GCN und AMD auch "Thermi" Modelle möglich sind die ihre 300W wegbraten können ;)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ja aber Yield Raten sind nebensächlich wenn es darum geht ob etwas technisch möglich ist.
Schöne Theorie.
Du kannst gerne Nvidia fragen, warum sie jetzt AMD die Profi-GPU-DP-Performance-Krone überlassen, wenn sie jetzt kontern könnten.
Vorallem, wenn sie 1/3 aller SMX-Einheiten deaktivieren, können sie AFAIK trotzdem die DP-Performance-Krone zurückerobern.

Erst neulich kam ja die Aussage von TSMC, dass die Yield bei den Chips bereits bei über 80% liegt.
Rat einmal, wie groß die Yield ist bzw. wie oft ein Defekt vorkommt, wenn ein GK110 5-10 Mal so groß ist, als der Durchschnittswert aller hergestellten Die-Größen mit 80% (= jeder 5. ) Yield.

Ein Tipp.
GK110 wird bei dierser 80% nicht mitgerechnet.

Für eine Teslakarte die 5000€ bringt kann die Yield wirtschaftlich gesehen deutlich unter 80% liegen und die Karte rechnet sich doch. Aber hier hat man wenig Zeitdruck.
Mit 1 Stück (non-Teildeaktiviert) pro 5000$-40nm-Wafer wäre GF100-Tesla im 3Q 2009 auch nicht wirtschaftlich gewesen.

Was man technisch kann heißt noch lange nicht, dass man es wirtschaftlich kann oder muss. Mag sein dass die Yield bei einem GK110 heute bei um 50% oder darunter läge... jetzt wäre es interessant zu wissen wie hoch diese Yield beim GF100 mit GTX480 war.
Angeblich hatte GF100 alas GTX480 und GTX470 und GTX465 so 40% Yield.
40-50% Yield-Rate non-Teilaktiviert bei 500mm²-Dies ist ein Traum jedes Herstellers.

Die GTX 480 zeigt was geht wenn man muss. Nvidia wollte die Kone. Also kam der Vollausbau extrem schnell für die neue Fertigung (damals 40nm). So schnell dass man ihn überarbeitet / optimiert hat und dann in Form GF110 nochmal neuauflegen konnte/musste.
Du musst verstehen, dass wenn sich eine Karte aufgrund der Yields sich verspäten, hat das keine Auswirkungen auf anderen Karten. Denn die nächste Karte macht ein anderes Team, welche grundsätzlich die Entwicklungszeiten einhält.
Die Verspätung von GF100 hatte keinen Einfluss auf GF110.
Genauso wie R600 auf RV670.

Dass wir heute noch keinen Vollausbau (GK110/GK110) auf den Markt haben liegt in meinen Augen weniger an schlechter Yield (oder überhaupt technischer Unmöglichkeit), sondern eher aus wirtschaftlichen Gründen.
Grundsätzlich ist immer alles aus Wirtschaftlicher Sicht zu betrachten. Denn dann könnte man ja auch einen High-End mit 50mm²-Dies zu 100%-Yields bauen und ihn um 500$ zu verkaufen.

Es macht wirtschaftlich wenig sinn, wenn man 500mm²-Dies macht und 150mm²-deaktiviert. Deshalb macht AMD ja gleich 350mm²-Dies, um ihn mit voller Technik (= volles Potential) zu verkaufen.

Man spricht halt von Technisch "nicht möglich", wenn das volle Die-Potential nicht genutzt werden kann. Oder wenn die Performance-pro-(Watt & $) des neuen Produktes geringer ist als vom Vorgänger. Wer kauft schon Dies (um 500$), wo nur 50mm² des 500mm²-Dies funktionieren?

naja, ich finde mit der HD6XXX und dem Umstieg 5D -> 4D hat man eher eingebüst. Die HD5870 war AMDs Glanzstück bei GamingEffizienz.
Nicht umsonst schrieb ich, dass die Stärke von Nvidia im Refresh-Jahr liegt. Es hat eben Sinn Texte genauer zu lesen.

Es ist klar, dass AMD im Refresh-Jahr etwas "zurückfliegt" wenn Nvidia im Einführungsjahr ihre Taktziele und vorallem das non-Deaktivierungs-Ziel nicht erreicht.

Bei AMD steht aber HPC im Raum. Parallel zur APU Entwicklung im Desktop Umfeld richtet man AMD ihre Grafikkarten auf HPC aus, genau wie das Nvidia seit dem GT200 tut.
Der Weg begann bei AMD AFAIK bei R5x0 und bei Nvidia mit G80. Nur können beide eben alles nicht aufeinmal bringen.

Vermutlich will man die eigene GPU Architektur auch nach und nach für die angestrebte vollintegierte APU umstellen und zunehmend HPC Karten abieten. GCN ist deutlich flexibler als 4D / 5D.
Vermutlich?
Es wurde beim AFDS 2011 doch deutlich gesagt, dass GCN mit der Hauptpriorität der zukünftigen APU-Nutzung (parallel zu Bulldozer) in den letzten 5 Jahren entwickelt wurde.

Da muss ich lachen, dass du mir das erzählst, nachdem ich vorallem bei Nvidia-Geschäftsberichts-Thread wegen dieser Technik auf die zukünftigen Probleme im Nvidia-Profi-GPU (Quadro & Tesla) hingewesen haben und dabei dann als Fanboy bezeichnet wurde.

Die GTX480 zeigt dir was das bedeutet. Der Chip wird bei Gaming vor allem eines. Ineffizienter.
Du solltest aber auch verstehen, dass die Teildeaktivierung des 16. Blocks wegen den nichteingehaltenen Design-Regeln passierte, die von TSMC vorgegeben werden. Es wurde immer die selbe SM bei 480 deaktiviert. Bei 470 halt eine weitere.
Zweitens, hatte GTX480 eine Mega-Tesselation-Power, die mit damaligen Spielen nicht genutzt werden konnte und HD5870 deshalb so viel effizienter aussieht, weil ihre Tesselation-Power mit damaligen Spielen gerade reichte.
Daher vorsichtig was du da redest. Grundsätzlich ja, aber GTX480 hatte auch andere Einflüsse die zur extremen ineffizienz führten.

Dass die nichtgenutzte GPGPU-Einheiten die Spiele ineffizienter machen, weiß man schon seit einigen Jahren.
 
Zuletzt bearbeitet:
Zuerst muß das Preisniveau der Mittelklasse dorthin sinken wo eine GXT 260 usw. war.
Also auf unter 200€ für den Speed eine GTX 660ti/7870
Ist doch fast alles um 100€ zu teuer für den Leistungsbereich.
 
Kasmopaya schrieb:
Also müsste dann Maxwell ca. Ende 2014 dann 20nm 3D Transistoren und eigentlich auch DX 12 haben? Der nächste eigentlich große Schritt. Kepler(big K) war da nur ein kurzes Intermezzo dagegen.
3D wird es bei TSMC @ 20nm nicht geben. Bei GF könnte es bei 20nm gäben, aber wenn ich es richtig verstanden haben, auch nur bei ARM-Chips. Bei diesen kleinen Chips ist es wesentlich leichter als bei Big GPU-Dies. Grundsätzlich ist FinFET (=3D) bei TMSC & GF & Samsung & UMC & Co ab 14nm geplant.

Den 2(-3) Jahres Fertigungs-Rythmus gibt es gennerell in der Fertigung. Sowohl bei Little-Dies (50mm²) als auch bei Big-Dies (500mm²).
Wenn Big-Kepler erst im 2Q 2013 kommt, wird Big-Maxwell kaum vor dem 2Q 2015 kommen und den 2-Jahres-Fertigungs-Rythmus verkürzen.

Außer, Nvidia zieht die Lehre aus Kepler und macht Maxwell (etwas) kleiner als ursprünglich geplant. Oder sie machen es wie AMD und rüsten gleich ihre 350mm² "Performance-GPU" mit den ganzen GPGPU-Features aus und definieren im Fertigungs-Einführungsjahr die 350mm²-GPU als High-End und im Fertigungs-Refresh-Jahr die 500mm²-GPU als High-End.

Selbst G80 kam 1 Jahr nach R520 ("AMDs-High-End" mit 350mm²) in 90nm und der G80 leitend damals die neue Ära mit 500mm²-GPUs ein.
In 65nm kam GT200 (500+mm²) 1 Jahr nach den 65nm-Low-End-&-Mainstream-GPUs von AMD.
Genauso kam GF100 1 Jahr nach der ersten 40nm-GPU, aber mit Problemen.
Genauso kommt GK110 (500+mm²) sogar etwas mehr als 1 Jahr nach der ersten 28nm-GPU, aber vielleicht mit etwas mehr Problemen.

Während G80 noch ziemlich problemlos eingeführt wurde, wurden die Probleme (Verschiebungen und/oder Taktzielverfehlungen) mit mit den nächsten 500mm²-Dies (GT200, GF100, GK110) immer größer.
 
Schon witzig, was die schwache Performance von AMD da auslöst. NVIDIA lehnt sich zurück und schöpft ab. Ob das mal gut geht?
 
aylano schrieb:
Schöne Theorie.
Du kannst gerne Nvidia fragen, warum sie jetzt AMD die Profi-GPU-DP-Performance-Krone überlassen, wenn sie jetzt kontern könnten.
Vorallem, wenn sie 1/3 aller SMX-Einheiten deaktivieren, können sie AFAIK trotzdem die DP-Performance-Krone zurückerobern.

Der HPC Markt ist bei weitem nicht so umkämpft wie der Desktop Markt. Wenn ein Hersteller heute auf Tesla setzt wird er wegen ein paar Monaten nicht auf AMDs Tahiti wechseln. So einfach ist das nicht, auch nicht bezüglich Software.

Vielleicht hast dus auch verpasst - aber AMDs Tahiti für HPC wurde erst vor 2 Tagen vorgestellt:

https://www.computerbase.de/2012-08/amd-stellt-firepro-s9000-s7000-grafik-fuer-server-vor/
Laut AMD ist mit einer Verfügbarkeit gegen Ende September

(Ende Sept!)

Nvidia hingegen hat Anfang August ihre neue Tesla Generation vorgestellt die aber erst Ende des Jahres verfügbar ist
https://www.computerbase.de/2012-08/nvidia-stellt-zweite-maximus-generation-mit-kepler-vor/

Für gesamte Workstations auf Basis der neuen Maximus-Generation gibt Nvidia eine Verfügbarkeit ab Dezember 2012 an.

Es ist also nicht so, dass AMD ein Jahr schneller war... so wie du das gern darstellst.

Und wie gesagt, AMD fasst hier mit GCN gerade erst Fuß während Nvidia schon eine zeitlang Teslas am Markt hat.

Mir ist übrigens vollkommen klar, dass die Yield mit zunehmender DIE Größe abnimmt, habe aber auch geschrieben, dass dies bei Karten von 3200$ weniger "schlimm" ist als im Desktopsegment um 500€. Die Gewinne die zur zeit mit 300mm² GPUs gemacht werden sind enorm, zeigt auch dass TSMC keine exorbitanten preise mehr für diese DIE verlangen muss aufgrund von Yieldproblemen. Wie hoch die aktuelle Yield bei TSMCs 28nm bei etwa 300mm² ist weißt weder du noch ich. Bei AMD dürfte sie aufgrund des doch deutlich größeren Chips schlechter sein.

Ich kann weder zu 100% sagen, dass Nvidia in der Lage wäre einen GK100/G110 "schon" jetzt mit nierigerer DIE eventuell teildeaktiviert zu Launchen (wie bei der GTX480), noch ob es nicht doch technisch, eventuell auch architekturell unmöglich ist und der Chip direkt überarbeitet werden musste, somit der GK100 komplett ins Wasser gefallen ist. Ich denke aber, aufgrund der derzeitigen Marktsituation, dass der GK104 super Gewinne einfährt und der GK110 keine Eile hat, er sollte aber bis zur neuen AMD Generation / kurz danach stehen.

Weder AMD noch Nvidia brechen sich heute einen Zacken aus um schnell große Chips in 28nm nachzulegen die nur teurer kommen als die aktuellen HighEnd Karten. Das macht man wenn man wieder etwas neues bieten muss, zB zum Weihnachtsgeschäft im Falle AMD und zu Ostern bei Nvidia :D

Edit:

Bei deiner Rechnung mit DIE Größen komme ich nicht ganz nach. 50mm² zu 500$ verkaufen, hä?

Ich glaube du übertreibst etwas. Tahiti misst 365 mm² - das ist schon eine beachtliche Größe, vor allem für einen Chip aus dem Hause AMD. Zu den 500mm² - eventuell 550mm² eines GK110 fehlt da gar nicht mehr soooo viel. Ich denke technisch ist es bereits gut möglich, sicher sogar wirtschaftlich wenn man müsste.

Man wird kaum 1000Mhz damit fahren können, aber 750-850 sollten im Rahmen von 250-300W drin sein. Wenn man bedenkt was die GTX480 / GTX580 verbraucht hat, da ist noch weit Luft ausgehend von den heutigen Topmodellen. Eine mögliche Teildeaktivierung war ja nur Spekulazius, muss ja nicht sein. ich denke der 28nm Prozess bietet hier sogar mehr Luft als seinerzeit der 40nm Prozess.

Ich denke die jetzigen 28nm sind ausgereifter als seinerzeit der 40 nm Prozess zum Launch der GTX480.

Ich sehe AMDs GPU Größe ansteigen durch GCN. 365mm² ist ne ganze Ecke für die 1. (!) GPU eines neuen Prozesses. Würde mich nicht wundern wenn AMD auch gegen 400-500mm² geht in der neuen Generation. Sonst kann man ja auch kaum was drauflegen bezüglich Leistung.
 
Zuletzt bearbeitet:
AMDs professionelle Lösungen sind doch durch die Treiber im Moment sowieso nur halbgar. Es gibt zwei oder drei Tests im Netz zur schnellsten FirePro, die sich im Schnitt nichtmal von den alten Fermi-Quadros absetzen kann, oft gar verliert. Quadro ist ein wichtigerer/größerer Markt als Tesla, hier ist Nvidia (noch) nicht wirklich unter Zugzwang.
 
eben. Fermi war/ist ja bereits ein HPC Monster. Die Quadro Kepler in Form GK104 ist auch gar nicht so wichtig und trägt auch fast den gleichen Namen "Quadro K5000" vs "Quadro 5000" wie sie bei Fermi heißt.

Die K5000 dürfte energieeffizienter, aber kaum schneller sein.

Die Firmen die ich so kenne, die viel CAD machen und Workstation Karten beziehen, setzen meistens ebenfalls auf Quadro aufgrund der Treiber, bei uns kommt zB. viel Citrix zum Einsatz die auch sehr Nvidiaverbunden Features anbieten:
http://blogs.citrix.com/2012/05/15/citrix-and-nvidia-team-up-on-gpu-hardware-virtualization/

GPU Virtualisierung ist in meinen Augen ein wichtiges Entwicklungsgebiet. Den CitrixUmgebungen fehlt es bei uns hauptsächlich an GPU Beschleunigung, ich denke wir könnten unsere Workstations durch Terminals ablösen sofern GPU Virtualisierung 1a funktioniert. Die CAD Welt wäre dann schön zentral verwaltet und vor allem die Administration würde sich vereinfachen.
 
aylano schrieb:
Schöne Theorie.
Du kannst gerne Nvidia fragen, warum sie jetzt AMD die Profi-GPU-DP-Performance-Krone überlassen, wenn sie jetzt kontern könnten.
Vorallem, wenn sie 1/3 aller SMX-Einheiten deaktivieren, können sie AFAIK trotzdem die DP-Performance-Krone zurückerobern.

K20 ist für Dezember angekündigt und bringt mit annährend 1,2 TFLOPs/s DP Leistung fast 50% mehr als AMD im selben Verbrauchsbereich von 225 Watt.
nVidia hat schon gekontert. Du siehst es leider nur nicht. :freak:

Angeblich hatte GF100 alas GTX480 und GTX470 und GTX465 so 40% Yield.
40-50% Yield-Rate non-Teilaktiviert bei 500mm²-Dies ist ein Traum jedes Herstellers.

GF100 hatte vernünftige Yields. nVidia's Marge ist gestiegen gegenüber den 55nm Produkten.

Es macht wirtschaftlich wenig sinn, wenn man 500mm²-Dies macht und 150mm²-deaktiviert. Deshalb macht AMD ja gleich 350mm²-Dies, um ihn mit voller Technik (= volles Potential) zu verkaufen.

Man spricht halt von Technisch "nicht möglich", wenn das volle Die-Potential nicht genutzt werden kann. Oder wenn die Performance-pro-(Watt & $) des neuen Produktes geringer ist als vom Vorgänger. Wer kauft schon Dies (um 500$), wo nur 50mm² des 500mm²-Dies funktionieren?

Aha. Sag mal, dass AMD meisten immer was anderes macht, als von dir propagiert, ist dir egal? Oder ignorierst du das einfach nur fröhlich?

S9000 kommt mit deaktiviertem SIMD-Cluster und nur 800GFLOPs/s DP-Leistung. Das ist gerademal 20% mehr als M2090 - ein mehr als ein Jahr altes Produkt in 40nm gefertigt.
GK110 wird mit zwei oder einem deaktivierten Cluster kommen und erreicht selbst bei 13SMX und 700MHz 1,2 TFLOPs/s DP-Leistung. 50% mehr als AMD mit ihrem angeblichen vollen 350mm^2 Die. :evillol:

Nicht umsonst schrieb ich, dass die Stärke von Nvidia im Refresh-Jahr liegt. Es hat eben Sinn Texte genauer zu lesen.

Es ist klar, dass AMD im Refresh-Jahr etwas "zurückfliegt" wenn Nvidia im Einführungsjahr ihre Taktziele und vorallem das non-Deaktivierungs-Ziel nicht erreicht.

GK104 kommt mit allen 8 SMX und einer Taktrate von 1058MHz im Schnitt und verbraucht selbst im Furmark nur 190 Watt.
nVidia ist jetzt schon mehr als konkurrenzfähig. GK110 wird im Bereich von 225 - 300 Watt nochmal zwischen 40-50% drauflegen. AMD dagegen - nunja, die verbrauchen jetzt schon für 10% mehr Leistung 250-350 Watt. :evillol:

Der Weg begann bei AMD AFAIK bei R5x0 und bei Nvidia mit G80. Nur können beide eben alles nicht aufeinmal bringen.

AMD hat sich mit Evergreen GPGPU gewidmet - fast 3 Jahre nach nVidia mit G80. G80 ist vollständig OpenCL 1.0 kompartibel. Zwar sind das auch die rv7xx Karten, aber die sind aufgrund von begrenzten Shared-Memory verdammt ineffizient.
Fermi war eine Generation voraus. AMD hat jetzt erst aufgeschlossen. Kepler ist Fermi in effizient. Deswegen kann nVidia nun auch soviel mehr DP-Leistung erreichen - der ganze Architekturkram ist nämlich schon erledigt. GCN failt auf jeder Ebene: DP-Leistung, SP-Leistung, Geometrieleistung, Texturleistung. Einzig in Bandbreite kann man mithalten.

Vermutlich?
Es wurde beim AFDS 2011 doch deutlich gesagt, dass GCN mit der Hauptpriorität der zukünftigen APU-Nutzung (parallel zu Bulldozer) in den letzten 5 Jahren entwickelt wurde.

Da muss ich lachen, dass du mir das erzählst, nachdem ich vorallem bei Nvidia-Geschäftsberichts-Thread wegen dieser Technik auf die zukünftigen Probleme im Nvidia-Profi-GPU (Quadro & Tesla) hingewesen haben und dabei dann als Fanboy bezeichnet wurde.

Und GCN gibt es nicht im Profimarkt zu kaufen. So, ja.
 
Zuletzt bearbeitet:
:D ich werde mir die Gk110 holen. habe ganz bewusst den schritt zur 680 er ausgelassen, weil egal wie man es dreht und wendet die gk114 ist einfach den aufschlag von 400 bis 500 € nicht einsehe zu meiner gtx 580 oc.

ICH weiss nicht warum, aber war schon immer FAN von "vollausbauten" einer generation. also nix gedrosseltes oder beschnittenes/deaktierten einheiten.

ich hoffe das AMD ein gutes konkurrenz produkt nachlegen wird damit der preis realistisch bleibt !!
 
ich schätze wenn die HD8000 so genial gut wie die HD7000 wird, lohnt es sich dann zuzuschlagen, Nvidia scheint mit dem GK110 ja noch etwas Zeit zu vertrödeln, und Maxwell dann erst recht ...
Wenn man 1 oder 2 Monate aktualität herrausschlagen kann, darf man ja schon glücklich sein :)

Sontin schrieb:
GK110 wird im Bereich von 225 - 300 Watt nochmal zwischen 40-50% drauflegen.
Haben sie auch nötig, 30-40% ... wird AMD übrigens auch mit ihrem 450mm² chip
Sontin schrieb:
AMD dagegen - nunja, die verbrauchen jetzt schon für 10% mehr Leistung 250-350 Watt. :evillol:
sagen wir doch 0w-1000W ...

manche kommen hier mit zahlen.

den rest spar ich mir...
 
Zuletzt bearbeitet:
Nunja, für AMD kann es nur von Vorteil sein seine Karten früher rauszubringen. Selbst wenn es im Dezember nur wieder ein Paperlaunch sein sollte und die Karten etwas später folgen.
Ein paar Monate ohne Konkurrenz seine Karten verkaufen ist nicht gerade eine schlechte Position. Die Preise bleiben schön oben, da Konkurrenz fehlt und der "early bird" natürlich auch gerne etwas mehr zahlt.

Wieviel Leistung nun beim Vollausbau nun wirklich rüber kommt und wieviel die AMD Konter-Karten dann bringen wird sich hier aber erst zeigen müssen...Momentan ist alles nur Spekulation.
 
Chesterfield schrieb:
:D ich werde mir die Gk110 holen. habe ganz bewusst den schritt zur 680 er ausgelassen, weil egal wie man es dreht und wendet die gk114 ist einfach den aufschlag von 400 bis 500 € nicht einsehe zu meiner gtx 580 oc.

ICH weiss nicht warum, aber war schon immer FAN von "vollausbauten" einer generation. also nix gedrosseltes oder beschnittenes/deaktierten einheiten.

Bezüglich Deinem ersten Satz bin ich voll auf Deiner Wellenlänge, zumal hier obere Mittelklasse von der Chipgröße her zu High End Preisen verkauft wird.

Bezüglich Vollausbau stimme ich so nicht komplett zu. Die Aussage ist so richtig, wenn man den GPU Computing Teil auch nutzt. Sonst ist er nur Ballast, der Platz wegnimmt, Wärme produziert und Geld kostet. Zumal die Anwendungsfälle vielfach ja hinter den Erwartungen zurückgeblieben sind. Beispiel Videos in guter Qualität umzuwandeln.

Daher würde mich ein Vollausbau eines GK104 mit ~500mm2 deutlich mehr interessieren, als ein GK110.
 

Ähnliche Themen

Zurück
Oben