Richthofen schrieb:
Das Problem hierbei ist dass Nvidia das schnellste Produkt hat. Die GTX690. Von AMD gibt es hierzu nix.
Und warum zählen nur die Nvidia-Dual-GPUs, wenn es um Leistungskrone geht?. Als HD 4870 X2 und HD 5970 schneller als GTX280 und GTX480 war, zählte das auch nicht.
Warum ist es jetzt zählt das genau in jenen Momentan genau umgekehrt, indem AMD erstmals die schnellste Single-GPU-Karte rausgebraucht hat?
Und GK104 ist einfach so brutal aufs Gaming ausgerichtet, dass AMD mit der Thahiti GHZ Edition nicht wirklich punkten kann, zumal sie hier auch noch den klaren Fertigungsnachteil haben und trotzdem Produkte günstiger verkaufen müssen.
Ein klarer Fertigungs-Vorteil sieht anders aus.
Zweitens, ob deine Aussage zutrifft kann nicht überprüft werden. Denn den ganzen GPU-Gewinn kann man genauso den ganzen Desgin-Wins zuordnen und Marktanteil-Steigerung im Low-End & Mainstream-OEMs zuordnen. Und da hat dann auch geholfen, dass Nvidia mehr 28nm-Wafer bekommen hat.
Du hast mich falsch verstanden. Ich habe gesagt sie verkaufen auch weiterhin mehr als die Konkurenz und das zu besseren, damit meine ich für sie Besseren Preisen - sprich am Ende höhere Preise. Nvidia verlangt mehr für GK104 und verkauft trotzdem mehr.
Höhre Preise bei gleichen Performance ist das selbe, wie geringere Performance zu gleichen Preisen.
Das Problem hat AMD auch im Netbook-Markt, wo ich letzten 9 von 10 Netbooks ein Atom-Chip war und nur ein Ontario, was eine erhebliche bessere Singe-Thread-Performance, gleiche Multi-Thread-Performance und in Grafik & Video sowieso überlegen ist.
Ich weiß ja, wenn AMD in der Performance mal vorne liegt, dann zählt das nicht.
Wenn AMD hinten liegt, natürlich schon, weil das ja dann die schlechten Marktanteile & Finanzen erklärt.
Krautmaster schrieb:
ich weiß nicht in welcher Welt du lebst, aber wo bitteschön ist der GF110 gefloppt?
Sorry, wer sich auskennt weiß, dass ich GF100 meinte.
Der GF110 war den AMD Karten weit voraus da 1 D Shader Design (was AMD nun mit GCN nachgezogen hat) + massive Auslegung auf GPGPU.
Und wo soll 1D AMDs 4/5-VILW voraus sein? Nur in deinem Kopf?
Dass AMD auf GCN umgestiegen ist, ist eben damit begründet, dass AMD mit GCN zuerst HSA-APUs machen will und vielleicht später in die CPU-Architektur einbauen will. Das wäre mit VILW-4/5 nicht oder ganz schwer gangen.
Es ist ja auch kein Zufall, dass genau jene Architektur eine GCN wurde, welche nach dem ATI-Kauf gestartet wurde.
Nebenbei war die Karte ja auch "nur" 32% schneller als die Konkurrenz HD5870 und immerhin noch 15% schneller als das AMD Topmodell HD6970 das später erschien.
Ich habe nicht lust ständig deine falschen Zahlen laufend klarzustellen.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-480-test.1201/seite-21
Wenn du mal gegen mich agierst und vorwirfst, dass ich was nicht kappier, dann bitte mal mit richtigen Zahlen.
Der GF100 war ebenfalls gut, aber dass durch GPGPU Konzentration an Perf/W im Spielebereich eingebüßt wird ist offensichtlich, der HD7970 geht es da nicht anders.
Peinlich wenn man nicht weiß, dass AMD mit den VILW-4/5-Konzept wesentlich höhere Double-Precise-Raten hatte als Nvidia damals.
Ich verstehe deine Aussage nicht ganz.
Wird jetzt GK110 im Spielebereich ein noch größerer Flop als GF100 weil der mit mehr GPGPU-Einheiten (wie extra Double-Precise-Einheiten) noch weniger für das Game-Bereich ausgelegt wird?
Die GTX480 war beim Release 48% schneller als der Vorgänger GTX 285.
Und? Wie gut ein Produkt ist, wird durch die Konkurrenz bestimmt.
HD 5870 war 60% schneller bei +5% Stromverbrauch.
+50% bei +30% Stromverbrauch werte ich als schlechter an.
Leider kennst du nicht den Sommer 2009.
Da sagten alle Gerüchte (direkt von Nvidia), dass GF100 so +100% bei 210W-TDP erreichen wird. Es stellt sich heraus, dass diese Quellen total belogen wurden. Selbst 2 Monate vor einen Start in Oktober 2009.
Bei Kepler war es genauso.
Selbst bis 2 Monate (also Febrar 2012) glaubten Gerüchte an einen GK100 start in April/Mai 2012. Die Hoffnung überdeckt bei den meisten noch immer das Rationale Denken.
Deshalb erwähnte ich es öfters.
Wenn GK110 wieder flopt, dann wird es bei fielen Leuten ein Umdenken passieren, indem sie aufhören ständig auf ein Überdrüber-Produkt zu warten, was dann so bei weitem nicht kommt. Nicht nur Apple kann den Kult um ein Zukünftiges Produkt aufbauen.
Was du nicht begreifst ist, dass AMDs Karten zu dieser Zeit absolut auf Spiele ausgelegt waren, heißt MultiShader Architektur = 4D/5D um hohe Effizienz zu erreichen. Genau deswegen stand der GF100 und GF110 relativ schwach bei Performance / W in Spielen da, im Vergleich zur Konkurrenz, war aber dennoch deutlich vorne. Bei GPGPU waren es Welten.
Wenn du anderen Unwissenheit vorwirfst, solltest du verstehen, dass 4D/5D die eigentliche bessere GPGPU-GPUs in sachen Performance/Watt ist.
4D/5D ist nur dann in den Spielen besser, wenn die Spiele für 4D/5D optimiert sind.
Und genau das passierte nicht und nur so konnte 4D/5D in der Rohperformance an GT200 vorbeiziehen. Nur hatte AMD keine vernünftige Software dazu. Und G80 konnte übridgens nichteinmal Double-Precise. Erst GT200 konnte erstmals Double-Precise.
Das sollte man halt wissen, wenn man G80, GT200, GF100 als GPGPU-Wunder predigt.
Bei Tahiti siehst du wie sich das verhält wenn beide in etwa dieselbe Architektur fahren. GCN und Kepler sind sich weit ähnlicher geworden als die Vorgänger.
Damit ist der Perf/W Rückstand (den es auch nur bei dem GPGPU Karten = GF100 / GF110 gab) von Nvidia bei Fermi verpufft. Beide Architekturen sind fast gleich effizient.
Völliger Unsinn, weil du 6000er vs. 500er ignorierst.
Fermi GF100 hatte viel zu viel Tesselation. HD 6000er hatte die Tesselation-Unit verdoppelt und GF110 logischerweise nicht.
GK104 sieht auch u.a. deshalb viel besser aus, weil HD 7970 wieder etwas mehr in Tesslation zulegen "musste", als Nvidia.
Wie gut GK104 wirklich wird, wird sich erst zeigen, wenn HD 8800 mit 16CU-pro-Grafik-Engine rauskommt. GTX280 glat damals auch als Wunder-Chip, bis dann die RV770 rauskam, die das vorhandenen Front-End mit 10-SIMD pro Grafik-Engine statt 4-SIMD einfach besser ausnützte. Bei HD 8800 werden genüber den Vorgänge (HD7800) "nur" +60% CU hinzukommen, statt +150% SIMD wie beim RV770.
Der Tahti Chip kommt sogar etwas schlechter weg, warum... weil er mehr auf GPGPU getrimmt wurde als der MidrangeChip GK104. Midrange in einer HighEnd Desktop Karte (GTX680). Midrange in Bezug auf Verbrauch, Chipgröße, Namensgebung, Leistung.
Nvidias Glück war, dass Thaiti erst in August in den Worktstation & HPC-Markt einstieg.
Wäre AMD da schon im 1Q eingestiegen, dann hätte Nvidia sehrwohl diese Auswirkungen gespürt und solche Aussagen würden ganz anders betrachtet werden.
Und genau dieses Problem wird dann Nvidia beim 20nm Umstieg haben.
PS:
Lern mal die Technischen Grundlagen, bevor du mir Unwissenheit unterstellst, weil ich laut dir so viel kapieren musst. Es stimmt, dass ich manchmal deine bezugslosen Meinungen nicht kapiere, deshalb wäre es wichtig, wenn du auf die Architektur Konkret eingehst. Wenn du das nicht kannst, ist es dein Problem und hör auf etwas zu erklären, was du selber nicht mal durchblickst und bleib einfach bei deiner Meinung, die man nicht permanent anderen aufs Auge drückt.