News Gerüchte zu finalen Spezifikationen zu Nvidias Tesla K20 (GK110)

Matzegr schrieb:
225W TDP recht gering? 2496 ALUs bei 705MHz bringen ~14% mehr Leistung als ne GTX 680 bei 15% höherer TDP. Das klingt gar nicht gut. Bei 705MHz müßte eine deutliche Spannungssenkung gegenüber der GTX 680 drinne sein und somit müsste die TDP niedriger sein.

Ich könnte mir vorstellen, dass Nvidia bei den Teslas die Priorität vor allem auf Ausfallsicherheit bzw. langfristige Zuverlässigkeit legt und deshalb die Spannung vorsichtshalber relativ hoch ansetzt, statt zu versuchen, das letzte Watt rauszuquetschen.
 
@Herdware

Naja, 225W sprechen eher für weniger Spannung bzw auch der Takt lässt auf ein Optimum zwischen Spannung /Takt spekulieren. Das größere SI braucht auch etwas mehr Saft.

Zu Ausfallsicherheit gehört auch das PCB an sich, etwas niedriger Verbrauch lässt sich besser / sicherer kühlen, das PowerLayout wird nicht so sehr strapaziert. Der Chip verreckt im seltensten Fall...

Zudem wird es wohl ~ein Jahr später einfach den Vollausbau auch in der Tesla Welt geben. Auch hier gilt - jetzt etwas vorlegen was sich vom ehemaligen Topmodell absetzt, ausreichend absetzt um Kaufanreiz zu sein, späte rein neues Topmodell nachlegen.
 
Zuletzt bearbeitet:
Es geht mir nicht ums Verrecken der GPU. Das hätte man ja eher, wenn man eine zu hohe Spannung hat.

Aber wenn man die Spannung bei gegebenem (eher niedrigen) Takt so weit wie möglich runter schraubt, so dass die GPU möglichst wenig verbraucht und gerade noch stabil läuft, reicht schon eine minimale Verschlechterung über die Zeit oder irgendwelche Unsauberkeiten in der Stromversorgung usw. und sie läuft irgendwann instabil.

Deshalb ist es üblich, von Anfang an eher etwas Spannung anzulegen als eigentlich nötig, wenn man eventuelle spätere Probleme vermeiden will.

Das macht AMD z.B. auch bei seinen APUs so oder auch jedes Mainboard, wenn man die automatische Übertaktungsfunktion für die CPU nutzt. Stabilität/Zuverlässigkeit geht da über Stromsparen.

Ich könnte mir vorstellen, dass Nvidia bei professionellen Produkten wie den Tesla, tendenziell eher noch mehr auf Sicherheit geht, als bei Consumerprodukten. Eine instabil laufende Grafikkarte ist für einen Gamer ärgerlich, einem Unternehmer kostet sie sofort richtig Geld und per Reklamation/Supportkosten auch Nvidia.
 
aylano schrieb:
Wenn GK110 wie GF110 floppt, dann werden viele Nvidia-Käufer die Marke infragestellen und nicht mehr Monate warten und warten. Genauso passierte es schon bei GF110, wo das Nvidia-Image einen deutlichen Kratzer bekommen hat.
....
Ein GK110-Desktop-Flop können sich heute genauso-wenige vorstellen, wie damals der GF100-Flop (GTX480). Das Problem bei einen Flop ist, dass es dann zu erheblichen (finanziellen) Problemen führen kann. Aber es muss nicht. Bei GF110 bzw. GTX480 konnte Nvidia mit einem blauen Auge davonkommen und die Sache zurechtbiegen.

ich weiß nicht in welcher Welt du lebst, aber wo bitteschön ist der GF110 gefloppt?

Der GF110 war den AMD Karten weit voraus da 1 D Shader Design (was AMD nun mit GCN nachgezogen hat) + massive Auslegung auf GPGPU.

Nebenbei war die Karte ja auch "nur" 32% schneller als die Konkurrenz HD5870 und immerhin noch 15% schneller als das AMD Topmodell HD6970 das später erschien.

Der GF100 war ebenfalls gut, aber dass durch GPGPU Konzentration an Perf/W im Spielebereich eingebüßt wird ist offensichtlich, der HD7970 geht es da nicht anders.

Die GTX480 war beim Release 48% schneller als der Vorgänger GTX 285.

:rolleyes:

Was du nicht begreifst ist, dass AMDs Karten zu dieser Zeit absolut auf Spiele ausgelegt waren, heißt MultiShader Architektur = 4D/5D um hohe Effizienz zu erreichen. Genau deswegen stand der GF100 und GF110 relativ schwach bei Performance / W in Spielen da, im Vergleich zur Konkurrenz, war aber dennoch deutlich vorne. Bei GPGPU waren es Welten.

Bei Tahiti siehst du wie sich das verhält wenn beide in etwa dieselbe Architektur fahren. GCN und Kepler sind sich weit ähnlicher geworden als die Vorgänger.

Damit ist der Perf/W Rückstand (den es auch nur bei dem GPGPU Karten = GF100 / GF110 gab) von Nvidia bei Fermi verpufft. Beide Architekturen sind fast gleich effizient.

Der Tahti Chip kommt sogar etwas schlechter weg, warum... weil er mehr auf GPGPU getrimmt wurde als der MidrangeChip GK104. Midrange in einer HighEnd Desktop Karte (GTX680). Midrange in Bezug auf Verbrauch, Chipgröße, Namensgebung, Leistung.

Was für AMD Tahiti ist, ist für Nvidia GK110. Der GPGPU Professional Chip. Gut möglich, dass der GK110 etwas an "Gaming"-Effizienz einbüßt da er eben mehr auf GPGPU ausgelegt ist.
 
Zuletzt bearbeitet:
Evader schrieb:
Ist GK110 aktuell nötig? Nein.

Und? Hat AMD dem nach aktuellem Stand etwas im Q1 2013 entgegenzusetzen? Nein? Ah! Dann passt ja wieder alles. :D
Sicher ist es jetzt nicht nötig, wenn viele Leute lieber das 2. schnellste Produkt kaufen wollen.
Es stellt sich die Frage, warum AMD seine HD 8800 um 1 Quartal verschob. Da man bei einem eventuellen 280mm²-Die Yieldprobleme eigentlich ausschließen kann, fallen mir eigentlich nur Strategische Gründe ein. Zwar kommt man einige Monate später, aber steht man die nächsten Monate besser dar.

"Wenn wenn wenn wenn wenn"
Das ist im Moment doch viel zu sehr ins Blaue geballert.
Das selbe hörte ich auch laufend, als ich GK110-Desktop fürs 3Q 2012 spekulierte und 4Q 2012 für möglich hielt.

GF110 ist gefloppt? Das wäre mir neu. Wenn überhaupt dann der GF100 und auch das bei weitem nicht so, wie es immer gerne behauptet wird.
nV hatte genügend Flops und "Image-Schleifpapier" in der Vergangenheit, NV30, NV30 Treibercheating, Bumpgate, fehlerhafte Treiber die im schlimmsten Fall die Graka töten etc.
Das sind Dinge die IMHO viel viel schlimmer waren und sind, als eine teildeaktivierte Heizplatte.
Solange Nvidia die schnellste Karte hatte, konnten sie eben paar Flops überdauern. Und mit ganz frührer kann man es nicht vergleichen, wei die Maßstäbe auch anders waren. Damals zählte z.B: keine Stromverbrauch. Heute ist der Stromverbrauch eines der wichtigesten Dinge und oft der Grund für Verschiebungen.
Nvidia 7000er-Serie gilt ja auch als Flop, weil er nicht die schnellste Top-Karte hatte. Aber die 7000er-Serie war aber effizient und verbrauchte nicht viel Strom.

Heute sind Grafikkarten viel berechenbarer, weil sich in der Grobstruktur nicht viel ändert.

Q2 2009 war sogar eine komplette Katastrophe, finanziell gesehen.

Was hat es gebracht aus der "nV geht unter" Ecke? Nüscht.
nV hat sich stets erholt und verdient gutes Geld.
Ich glaube viele verwechseln Wunschdenken mit der Realität.
Nö, das waren Einmal-Abschreibung wegen defekten Mobilen Grafikkarten.
Sowas kann passieren.
Operative Verluste sind viel schwerliegender als Einmalabschreibungen, weil die operativen Verluste den Wert der aktuellen Produkte zeigen und meistens schwierig ist da raus zu kommen.

Damals war Nvidia sehrwohl mit CUDA und PhysX erheblich mächtiger.
Und ja, Nvidia hat Fiananziell nachgelassen. Dass Nvidia später 60 Mio. $ Lizenz-Zahlungen von Intel bekommt, konnten viel damals nicht sehen.

Ja, einen HD8000 flop können sich heute wohl genauso wenige vorstellen, wie damals den R600 Flop. :rolleyes:
Stimmt.
a) Ist HD 8000 keine neue Architektur
b) kann man heute HD 8000 viel besser einschätzen als früher, da man aus der Vergangenheit von HD2000 bis HD 7000 die Entwicklungsmöglichkeiten gut sehen kann.

HD 8000 muss nicht einmal einen perfekten Schritt machen, um gut mithalten zu können, da HD 7000 nicht hocheffizient (Performance-pro-(Watt & mm²).
Denn HD 7800 hat mit 10 CUs pro Grafik-Engine nicht das volle Front-End-Potential ausgeschöpft, während HD 7900 mit GPGPU-Einheiten schon belastet ist, aber trotzdem gut mithalten kann und in der Performance sogar vorne liegt.

Hingengen sind die SMX von GK104
a) schon Einheiten bzw. Shader optimiert und
b) besitzen sie noch keine GPGPU-Einheiten, die das Gaming ineffizienter machen.

Ich spekuliere ja, dass HD 8800 mit 32CUs (16CUs pro Grafik-Engine) die effizienteste (AMD) Grafikkarte wird und HD 8900 mit überdimensionierten Frontend (20CUs pro Big-Frond-End & Grafik-Engine) nicht die Effizienz eines HD 8800 bekommt.

Richthofen schrieb:
Das kleinere Fertigungsprozesse im schwieriger zu handeln sein werden ist nichts neues. Du erzählst hier permanent alten Kaffee
Klar ist es alter Kaffee.
Denn das ist der Grund, warum GK110-Desktop nicht im 4Q 2011, 2Q 2012 und 4Q2012 gekommen ist, aber viel an diesem Termin glauten.
Und ja, Kepler war mal für 2011 gedacht (siehe Nvidia-Folien), wo damals viele logischerweise an den GK110 dachten.

Sie verkaufen auch weiterhin mehr als die Konkurenz und vor allem zu besseren Preisen.
Früher war der Grund, das bessere Produkt. Heute sind es halt die besseren Preise.

TSMC sagte selber, dass sie Nvidia mehr 28nm-Wafer geben als Nvidia. Mich wundert es nicht, wenn Nvidia dann besser dasteht, wenn sie dadurch mehr 28nm-Wafer verkaufen können.
Das haben High End Lösungen nunmal so ansich. Wenn die Performance stimmt und das Kühldesign in Ordnung ist, dann ist das per se auch erstmal kein Problem. GF110 war der Konkurenz klar überlegen und hat sich dementsprechend gut verkauft. Anders als GF100 kam er auch nicht zu spät sondern vor der Konkurenz in den Markt.
Interessant, jetzt wird GF100 schon als erfolg gesehen, weil er vor der Konkurrenz am Markt war.

Ich kann mich noch gut erinnern, dass damals viele auf GF100 warten, weil der so viel besser als HD 5870 werden soll. Damals wurden viele enttäscht.
Das gleiche dachten sie auch, wo HD 7970 als überteuer predigten, weil er bald auf <300$ in Feb und später April 2012 spekulierten. Damals wurden wiede viele eines besseren belehrt.
Nachdem GK110 nicht im 2Q 2012 kam, hoffen jetzt alle wieder, dass GK110 AMD nächstes Jahr in die Schranken weisen wird. Und sie warten und warten und warten.

Die große Frage ist, ob GK110 eine Flop-GF100 (teildeaktiviert) wird oder Top-GF110.
Momentan sind die Anzeichen eben nicht gut, weil es heute den Tesla-GK110-Teildeaktiviert es heute genauso gibt, wie damals der Tesla-GF100.
Telsa-GF110 kam als Tesla M2090 übrigends non-Teildeaktiviert heraus. Zwar erst 6 Monate später noch GF110-Desktop, aber immerhin.

Und wie ich schon sagte.
Wenn HD8900 auf Augenhöhe mit GK110 ist, dann sehe ich das als ein Erfolg für Nvidia an, da sie im Fertigungs-Refresh-Jahr immer AMD voraus waren, weil AMD im Fertigungs-Einführungsjahr ihre stärken haben.
 
Sicher ist es jetzt nicht nötig, wenn viele Leute lieber das 2. schnellste Produkt kaufen wollen.

Das Problem hierbei ist dass Nvidia das schnellste Produkt hat. Die GTX690. Von AMD gibt es hierzu nix. Und GK104 ist einfach so brutal aufs Gaming ausgerichtet, dass AMD mit der Thahiti GHZ Edition nicht wirklich punkten kann, zumal sie hier auch noch den klaren Fertigungsnachteil haben und trotzdem Produkte günstiger verkaufen müssen.

Ich darf hierbei nochmal daran erinnern, dass es AMD war die in den letzten Wochen mehrfach die Preise gesenkt haben. Nvidia verkauft halt weiterhin schön Produkte aber für mehr Kohle. Am Ende des Tages wird man den Erfolg immer an den Quartalszahlen ablesen können und meine Prognose ist, dass wie auch schon in Q2 Nvidia erfolgreicher im GPU Umfeld ist als AMD.

Früher war der Grund, das bessere Produkt. Heute sind es halt die besseren Preise.

Du hast mich falsch verstanden. Ich habe gesagt sie verkaufen auch weiterhin mehr als die Konkurenz und das zu besseren, damit meine ich für sie Besseren Preisen - sprich am Ende höhere Preise. Nvidia verlangt mehr für GK104 und verkauft trotzdem mehr.
 
Richthofen schrieb:
Das Problem hierbei ist dass Nvidia das schnellste Produkt hat. Die GTX690. Von AMD gibt es hierzu nix.
Und warum zählen nur die Nvidia-Dual-GPUs, wenn es um Leistungskrone geht?. Als HD 4870 X2 und HD 5970 schneller als GTX280 und GTX480 war, zählte das auch nicht.
Warum ist es jetzt zählt das genau in jenen Momentan genau umgekehrt, indem AMD erstmals die schnellste Single-GPU-Karte rausgebraucht hat?

Und GK104 ist einfach so brutal aufs Gaming ausgerichtet, dass AMD mit der Thahiti GHZ Edition nicht wirklich punkten kann, zumal sie hier auch noch den klaren Fertigungsnachteil haben und trotzdem Produkte günstiger verkaufen müssen.
Ein klarer Fertigungs-Vorteil sieht anders aus.
Zweitens, ob deine Aussage zutrifft kann nicht überprüft werden. Denn den ganzen GPU-Gewinn kann man genauso den ganzen Desgin-Wins zuordnen und Marktanteil-Steigerung im Low-End & Mainstream-OEMs zuordnen. Und da hat dann auch geholfen, dass Nvidia mehr 28nm-Wafer bekommen hat.

Du hast mich falsch verstanden. Ich habe gesagt sie verkaufen auch weiterhin mehr als die Konkurenz und das zu besseren, damit meine ich für sie Besseren Preisen - sprich am Ende höhere Preise. Nvidia verlangt mehr für GK104 und verkauft trotzdem mehr.
Höhre Preise bei gleichen Performance ist das selbe, wie geringere Performance zu gleichen Preisen.

Das Problem hat AMD auch im Netbook-Markt, wo ich letzten 9 von 10 Netbooks ein Atom-Chip war und nur ein Ontario, was eine erhebliche bessere Singe-Thread-Performance, gleiche Multi-Thread-Performance und in Grafik & Video sowieso überlegen ist.

Ich weiß ja, wenn AMD in der Performance mal vorne liegt, dann zählt das nicht.
Wenn AMD hinten liegt, natürlich schon, weil das ja dann die schlechten Marktanteile & Finanzen erklärt.

Krautmaster schrieb:
ich weiß nicht in welcher Welt du lebst, aber wo bitteschön ist der GF110 gefloppt?
Sorry, wer sich auskennt weiß, dass ich GF100 meinte.

Der GF110 war den AMD Karten weit voraus da 1 D Shader Design (was AMD nun mit GCN nachgezogen hat) + massive Auslegung auf GPGPU.
Und wo soll 1D AMDs 4/5-VILW voraus sein? Nur in deinem Kopf?
Dass AMD auf GCN umgestiegen ist, ist eben damit begründet, dass AMD mit GCN zuerst HSA-APUs machen will und vielleicht später in die CPU-Architektur einbauen will. Das wäre mit VILW-4/5 nicht oder ganz schwer gangen.

Es ist ja auch kein Zufall, dass genau jene Architektur eine GCN wurde, welche nach dem ATI-Kauf gestartet wurde.

Nebenbei war die Karte ja auch "nur" 32% schneller als die Konkurrenz HD5870 und immerhin noch 15% schneller als das AMD Topmodell HD6970 das später erschien.
Ich habe nicht lust ständig deine falschen Zahlen laufend klarzustellen.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-480-test.1201/seite-21
Wenn du mal gegen mich agierst und vorwirfst, dass ich was nicht kappier, dann bitte mal mit richtigen Zahlen.

Der GF100 war ebenfalls gut, aber dass durch GPGPU Konzentration an Perf/W im Spielebereich eingebüßt wird ist offensichtlich, der HD7970 geht es da nicht anders.
Peinlich wenn man nicht weiß, dass AMD mit den VILW-4/5-Konzept wesentlich höhere Double-Precise-Raten hatte als Nvidia damals.

Ich verstehe deine Aussage nicht ganz.
Wird jetzt GK110 im Spielebereich ein noch größerer Flop als GF100 weil der mit mehr GPGPU-Einheiten (wie extra Double-Precise-Einheiten) noch weniger für das Game-Bereich ausgelegt wird?

Die GTX480 war beim Release 48% schneller als der Vorgänger GTX 285.
Und? Wie gut ein Produkt ist, wird durch die Konkurrenz bestimmt.

HD 5870 war 60% schneller bei +5% Stromverbrauch.
+50% bei +30% Stromverbrauch werte ich als schlechter an.

Leider kennst du nicht den Sommer 2009.
Da sagten alle Gerüchte (direkt von Nvidia), dass GF100 so +100% bei 210W-TDP erreichen wird. Es stellt sich heraus, dass diese Quellen total belogen wurden. Selbst 2 Monate vor einen Start in Oktober 2009.

Bei Kepler war es genauso.
Selbst bis 2 Monate (also Febrar 2012) glaubten Gerüchte an einen GK100 start in April/Mai 2012. Die Hoffnung überdeckt bei den meisten noch immer das Rationale Denken.

Deshalb erwähnte ich es öfters.
Wenn GK110 wieder flopt, dann wird es bei fielen Leuten ein Umdenken passieren, indem sie aufhören ständig auf ein Überdrüber-Produkt zu warten, was dann so bei weitem nicht kommt. Nicht nur Apple kann den Kult um ein Zukünftiges Produkt aufbauen.

Was du nicht begreifst ist, dass AMDs Karten zu dieser Zeit absolut auf Spiele ausgelegt waren, heißt MultiShader Architektur = 4D/5D um hohe Effizienz zu erreichen. Genau deswegen stand der GF100 und GF110 relativ schwach bei Performance / W in Spielen da, im Vergleich zur Konkurrenz, war aber dennoch deutlich vorne. Bei GPGPU waren es Welten.
Wenn du anderen Unwissenheit vorwirfst, solltest du verstehen, dass 4D/5D die eigentliche bessere GPGPU-GPUs in sachen Performance/Watt ist.
4D/5D ist nur dann in den Spielen besser, wenn die Spiele für 4D/5D optimiert sind.

Und genau das passierte nicht und nur so konnte 4D/5D in der Rohperformance an GT200 vorbeiziehen. Nur hatte AMD keine vernünftige Software dazu. Und G80 konnte übridgens nichteinmal Double-Precise. Erst GT200 konnte erstmals Double-Precise.
Das sollte man halt wissen, wenn man G80, GT200, GF100 als GPGPU-Wunder predigt.

Bei Tahiti siehst du wie sich das verhält wenn beide in etwa dieselbe Architektur fahren. GCN und Kepler sind sich weit ähnlicher geworden als die Vorgänger.

Damit ist der Perf/W Rückstand (den es auch nur bei dem GPGPU Karten = GF100 / GF110 gab) von Nvidia bei Fermi verpufft. Beide Architekturen sind fast gleich effizient.
Völliger Unsinn, weil du 6000er vs. 500er ignorierst.
Fermi GF100 hatte viel zu viel Tesselation. HD 6000er hatte die Tesselation-Unit verdoppelt und GF110 logischerweise nicht.
GK104 sieht auch u.a. deshalb viel besser aus, weil HD 7970 wieder etwas mehr in Tesslation zulegen "musste", als Nvidia.

Wie gut GK104 wirklich wird, wird sich erst zeigen, wenn HD 8800 mit 16CU-pro-Grafik-Engine rauskommt. GTX280 glat damals auch als Wunder-Chip, bis dann die RV770 rauskam, die das vorhandenen Front-End mit 10-SIMD pro Grafik-Engine statt 4-SIMD einfach besser ausnützte. Bei HD 8800 werden genüber den Vorgänge (HD7800) "nur" +60% CU hinzukommen, statt +150% SIMD wie beim RV770.

Der Tahti Chip kommt sogar etwas schlechter weg, warum... weil er mehr auf GPGPU getrimmt wurde als der MidrangeChip GK104. Midrange in einer HighEnd Desktop Karte (GTX680). Midrange in Bezug auf Verbrauch, Chipgröße, Namensgebung, Leistung.
Nvidias Glück war, dass Thaiti erst in August in den Worktstation & HPC-Markt einstieg.
Wäre AMD da schon im 1Q eingestiegen, dann hätte Nvidia sehrwohl diese Auswirkungen gespürt und solche Aussagen würden ganz anders betrachtet werden.

Und genau dieses Problem wird dann Nvidia beim 20nm Umstieg haben.

PS:
Lern mal die Technischen Grundlagen, bevor du mir Unwissenheit unterstellst, weil ich laut dir so viel kapieren musst. Es stimmt, dass ich manchmal deine bezugslosen Meinungen nicht kapiere, deshalb wäre es wichtig, wenn du auf die Architektur Konkret eingehst. Wenn du das nicht kannst, ist es dein Problem und hör auf etwas zu erklären, was du selber nicht mal durchblickst und bleib einfach bei deiner Meinung, die man nicht permanent anderen aufs Auge drückt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Dass die GTX680 mit dem GK104 eindeutig das Namenschema sprengt ist offensichtlich, genauso wie es nicht Nvidias Art ist eine TopEnd GPU X80 mit kleinem <300mm² CHip zu bringen.
Irgendwann musste der Bruch kommen. Sie können nicht ewig jede Generation 50% Leistungszuwachs bringen. Sonst sind wir bald bei 3x8-Pin und Quad-Slot-Turbinen, die niemand mehr kauft. Ich denke es ist eindeutig, dass die Produktion eines derartig großen Chips im 28nm-Verfahren extrem teuer ist, sonst gäbe es schon längst Tesla-Karten und nicht erst in 2 Monaten. Im HPC-Bereich zählt Leistung/W und da punktet ein großer, langsam taktender Chip.
 
nVidia hat keine Kapazitäten, um GK110 früher zu produzieren. Ist eben dumm gelaufen, dass sie die ganzen Marktanteile von AMD im Notebookmarkt aufgrund der besseren und vorallem effizienteren Architektur gewonnen haben...

GK110 geht daher erst jetzt in die Produktion, weil durch das Starten der Fertigung von 28nm in einer zweiten Fab TSMC endlich die notwendigen Kapazitäten geschaffen hat. GK110 dagegen hat sein Tape-Out in März gehabt und ist somit im Grunde komplett.
 
Sontin schrieb:
Ist eben dumm gelaufen, dass sie die ganzen Marktanteile von AMD im Notebookmarkt aufgrund der besseren und vorallem effizienteren Architektur gewonnen haben...

Die Kepler NB-Chips sind mitnichten effizienter. Beide Mitbewerber bewegen sich momentan auf demselben Niveau.
 
Zuletzt bearbeitet:
GK107 ist deutlich effizienter als Cape Verde. Sieht man alleine an den Desktopkarten, wo die GTX650 bei gleicher Leistung zur 7750 weniger Strom benötigt. Hier reden wir von knapp 15% besserem Perf/Watt Verhältnis.

Deswegen gibt es nur sehr, sehr weniger Cape Verde in Notebooks.
 
Cape Verde (bzw Chelsea / Heathrow) liegt Effizienzmäßig gleichauf mit GK107. Im CB Test ist da eindeutig ein Unentschieden über alle 3 Lastergebnisse! Ich weiß nicht wo du da ein 15% besseres P/W Verhältnis rausliest.
 
Athlonscout schrieb:
Die Kepler NB-Chips sind mitnichten effizienter. Beide Mitbewerber bewegen sich momentan auf demselben Niveau.

Das scheinen die OEMs anders zu sehen als Du. Die verbauen in Kombination mit Intel primär Kepler GPUs und keine GPUs von AMD. Nvidia hat hier deutlich mehr Design Wins herangeschaufelt als AMD. Das war zu Fermi Zeiten noch ausgeglichener.
 
@Richthofen

An den von mir genannten Fakten ist nicht zu rütteln - du kannst aber gerne versuchen Sontin These zu untermauern (bitte mit Quellenangabe!).

Dass die OEMs momentan eher Kepler verbauen liegt am Feature Optimus!
 
@aylano

ich denke du malst wie so oft hier zu sehr schwarz / weiß an.

Die eine GPU ist z.B. klar für effizientes Gaming konzipiert, die andere eher für den HPC Bereich.

Der GF100 in der GTX480 hat beim Spielen "nur" 50% Mehrleistung gebracht bei ebenfalls gestiegenem Verbrauch, du verkennst aber, dass der Schritt im Chipdesign locker 100% + an HPC Leistung brachte, sozusagen der Einstieg für Tesla überhaupt war.

Dass eine solche Karte wenig effizient im Gaming Umfeld ist ist ebenfalls abzusehen.

aylano schrieb:
Peinlich wenn man nicht weiß, dass AMD mit den VILW-4/5-Konzept wesentlich höhere Double-Precise-Raten hatte als Nvidia damals.

Peinlich ist wohl eher dass du nicht begreifst um was es bei GPGPU / HPC geht. Es geht nicht darum einen Spitzenwert in den Raum zu stellen.
Das 4D/5D Design ist zwar effizient, aber bei Computing Aufgaben extrem unflexibel und instabil.

Wenn das Szenario genau passt, dann bringt 5D extrem gute Perf/W. Siehe HD5850.

Beim Bitcoins Rechnen zersägt eine HD5850 locker ihren Nachfolger HD6950 - warum, genau, weil die 5D Architektur im Optimalfall besser wegkommt als 4D, und weit besser als 1D. Das war auch der Grund wieso AMD 5D überhaupt einsetzte.
Hier von besseren "Double-Precise-Raten" zu sprechen ist also lächerlich und nur eine Seite der Medallie... oder warum hat AMD auf GCN gewechselt?

1D / GCN lässt sich schlicht besser auslasten und bringt in der Vielzahl der Anwendungsmöglichkeiten die höhere Durchschnittsleistung. Vorallem für deine genannte heterogene HSA Architektur wichtig. Deswegen GCN.

Ich verstehe deine Aussage nicht ganz.
Wird jetzt GK110 im Spielebereich ein noch größerer Flop als GF100 weil der mit mehr GPGPU-Einheiten (wie extra Double-Precise-Einheiten) noch weniger für das Game-Bereich ausgelegt wird?

wieso Flop. Ich weiß nicht was du als Flop betitelst, aber ausgehend von den Daten hier wird die Leistung um etwa 2880/1536 steigen - was Faktor 1,875 bedeuten würde. Dazu kommt, dass die GTX680 etwas am SI lahmt, aber deutlich höheren Takt fährt als dies GK110 vermutlich tun wird.

Deshalb nahm ich 40-50% + bei Gamingleistung als realistisch an. Ob das für dich ein Flop ist musst du mit dir ausmachen.

Es kann sein, dass die Perf/W nicht so extrem gut ausfallen wird wie beim GK104 oder bei Pitcairn - eben weil mehr Transistoren für HCP draufgehen.

Leider kennst du nicht den Sommer 2009.
Da sagten alle Gerüchte (direkt von Nvidia), dass GF100 so +100% bei 210W-TDP erreichen wird. Es stellt sich heraus, dass diese Quellen total belogen wurden. Selbst 2 Monate vor einen Start in Oktober 2009.

o_O von was hast du es jetzt schon wieder? Der GF100 kam doch im April 2010... was weiß den ich was für dubiose Quellen du Sommer 2009 hast die von 210W TDP sprechen bei 100% :p

Völliger Unsinn, weil du 6000er vs. 500er ignorierst.
Fermi GF100 hatte viel zu viel Tesselation. HD 6000er hatte die Tesselation-Unit verdoppelt und GF110 logischerweise nicht.
GK104 sieht auch u.a. deshalb viel besser aus, weil HD 7970 wieder etwas mehr in Tesslation zulegen "musste", als Nvidia.

dir ist klar, dass bei Nvidia die Tessellation ein ein Nebenprodukt der HPC Performance / ist / war? Wenn der GF100 also "viel zu viel" (gibt es nicht) Tessellation-Performance hat dann ist das schlecht ein Zeichen für dessen HPC Auslegung.

GK104 sieht auch u.a. deshalb viel besser aus, weil HD 7970 wieder etwas mehr in Tesslation zulegen "musste", als Nvidia.

ich find zB nicht, dass der GK104 "viel" besser aussieht. Kaum, beide Karten sind recht ähnlich, allein schon durch die Architektur. AMD holt sehr viel GPGPU Performance aus ihrer GCN Architektur heraus. Ich wüsste jetzt auf Anhieb gar nicht ob AMD die Tessallationseinheit durch Software abgelöst hat (wie Nvidia je her) oder noch in Hardware...

Tahiti ist ne top Karte, vor allem für GPGPU. Weit besser als die GTX 680. Nur logisch, dass letztere bei Spielen etwas besser wegkommt bei Perf/W und nur logisch, dass die Tahiti bessere Tessellations-Leistung bietet (wenn gleich bei dez. Einheit nicht von GPU HPC Performance ableitbar).

Edit:
Es sieht so aus als wäre Tessellationsleistung nicht an HPC Leistung gekoppelt bei AMD -> nach wie vor Tessellator. Etwas unflexibler, aber sicher auch etwas effizienter und ja eh schon vorhanden gewesen. Könnte man wie Nvidia in "Software" lösen, direkt auf der GPU.

QUOTE]Ich habe nicht lust ständig deine falschen Zahlen laufend klarzustellen.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-480-test.1201/seite-21
Wenn du mal gegen mich agierst und vorwirfst, dass ich was nicht kappier, dann bitte mal mit richtigen Zahlen.
[/QUOTE]

Lesen hilft, da du dich offensichtlich verschrieben hattest habe ich mich auf den GF110 bezigen aka GTX580 die laut dir gefloppt ist. Bei der GTX580 war dem so:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-580-test.1356/seite-20

Kann ja nichts für wenn du dich vertippselst...

Edit:

PS:
Lern mal die Technischen Grundlagen, bevor du mir Unwissenheit unterstellst, weil ich laut dir so viel kapieren musst. Es stimmt, dass ich manchmal deine bezugslosen Meinungen nicht kapiere, deshalb wäre es wichtig, wenn du auf die Architektur Konkret eingehst. Wenn du das nicht kannst, ist es dein Problem und hör auf etwas zu erklären, was du selber nicht mal durchblickst und bleib einfach bei deiner Meinung, die man nicht permanent anderen aufs Auge drückt.

wirf mir keine Unwissenheit vor wenn man selbst nicht mal objektiv Professionelles und Heimanwender Umfeld betrachten kann. Weder floppt Tahiti, noch HD5870 noch GK104/GF100 oder GK110.
Die Karten wurden alle mit Fokus auf ein bestimmtes Ziel entwickelt (dass sich in einigen Fällen bei weitem nicht mit deinem deckt).:rolleyes:

Zudem... wo hab ich dir was aufgedrückt. Du bist doch der Hans-Wurst der jede Neuerung der Zukunft egal ob aus dem grünen oder blauen Haus direkt schlecht reden will nach dem Motto "Eine HD8800 muss ja so viel toller sein wie der GK110 der ja so spät ist..."

Ich geh die Sache komplett nüchtern an. GK110 überzeugt von den technischen Daten her, ich sagte sogar dass er unter Umständen eine schlechtere Perf/W erreichen wird als GK104... muss aber nicht. Wie auch immer, ich freu mich auf HD89XX und GK110... traurig dass Andere nur einem Lager nachhimmeln können...
Ergänzung ()

Athlonscout schrieb:
Die Kepler NB-Chips sind mitnichten effizienter. Beide Mitbewerber bewegen sich momentan auf demselben Niveau.

Seh ich übrigens genauso.

In 28nm liefern sich beide Häuser zZ ein Kopf an Kopf rennen. Es gibt keine wirklich bessere Architektur.

Ist wohl eine Frage der eigenen Erfahrungen. Ich hatte Probleme mit AMD Treibern, aber auch mit Nvidia Treibern.

Ich sag jetzt mal Optimus wäre ein Zuspruch für Nvidia im Mobilen Umfeld, aber dort reicht mir auch eine HD4000...
Ergänzung ()

riDDi schrieb:
Irgendwann musste der Bruch kommen. Sie können nicht ewig jede Generation 50% Leistungszuwachs bringen. Sonst sind wir bald bei 3x8-Pin und Quad-Slot-Turbinen, die niemand mehr kauft. Ich denke es ist eindeutig, dass die Produktion eines derartig großen Chips im 28nm-Verfahren extrem teuer ist, sonst gäbe es schon längst Tesla-Karten und nicht erst in 2 Monaten. Im HPC-Bereich zählt Leistung/W und da punktet ein großer, langsam taktender Chip.

absolut.

Zudem macht es Marktwirtschaftlich in einem neuen Prozess auch keinen Sinn 500mm² rauszuhauen außer man wäre absolut gezwungen.

Was will man dann bis 20nm bringen? 700m²... ?

Was AMD als auch Nvidia macht ist die Kunden am Ball behalten. Man bringt meist einen kleineren Chip der neuen Fertigung und legt dann größer nach. Mit 4D/5D waren hier die AMD Chips im Vergleich zur Konkurrenz noch klein, ich denke mit der HD89XX werden wir einen großen Chip bei AMD sehen, bei weitem nicht so groß wie der GK110, aber größer als der RV770 / 870.
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Cape Verde (bzw Chelsea / Heathrow) liegt Effizienzmäßig gleichauf mit GK107. Im CB Test ist da eindeutig ein Unentschieden über alle 3 Lastergebnisse! Ich weiß nicht wo du da ein 15% besseres P/W Verhältnis rausliest.

Ein Unentschieden? 2:1 ist kein Unentschieden...
Die OEMs verbauen GK107, weil er wesentlich effizienter ist. Wenn man mit 1050MHz auf dem Niveau einer Karte mit 800MHz ist, dann hat man einen riesigen Spielraum für nach unten. Der ist bei AMD eben nicht mehr gegeben.

Selbst Apple ging zurück zu nVidia. Das sollte schon ausreichen, um zu sehen, dass GK107 in dieser Runde einfach das bessere Produkt darstellt.
 
@Sontin

Die kumulierten Verbrauchswerte (GTX650: 439W, HD7750: 429W - jew Gesamtsys) sprechen da eine andere Sprache!;) Bedenke auch, dass die HD7750 kein Vollausbau des Chips darstellt, somit die 7770 runtergetaktet auf das (Leistungs-)Niveau einer GTX650 bestimmt keine schlechte Effizienz aufweisen würde.
Wie dem auch sei, die Effizienz ist auf einem Niveau.

Die Effizienz der Karten interessieren die OEMs übrigens eher peripher.
Da spielt nicht zuletzt auch der Preis für die Chips (Stichwort Rabatte) eine viel wichtigere Rolle was verbaut wird. (Beide Hersteller wollen ja nur unser "Bestes");)
 
Sontin schrieb:
GK107 ist deutlich effizienter als Cape Verde. Sieht man alleine an den Desktopkarten, wo die GTX650 bei gleicher Leistung zur 7750 weniger Strom benötigt. Hier reden wir von knapp 15% besserem Perf/Watt Verhältnis.
Warum vergleichst du es nicht mit GTX 640, der im Gegensatz zu GTX650 schon Mitte 2012 Realität war?

Oder zählt der nicht, weil Nvidia damals mit dem GK107 trotz 4 Monate Verspätung nicht effizienter sein konnte als HD 7750 und vielleicht noch eine Respin brauchte?

Deswegen gibt es nur sehr, sehr weniger Cape Verde in Notebooks.
Und dass AMD wenige 28nm-Wafer ist natürlich kein Grund oder?

Krautmaster schrieb:
@aylano

ich denke du malst wie so oft hier zu sehr schwarz / weiß an.

Die eine GPU ist z.B. klar für effizientes Gaming konzipiert, die andere eher für den HPC Bereich.

Der GF100 in der GTX480 hat beim Spielen "nur" 50% Mehrleistung gebracht bei ebenfalls gestiegenem Verbrauch, du verkennst aber, dass der Schritt im Chipdesign locker 100% + an HPC Leistung brachte, sozusagen der Einstieg für Tesla überhaupt war.

Dass eine solche Karte wenig effizient im Gaming Umfeld ist ist ebenfalls abzusehen.

Peinlich ist wohl eher dass du nicht begreifst um was es bei GPGPU / HPC geht. Es geht nicht darum einen Spitzenwert in den Raum zu stellen.
Was ist das für ein Schwachsinn.
Nvidia stiegt schon mit G80 in den Tesla-Markt und Nvidia hatte eben quasi seit G80 die GCN-Grundstruktur. Aber G80 war völlig für Tesla-Markt uninterssant, weil G80 kein ECC und Double-Precise hatte. Wennst was von Architetur verstehst, wüsstest du, dass man dazu keine GCN oder G80-Struktur bräuchte. Vorallem, wenn R600 schon Double-Precise konnte.

Du verkennst, dass GT200 in Double-Precise dem RV770 (80 vs 240 GFlops) total unterlegen war und deshalb GF100 erheblich in Double-Precise aufholen musste, was ihm wegen dieser Zusätzlichen GPGPU-Einheiten in Games Infeffizienter macht.

Bitte erkläre anderen Leuten nicht etwas, was du selber offensichtlich nicht verstehst und dir irgendwas zusammenreimst.

Hier von besseren "Double-Precise-Raten" zu sprechen ist also lächerlich und nur eine Seite der Medallie...
Klar, GK110 verbaut erstmals und als einziger Extra Double-Prcise-Einheiten.
Nvidia ist genauso lächerlich wie ich, während du wie immer allwissend bist.

oder warum hat AMD auf GCN gewechselt?
Ich hab dir es schon erzählt.
Weil AMD die GPU zuerst als HSA nutzen will und später vielleicht sogar in die CPU selber.
Dafür ist das VILW-5 nicht geeignet, weil einem hochentwickelte fetten CPU-Front-End mit einem extrem Schlanken GPU-Front-End überhaupt nicht zusammenpasst.

1D / GCN lässt sich schlicht besser auslasten und bringt in der Vielzahl der Anwendungsmöglichkeiten die höhere Durchschnittsleistung. Vorallem für deine genannte heterogene HSA Architektur wichtig. Deswegen GCN.
Daran und mit der 4D/5D-Bezeichnung erkennt einer der bisal Architektur-Ahnung hat, dass du überhaupt keine Ahnung hast. VILW-5 hat zwar eine geringe Auslastung, aber dafür ist der Stromverbrauch und Platzverbrauch eines VILW-5-Shaders erheblich kleiner.

Das 4D/5D Design ist zwar effizient, aber bei Computing Aufgaben extrem unflexibel und instabil.
Das 4D/5D-Hardware-Desgin war umhaupt nicht instabil.
Dass Nvidias GPGPU-Software erheblich besser war, lag eben daran, dass sie schon 3-5 Jahre vor AMD intensive die Software entwickelten.

Bitte lern einmal die GPU-Grundlagen. Das ist ja nicht auszuhalten.
Einfach den Tesla-G80, Tesla-GT200 und Double-Precise zu ignorieren, machen deine Aussagen blöderweisen nicht richtiger.
 
Ich finde die These äußerst abenteuerlich, dass Nvidia so viele billige Mobilchips ohne Gewinnspanne verkauft, dass sie nicht ein paar Dutzend Wafer für äußerst lukrative Tesla-Chips übrig hätten.
"Tut mir leid, ich hatte keine Zeit Diamanten zu verkaufen, die Glasperlen gehn gerade so gut".
 
Zuletzt bearbeitet:
Zurück
Oben