News Nvidia stellt Tesla K20 (Kepler) mit GK110-GPU vor

N.t.H. schrieb:

Und was hat das mit dem benötigen einer Glaskugel zu tun? Das war/ist ein logischer Schritt gewesen. Man wusste mit Sicheheit bereits vorher das man mit einer einzigen GPU nicht gegen den GK110 bestehen können wird. Einfach zwei GPUs auf ein PCB zu bauen ist einfacher als eine GPU mit mehr Performance zu entwicklen wie es nVidia getan hat.
 
Sontin schrieb:
Vergleiche das mit Tahiti und du siehst, dass GCN eben eine Architektur ist, die selbst im Kerngebiet "Compute" schlecht darsteht.
Häh??? Hast du überhaupt eine Ahnung was eine Architektur ist? :freak: Mit GCN kann man doch auch die ROPS, TMUs usw. erhöhen..

Klar, Tahiti ist weniger leistungsfähig als Big Kepler, weil GK110 eben riesig ist (er hat 35% mehr Transistoren) und deshalb auch mehr DP-Einheiten hat. Das hat aber nichts mit der Architektur an sich zu tun. Ein "Big Tahiti" könnte AMD mit der GCN Architektur ebenso fertigen...

Dr. MaRV schrieb:
Einfach zwei GPUs auf ein PCB zu bauen ist einfacher als eine GPU mit mehr Performance zu entwicklen wie es nVidia getan hat.
Naja, sie wollten wohl die Zeit bis zur HD8970 überbrücken. Die wird wahrscheinlich in etwa 2-3 Monaten veröffentlicht... vielleicht konnte AMD die DP Leistung stark verbessern und verzichteten deshalb auf ein "Big Tahiti"... Who knows.
 
Zuletzt bearbeitet:
Ja AMD könnte ... könnte ... könnte ... mal einen Erfolg als GPU Lieferant im HPC Markt feiern.

Nur ist das schon ein Weilchen her und momentan denkt man da eher an Nvidia Produkte als an das AMD Zeugs.

Oder an Intels Xeon Phi, aber immer noch nicht an AMD. :rolleyes:
 
CHAOSMAYHEMSOAP schrieb:
Ja AMD könnte ... könnte ... könnte ... mal einen Erfolg als GPU Lieferant im HPC Markt feiern.
Naja, wir diskutieren eigentlich über die GCN und Kepler Architektur, haste aber wahrscheinlich wieder nicht verstanden. Na egal, lese dir alles nochmal in Ruhe durch. ;)

Übrigens: vielleicht.... vielleicht..... vielleicht...... wird die S10000 einen Erfolg werden.
Wenn sich Schrott wie Intel's Xeon Phi verkaufen lässt, dann die klar überlegenen FirePros erst recht.:rolleyes:
 
dlux schrieb:
Häh??? Hast du überhaupt eine Ahnung was eine Architektur ist? :freak: Mit GCN kann man doch auch die ROPS, TMUs usw. erhöhen..

Klar, aber AMD hat es nicht gemacht. Wir leben hier nicht in der Konjunktivwelt.

Klar, Tahiti ist weniger leistungsfähig als Big Kepler, weil GK110 eben riesig ist (er hat 35% mehr Transistoren) und deshalb auch mehr DP-Einheiten hat. Das hat aber nichts mit der Architektur an sich zu tun. Ein "Big Tahiti" könnte AMD mit der GCN Architektur ebenso fertigen...

Mal so eine Frage: Wenn die S9000 jetzt schon 225 Watt verbraucht, was glaubst du, wird eine Karte verbrauchen, dessen Chip nochmal 40% mehr Transistoren besitzt? :freak:

AMD kann es eben nicht. Stromverbrauch ist der limitierende Faktor und nicht Chipgröße. nVidia kann - und nicht könnte - ein 7,1 Milliarden Transistormonster produzieren, der mit gerademal 4,4% mehr Strom 62% mehr Leistung erbringt.

AMD dagegen benötigt für 16% mehr Leistung gleichmal 60% mehr Strom.

Aber nach dir könnte AMD auch die S10000 mit 235 Watt produzieren, stimmt's?
 
Sontin schrieb:
Klar, aber AMD hat es nicht gemacht. Wir leben hier nicht in der Konjunktivwelt.
Nvidia hätte auch die GTX680 vor der HD7970 veröffentlichen können, haben sie aber nicht gemacht. Nvidia könnte die nächste Generation auch vor AMD veröffentlichen - werden sie aber auch nicht können.

Tja.

Sontin schrieb:
Mal so eine Frage: Wenn die S9000 jetzt schon 225 Watt verbraucht, was glaubst du, wird eine Karte verbrauchen, dessen Chip nochmal 40% mehr Transistoren besitzt? :freak:

AMD kann es eben nicht. Stromverbrauch ist der limitierende Faktor und nicht Chipgröße. nVidia kann - und nicht könnte - ein 7,1 Milliarden Transistormonster produzieren, der mit gerademal 4,4% mehr Strom 62% mehr Leistung erbringt.

AMD dagegen benötigt für 16% mehr Leistung gleichmal 60% mehr Strom.

Aber nach dir könnte AMD auch die S10000 mit 235 Watt produzieren, stimmt's?
looool, nach deiner Rechung müsste eine "Big GTX680" mit etwa 7 Milliarden Transistoren (etwa 2x GK104) um die 400W verbraten. Und die HD7870 müsste viel mehr verbrauchen als die GTX660 (die HD7870 ist aber sparsamer)! LOL :freak: Selten habe ich so ein Mist gelesen. Liest du überhaupt was du schreibst - oder hast du wirklich keine Ahnung?

Du hast einfach nicht verstanden wie Chips funktionieren - du hast einfach keine Ahnung. Eine Diskussion mit die ist schlicht gesagt einfach sinnlos. :evillol:
 
AMD "könnte" mit einem riesen Chip wie dem GK110 gut die Leistung steigern bei gleichem Stromverbrauch. Durch mehr Recheneinheiten kann der Takt gesenkt werden und somit der Stromverbrauch gesenkt werden. Das gleiche hat NVidia mit dem GK110 gemacht und das selbe macht Intel mit Haswell. Die vielen Einheiten brauchen Fläche aber durch geringeren Takt wird Strom gespart.

Zu sagen Kepler ist besser als GCN geht mir zu weit. Man kann höchstens sagen AMD hat einen Fehler gemacht die "Profi-Karten" so spät zu releasen. Theoretisch hätte der Chip ja schon im April kommen können und in 2 Monaten schon neue auf Sea Island Basis.
NVidia veröffentlicht ihren Chip erst da wo man ordentlich Gewinn macht.
 
Genau das ist es, was hier ziemlich paradoxt erscheint: AMD könnte jenes und dieses. AMD macht es jedoch nicht.

Der Sinn ihrer Strategie ist es, kleine Dies zu produzieren, dessen Flächennachteil durch einen "hohen" Takt ausgeglichen wird. Das ist okay im Consumermarkt, wo Fläche gleichzusetzend mit Kosten ist. Im Workstation und Servermarkt spielt es dagegen keine Rolle, da die Kosten hier zum Großteil durch Support und Garantien bestimmt wird.

GK110 wäre auch erheblich kleiner, wenn nVidia den ganzen unnützen Kram wie bei AMD auf ein Minimum reduzieren würde: 8 statt 16 TMUs pro SIMD, 2 statt 5 Rasterizer, 32 statt 48 ROPs, 2 statt 15 Geometrieeinheiten und -pipelines, 32 statt 60 Pixelpipelines, 768kb statt 1536Kb L2 Cache usw...
 
Warum AMD den Consumer Markt bevorzugt obwohl man ja strategisch sagt, man will im Server/Workstation Bereich Fuß fassen weiß ich auch nicht.

Der "unnütze Kram" ist vielleicht noch drauf um die Karte auch später als GeForce zu verkaufen.
 
Sagt mal habt ihr irgendwie auch nur Ansatzweise bedacht dass ihr hier eine fast 1 ( EIN ) -JAHR alten Chip mit einem brandneuen vergleicht ? und gleich wieder auf " oh Nvidia liefert das bessere Produkt"- macht , jetzt bedenkt, es ist klar dass Nvidia das bessere Produkt liefert, jedoch ein Jahr zu spät ! ist dieselbe Geschichte wie beim bulldozer, etwas übertrieben aber es hat diverse Ähnlichkeit, die Produkte sollten man nciht so gnadenlos vergleichen ^^, frühestens wenn die neue AMD Genration auf dem Markt ist wird Nvidia genauso Blöd dastehen ! :D
 
Zuletzt bearbeitet:
Fishlike schrieb:
Warum AMD den Consumer Markt bevorzugt obwohl man ja strategisch sagt, man will im Server/Workstation Bereich Fuß fassen weiß ich auch nicht.
Ganz einfach: AMD will seiner Rolle als ewiger Versager gerecht werden.

Darum schaffen sie es ja auch sowohl im Consumer- als auch im Servergeschäft die Kunden zu vergraulen.

Oder sie können Wettbewerbsvorteile (77xx Serie) nicht ausnutzen, verramschen ihre Produkte zu Billigstpreisen und wundern sich danach über rote Zahlen.

Aber mit den ARM CPUs kommt bestimmt der Aufschwung. So wie mit Faildozer, den APUs, der 7xxx Serie und HSA.

Also nur weiter so AMD! :evillol:
 
Dr. MaRV schrieb:
MrEisbaer schrieb:
Na mal sehen was AMD den neuen nVidia Karten entgegenzusetzen hat, dürfte wieder sehr interessant werden.
Die S9000 ist noch keine 8 Wochen auf dem Markt, was denkst du warum sie jetzt die S10000 angekündigt/vorgestellt haben, das ist bereits der Konter auf nVidias K20X.
Ich denke, AMD wird auch diesesmal nichts entgegensetzten, da ich die Software-Entwicklung wichtiger sehen als etwas verbesserte Performance-pro-Watt.
Ich vermute, dass sie sogar Sea-Island wie die 6000er-Serie im Server-Markt auslassen werden, weil die Sea-Island mehr in Front-End-Verbesserung liegt, was AFAIK eine geringere Performance-pro-Watt @ Server bedeutet.

Fürs erste reicht einmal, wenn sie mit Nvidia mithalten können, und sich voll (20nm-Hardware & OpenCl-HSA-Software) konzentrieren. Schließlich ist der Abstand wegen ECC & C++ und besseren OpenCL-Unterstützung deutlich reduziert worden.
Nicht umsonst konnte AMD @ Top500-GPGPU-Server zulegen, während Nvidia @ Top500-GPGPU-Server trotz Spitzenplatz einen Rückgang verzeichnen musste.
 
Fishlike schrieb:
Tahiti ist im Gegensatz zu GK110 ja eigentlich auch schon ein alter Hut und ein wirklich kleiner Chip. AMD hat eben eine andere Politik als NVidia und released zuerst Consumer Chips. Theoretisch könnte AMD aber ja schon in 2 Monaten mit Sea Island nachlegen. Die Chips wären immer noch kleiner als der GK110 aber von der Leistung ähnlich.

Und wieso hat dann ein soviel kleinerer Chip, der genau aus diesem Grund eigentlich besser zu fertigen ist im Vergleich zu dem Monster GK110 die deutlich schlechtere P/W Ratio? Die S9000 sieht weder bei der Rohleistung noch in der P/W Ratio Land gegen die K20 oder die K20X.

Und das Argument das die Chips alt sind zählt auch nicht so wirklich, die S9000 wurde vor 2 Monaten oder so vorgestellt.

Ich versteh garnicht wie manche schreiben können, uh AMD ist aber besser oder so...was für zahlen sehn die Leute?


Und btw 7970 >>> 680. Also ich bin weder noch Fanboy...aber Fakten sind Fakten.
 
Auslieferung in 2 Wochen?

wers glaubt wird seelig.

Die gefakten fotos zeigen doch das noch nichteinmal die Referenzkühlung fertig ist, diese ist lediglich in das Foto montiert. Sicherlich können sie dann chips an die Partner ausliefern und ein paar vorserienboards an die OEMs für Vorzeigeprojekte. Aber solange man uns nur ein Rendering des fertigen Produkts auftischt ist man noch weit entfernt von Verfügbarkeit am Markt.
Eigentlich dachte ich, nvidia müsste das besser hinbekommen mit dem fotorealistischen rendering - das schafft ja selbst ein Erstsemester Designer besser mit der Global Illumniation. Die gezeigten Fotos sind 100prozentig ein Fake!
Ergänzung ()

Wums schrieb:
Und das Argument das die Chips alt sind zählt auch nicht so wirklich, die S9000 wurde vor 2 Monaten oder so vorgestellt.

Du schreibst es ja selber, wenn es um Chips geht ist Tahiti schon reichlich alt, vor allem dafür, dass jetzt eine neue SKU darauf aufgelegt wird. Ist aber eben auch keine Firestreamkarte, also gar nicht der Konkurrent für die teslakarten. Normalerweise kann man solche reinen computingkarten vor den consumerkarten bringen weil der treibersupport minimal ist. Wegen der schlechten Verfügbarkeit von 28nm Chips hat AMD aber wohl erstmal darauf verzichtet, möglicherweise fehlt es aber auch an zahlungskräftigen OEMs die einen HPC cluster damit zu bauen bereit sind. Der wirkliche gegner für die K20 wird wohl eher aus dem Sea-Islands Lager kommen.

FirePro sind Workstationgrafikkarten mit besonderen OpenGl Treibern. Die späte Verfügbarkeit dieser karten rührt von der Software her, nicht von der Hardware - das war schon immer so. Der gegenspieler ist hier nvidias Quadro - dort ist der releasezyklus ähnlich verzögert.

Die FirePros in einem Diagramm zusammen mit Teslas darzustellen ist Blödsinn, Workstations und Server sind etwas anderes als Supercomputer. AMD nennt offsite rendering für citirix/vmware etc. als Anwendungszweck, das ist wohl kaum der Zweck eines supercomputers...
In das Diagramm gehören die FireStream karten, eine völlig andere Produktlinie die rein auf Rechenleistung und nicht auf Bildausgabe optimiert sind. Wie üblich werden diese Karten in der Regel als Rohdesign an große OEMs lizensiert und gar nicht oder kaum im Retail vertrieben. FirePro dagegen sind ganze Referenzlösungen undauch als normale Retailkarten erhältlich.
 
Zuletzt bearbeitet:
CHAOSMAYHEMSOAP schrieb:
Oder an Intels Xeon Phi, aber immer noch nicht an AMD. :rolleyes:

Mhh ... Intels Xeon Phi mit 2/1 TFLOPs (SP/DP) bei 300 Watt TDP, sieht schlechter aus als Nvidia und AMD.

Sontin schrieb:
Mal so eine Frage: Wenn die S9000 jetzt schon 225 Watt verbraucht, was glaubst du, wird eine Karte verbrauchen, dessen Chip nochmal 40% mehr Transistoren besitzt? :freak:

Nicht mehr als 270 Watt.

AMD kann es eben nicht. Stromverbrauch ist der limitierende Faktor und nicht Chipgröße. nVidia kann - und nicht könnte - ein 7,1 Milliarden Transistormonster produzieren, der mit gerademal 4,4% mehr Strom 62% mehr Leistung erbringt.

Je Größer der Chip desto effizienter wird man. Schau dir mal K20 und K20X an. Gerade mal 4% höhere TDP für 7% mehr Cores, 4% mehr Takt und 20% größeres Speicherinterface und Speicher.

Interessant wird es ob AMD mal eine HPC-Karte bringt, die auch die GCN-Architektur voll ausnutzt, sprich 1/2 der SP-Leistung für FP64 statt nur 1/4. Dann wird die Effizienz für DP auch deutlich besser. Bei der SP-Leistung/Watt ist man nur minimal hinter Nvidia.
 
Was man hier so liest ist furchtbar. Nvidia braucht mal wieder so ein Monsterchip wie Thermi damals und eine Gen weiter um einen alten AMD microchip zu schlagen SUPER!! Ich habe beide karten und habe keine Präferenz aber Nvidia ist mir langsam aber sicher viel zu arrogant, Cuda wird genauso sterben wie Firewire und Esata und wird durch HSA ersetzt ist wie USB 3.0......
 
K20X ist effizienter, weil die Chips besser gebint werden. K20X hat ja keinen anderen Chip. Der Vergleich hinkt.

AMD nutzt gerade die GCN-Architektur voll aus. Es gibt keine Ausprägung, die 2:1 (SP:DP) beherrscht. Und natürlich wird sie dann nicht effizienter - siehe Fermi. Es hat schon sein Grund, warum nVidia auf 3:1 gegangen ist, nachdem man 2:1 noch so toll angepriesen hat beim Fermi Debüt ende 2009.
 
Matzegr schrieb:
Mhh ... Intels Xeon Phi mit 2/1 TFLOPs (SP/DP) bei 300 Watt TDP, sieht schlechter aus als Nvidia und AMD.
Es gibt auch 225W mit über 1 DP GFLOP (5110P), aber in Sachen DP-GFLOPs/Watt ist Intel mal wieder nur Dritter. Dafür bietet Phi andere Vorteile.
 
Zurück
Oben