News Gerüchte zu finalen Spezifikationen zu Nvidias Tesla K20 (GK110)

Dazu zwei Punkte:

1. Vertragserfüllung. Ivy Bridge stand vor der Tür, man musste den Launch bedienen und das anscheinend in Massen
2. Yield. GK110 wäre wohl nicht herstellbar gewesen zu vernünftigen Preisen vor einem halben Jahr. $6000 Wafer verschwendet man so ungern.

Ich meine aber dass das Mobilsegment absolut nichts mit GK110 zu tun hatte. GK110 war nach dem Fermi-Debakel ziemlich sicher immer für später geplant, nämlich erst dann, wenn er technisch und ökonomisch gescheit herstellbar ist. Eben jetzt fängt es damit an. Wenn, dann hatten die Lieferungen von Mobilchips Auswirkungen auf die Lieferbarkeit von GK104. Wer da GK110 reinwürfelt, hat keine Ahnung.
 
@ alyano

ähm ja...

gerade zitierst du noch:

Krautmaster schrieb:
@aylano

ich denke du malst wie so oft hier zu sehr schwarz / weiß an.

Die eine GPU ist z.B. klar für effizientes Gaming konzipiert, die andere eher für den HPC Bereich.
...
Dass eine solche Karte wenig effizient im Gaming Umfeld ist ist ebenfalls abzusehen.

... um es als "Schwachsinn" zu betiteln, um dann zwei Sätze später zu erwähnen, dass die zusätzlichen GPGPU Einheiten die Karte in Games ineffizienter machen...

aylano schrieb:
Was ist das für ein Schwachsinn
....
total unterlegen war und deshalb GF100 erheblich in Double-Precise aufholen musste, was ihm wegen dieser Zusätzlichen GPGPU-Einheiten in Games Infeffizienter macht.

Bitte erkläre anderen Leuten nicht etwas, was du selber offensichtlich nicht verstehst und dir irgendwas zusammenreimst.

:rolleyes:

Klar, GK110 verbaut erstmals und als einziger Extra Double-Prcise-Einheiten.
Nvidia ist genauso lächerlich wie ich, während du wie immer allwissend bist.

als ob ich das behauptet hätte... lol. Zumal. Was sind bei dir " Extra Double-Prcise-Einheiten" :rolleyes:
Anstatt hier immer auf DP rumzureiten was nur ein ein Bruchteil über die Computing Leistung aussagt, wie wärs denn mal mit Werten deiner genannten GPUs?

Nenn mir doch mal ne handvoll in Anwendungen gemessene Werte bei denen zB ein RV770 mit seinen astronomischen DP gegen den GF100 oder wegen mir auch einen G200 antritt.

Das 4D/5D-Hardware-Desgin war umhaupt nicht instabil.
Dass Nvidias GPGPU-Software erheblich besser war, lag eben daran, dass sie schon 3-5 Jahre vor AMD intensive die Software entwickelten.

die Software ist aber das Entscheidende. 4D/5D bieten wie ich schrieb, die höhere Leistungsdichte und Effizienz, aber die Software kommt nicht von ungefähr - genau deshalb der Schritt zu GCN wie du selbst erkannt hast. Im Einzelfall ist 5D aber ganz hervorragend geeignet wie man ja an Bitcoins sieht. Das ist wie immer das Spiel mit dem CISC / RISC Anteil... entweder du machst immer nur eine Aufgabe und diese extrem schnell, oder du wirst immer mehr zum "Multitool", dass aber die einzelnen Aufgaben weniger perfekt beherrscht.

Mit "instabil" meinte ich schlicht, dass was du auch angesprochen hast. Es gab schlicht wenig Software was die im Bestfall hohe DP Leistung der AMD Chips abschöpfen konnte. Daran ist aber nicht die Software Schuld, sondern auch das Design selbst. Genau deswegen sind theoretische maximal DP Werte bei solchen Designs auch relativ sinnfrei außer man hat diesen Fall der Anwendung der diese Leistung auch abschöpfen kann.

Daran und mit der 4D/5D-Bezeichnung erkennt einer der bisal Architektur-Ahnung hat, dass du überhaupt keine Ahnung hast. VILW-5 hat zwar eine geringe Auslastung, aber dafür ist der Stromverbrauch und Platzverbrauch eines VILW-5-Shaders erheblich kleiner.

VILW-5 hat nicht die geringste Auslastung. Auslasten kann man alle Architekturen. Nur ist es bei GCN einfacher, und einfach ist wichtig eben für die Software die damit was anfangen soll. Und einfach muss es auch bei HSA sein.


Edit:

P.S: Das muss man sich mal geben, wir posten hier nur im Kontext dessen, dass du hier her kommst und in der News zu K20 alles niederpredigst, was beim GK110 alles falsch gelaufen sein könnte und falsch laufen wird- was wäre wenn er im wenn er im Desktopsegment kommt und wie toll deine Analysen auf ein spekuliertes Q4 2012 waren ^^

Nicht Nvidia steht hier mit dem Rücken zur Wand. AMD tut es. Auch den GK104 musste man mit der Ghz Version kontern und zurecht denn wie man sieht macht auch die Grafiksparte eine nicht so gute Figur.

Ganz unabhängig davon, dass beide Architekturen zZ praktisch gleich gut sind.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@ alyano
... um es als "Schwachsinn" zu betiteln, um dann zwei Sätze später zu erwähnen, dass die zusätzlichen GPGPU Einheiten die Karte in Games ineffizienter machen...
Der Schwachsinn bezog sich darauf.
Die eine GPU ist z.B. klar für effizientes Gaming konzipiert, die andere eher für den HPC Bereich.
Sowie deine miese Unterstellung, dass ich das verkenne.
Ich verkenne garnichts, sondern du weil du verkennst, dass Nvidia bis zum GF100 einen Double-Precise-Krüppel hatte.

Jetzt habe ich es eh schon mehrmals gesagt und du kapierst es halt immer nicht, weil du eben keine Ahnung von GPU-Architekturen hast, aber große Sprüche von dir gibts.

[/QUOTE]
als ob ich das behauptet hätte... lol. Zumal. Was sind bei dir " Extra Double-Prcise-Einheiten" :rolleyes:
[/QUOTE]
Warum sollte ich dir jetzt die Kepler-Architektur erklären. Einen Scheiß mach ich. Wenn du nicht fähig bist, etwas selbst zu lernen, ist das dein Problem.

Anstatt hier immer auf DP rumzureiten was nur ein ein Bruchteil über die Computing Leistung aussagt, ...
Krautmaster, bitte das schnell Nivdia sagen.
Nvidia ist so unfähig, weil sie Double-Precise in GT200 einführten.
Nvidia ist so unfähig, weil sie Double-Precise in GF110 verfierfacht haben.
Nvidia ist so unfähig, weil sie Double-Precise in GK110 mit extra-Einheitn zwei bis Verdreifacht haben.

Auchja, Krautmaster, bitte dein Unendliches Wissen auch den Tesla-Kunden sagen.
http://scr3.golem.de/screenshots/1009/Nvidia-Roadmap/thumb480/Nvidia-Roadmap-2.jpg
Dass man vor 2 Jahren Tesla-Kepler-Kunden AUSSCHLIEßLICH mit Double-Precise-Performance gelockt hat, musste du bitte den Unfähigen Tesla-Kunden erzählen.
Denn diese Akatemiker haben wirklich keine Ahnung, wie sie mit vielen Mio. $ Gelder umgehen sollten, während der angebliche Krautmaster-Studenterl ihnen ja die Wirklichkeit erzählen könnte.

Übrigens, wenn du mal diese Folie ansiehst, dann würde man einen Tesla-Kepler mit 2-3 Fach höhere Double-Precise bzw. DP-Flops per Watt noch 2011 erkennen.
Dass Tesla-Kepler mit etwas über 2 Fach 1 Jahr später kam, zeigt die ganze Dramatik des GK110.

... wie wärs denn mal mit Werten deiner genannten GPUs?
Habe ich eh in Posting #58
Du verkennst, dass GT200 in Double-Precise dem RV770 (80 vs 240 GFlops) total unterlegen
Dass du mit diesen Zahlen nichts anfangen kann, zeigt halt deine Unwissenheit über die GPU-Architektur, denn sonst hättest du genau jene Daten gemerkt, die du jetzt nachgefragt hast. Dir muss einmal wer mal meinen Text erklären, weil dir ist nichteinmal bewusst, dass du viele Kontext-Verbindungen völlig übersiehst und ich es für dich in diesem Thread schon ständig wiederholt habe.

P.S: Das muss man sich mal geben, wir posten hier nur im Kontext dessen, dass du hier her kommst und in der News zu K20 alles niederpredigst, was beim GK110 alles falsch gelaufen sein könnte und falsch laufen wird- was wäre wenn er im wenn er im Desktopsegment kommt und wie toll deine Analysen auf ein spekuliertes Q4 2012 waren
Warum sollte ich das nicht dürfen, nachdem GK110 eher 4Q 2012 sah und nicht wie viele Experten im 2Q 2012 oder gar 4Q 2011?

Wie wäre es wenn du eigene Prognosen aufstellst, anstatt laufend herumklugzuscheißern.
Und da rede ich von konkreten % oder Performance-pro-Watt oder TDP oder einem Quartel und nicht deine üblichen Nichtssagenden Prognosen wie "Hoffen, Beten, etwas, Plus-Minus-25%, usw usw.

Nicht Nvidia steht hier mit dem Rücken zur Wand. AMD tut es. Auch den GK104 musste man mit der Ghz Version kontern und zurecht denn wie man sieht macht auch die Grafiksparte eine nicht so gute Figur.
Leute die eine Ahnung von Architektur haben, hatten sich erwartet, dass AMD aufgrund der frühen Einführung nochmal kontern kann, während Nvidia schon beim ersten GK104 alles rausquetscht und nachher nicht mehr drauflegen konnte.

Reserven und somit Konter-Möglichkeiten zu haben sowie die Erreichung der Single-GPU-Krone ist normalerweise was positiv nicht negativ. Blöd für Nvidia, dass sie erstmals auf der negativen Seite war, weil in den letzten Jahren konnten sie immer Kontern.
 
wenn viele Leute lieber das 2. schnellste Produkt kaufen wollen.

Langt offensichtlich aus, meinste nicht?

Das selbe hörte ich auch laufend,

Von mir ganz bestimmt nicht. ;)
Solche Geschichten sind - es sei denn man verfügt über hard facts und insiderwissen - immer Spekulationskrams. Ich hab beides nicht und nehme mal an das es bei dir nicht anders sein wird. Ergo -> Spekulation.

Nvidia 7000er-Serie gilt ja auch als Flop, weil er nicht die schnellste Top-Karte hatte.

Die 7800 GTX z.B.? Die hab ich eher als Shaderkrüppel in Erinnerung.

Nö, das waren Einmal-Abschreibung wegen defekten Mobilen Grafikkarten.

Und? Es ging um das angekratzte Image von nV UND den damit verbundenen Kosten. Ich bleibe bei meiner Ansicht das Bumpgate und massenweise ausfallende Laptops in dieser Hinsicht viel schlimmer für nV waren als GF100. Apple hat ja auch dementsprechend Reagiert und nV für ne gute Weile rausgeschmissen.

Die 480/470 waren laut und viel zu warm, ja. Aber sie funktionierten.

Damals war Nvidia sehrwohl mit CUDA und PhysX erheblich mächtiger

Und wo habe ich irgendwas derartiges bezweifelt? :lol:

Und ja, Nvidia hat Fiananziell nachgelassen.

AMD bekommt Intel-Kohle, nV bekommt Intel Kohle.
nV lässt nach und unterm Strich steht nV dennoch finanziell besser da als AMD, hast du in deinem "wenn wenn wenn" Marathon sogar selbst zugegeben. ;)

a) Ist HD 8000 keine neue Architektur

Das muss auch gar nicht so sein.
Fehler können immer passieren, siehe Intels Chipsatzdebakel.
Und das von Intel und bei einem 08-15 Element im Chip.

kann man heute HD 8000 viel besser einschätzen als früher, da man aus der Vergangenheit von HD2000 bis HD 7000 die Entwicklungsmöglichkeiten gut sehen kann.

Nutzwert?
Ich schaue mir die Karten dann an, wenn sie im Regal stehen.
Die, die insgesamt am "rundesten" ist, wird gekauft.
 
Evader schrieb:
Langt offensichtlich aus, meinste nicht?
Soll es mir recht sein,
aber dann hatte eben jene alle unrecht, die behaupteten, dass Nvidias erheblich größeren Marktanteil & Umsatz/Gewinn durch solche Performance-Kronen gerechtfertigt haben.
Behauptungen sollen immer funktionieren und nicht nur immer in genau jene spezifischen Vergleich, den man zufällig gerade vergleicht.
Ich hatte das mit der Performance-Krone & Co ja akzeptiert.

Von mir ganz bestimmt nicht. ;)
So ist es, weil ich nicht DU bewusst weglies.
Nur werden viele aussagen heute nicht besser, die für einen GK100 @ April 2012 schon permanent gesagt wurden.

Und? Es ging um das angekratzte Image von nV UND den damit verbundenen Kosten. Ich bleibe bei meiner Ansicht das Bumpgate und massenweise ausfallende Laptops in dieser Hinsicht viel schlimmer für nV waren als GF100. Apple hat ja auch dementsprechend Reagiert und nV für ne gute Weile rausgeschmissen.
Bei mir geht es die ganze Zeit um operative Gewinne/Verluste, weil unvorhergesehenerweile Einmalzahungen dann grundsätzlich keinen Einfluss auf die zukünftige Entwicklungen hatte. Ich hatte diesen Defekt nicht als Image-Schaden gesehen.
GF100 selber war eher ein großer Image-Schaden. Der Finanzielle Schade erfolgte durch die massive Verspätung der Low-ENd & Mainstream-Versionen die praktisch teils 12 Monate nach AMD am Markt kamm. Theoretisch früher, aber die wenigsten OEMs bauten sie dann noch extra nur für den Weihnachts-Geschäft ein.
Wobei Finanzieller Schaden nicht immer gleich ein Minusgeschäft bedeuet. Mit Finanzeller Schaden ist auch gemeint, wenn langfristig über Quartale 30-50% weniger eingenommen wird.

Nutzwert?
Ich schaue mir die Karten dann an, wenn sie im Regal stehen.
Die, die insgesamt am "rundesten" ist, wird gekauft.
Wenn ich Produkte erst bewerte und den Wert erst dann erkenne, wenn sie im Regal stehen, dann belehre ich mit Könnte, möglich & Co eben nicht andere Leite, die schon länger versuchen zukünftige Produkte anhand der Architektur-Daten zu spekulieren.;)
 
aylano schrieb:
Warum vergleichst du es nicht mit GTX 640, der im Gegensatz zu GTX650 schon Mitte 2012 Realität war?

Oder zählt der nicht, weil Nvidia damals mit dem GK107 trotz 4 Monate Verspätung nicht effizienter sein konnte als HD 7750 und vielleicht noch eine Respin brauchte?

Was erzählt du für ein Schwachsinn? GK107 wird seit Januar produziert und befindet sich seit April in Notebooks. GK107's Mission war die Eroberung der Ivi Bridge OEM Deals. Und das hat nVidia erreicht. Für nichts anderes war der Chip gedacht. Man hat AMD komplett überrumpelt. Schon erstaunlich, dass soetwas offensichtliches, so schwer zu sehen ist...

Achja Mister: Im aktuellen Test bei Ht4U.de ist die GT640 bei gleichem Stromverbrauch 7% schneller als die 7750 mit GDDR3: http://ht4u.net/reviews/2012/msi_radeon_hd_7750_2gb_ddr3_test/index36.php

Hoho. :evillol:

Und dass AMD wenige 28nm-Wafer ist natürlich kein Grund oder?

Was interessiert es, dass AMD "weniger 28nm-Wafer ist"? Wenn AMD kein Geld hat, sind sie selbst schuld. Dann hätte AMD eben ein anderes Konzept der Veröffentlichung ihrer Grafikkarten wählen sollen. Der Konkurrent mit weniger Umsatz hatte keine Probleme seine Ressourcen gewinnbringend einzusetzen.
 
aylano schrieb:
Ich verkenne garnichts, sondern du weil du verkennst, dass Nvidia bis zum GF100 einen Double-Precise-Krüppel hatte.
schön, aber laut eigener Sache war das AMD DP Prachtstück ja dank fehlender Software praktisch unnütz, und so sah es auch in der Realität aus.


Jetzt habe ich es eh schon mehrmals gesagt und du kapierst es halt immer nicht, weil du eben keine Ahnung von GPU-Architekturen hast, aber große Sprüche von dir gibts.

:rolleyes:

Krautmaster schrieb:
als ob ich das behauptet hätte... lol. Zumal. Was sind bei dir " Extra Double-Prcise-Einheiten" :rolleyes:

Warum sollte ich dir jetzt die Kepler-Architektur erklären. Einen Scheiß mach ich. Wenn du nicht fähig bist, etwas selbst zu lernen, ist das dein Problem.
naja ich hätte schlichtgern die folgende Aussage von dir erklärt:

aylano schrieb:
Klar, GK110 verbaut erstmals und als einziger Extra Double-Prcise-Einheiten.
Nvidia ist genauso lächerlich wie ich, während du wie immer allwissend bist.

lass uns doch an deinem HPC / Architekturwissen zu GK110 teilhaben ^^ und erkläre mir diese "Extra Double-Prcise-Einheiten."

Es ist vollkommen klar dass Nvidia die DP Leistung vorantreibt. Natürlich mit Anpassungen auf Architekturebene. Über den Satz

aylano schrieb:
Nvidia ist genauso lächerlich wie ich, während du wie immer allwissend bist.

muss ich immernoch etwas schmunzeln... erschließen tut er sich mir aber nicht.

genauso...

aylano schrieb:
Krautmaster, bitte das schnell Nivdia sagen.
Nvidia ist so unfähig, weil sie Double-Precise in GT200 einführten.
Nvidia ist so unfähig, weil sie Double-Precise in GF110 verfierfacht haben.
Nvidia ist so unfähig, weil sie Double-Precise in GK110 mit extra-Einheitn zwei bis Verdreifacht haben.

hä, bitte was?! Was ist denn dass für ne (hrinlose) Auflistung? So langsam erschließt sich mir die letzte Aussage s.o. doch...:freak:

aylano schrieb:
Auchja, Krautmaster, bitte dein Unendliches Wissen auch den Tesla-Kunden sagen.
http://scr3.golem.de/screenshots/1009/Nvidia-Roadmap/thumb480/Nvidia-Roadmap-2.jpg
Dass man vor 2 Jahren Tesla-Kepler-Kunden AUSSCHLIEßLICH mit Double-Precise-Performance gelockt hat, musste du bitte den Unfähigen Tesla-Kunden erzählen.
Denn diese Akatemiker haben wirklich keine Ahnung, wie sie mit vielen Mio. $ Gelder umgehen sollten, während der angebliche Krautmaster-Studenterl ihnen ja die Wirklichkeit erzählen könnte.

Was hat das jetzt mit dem Thema zu tun? Du tust gerade so als ob ich DP Leistung als nicht relevant hingestellt hätte ^^ ich habe gesagt, dass reine DP nur eine Seite der Medaille ist, die Software muss durchweg auch hohe DP auf Anwendungsfälle ermöglichen, was bei der vergangenen AMD als auch den älteren Nvidia Architekturen kaum möglich war und im Rahmen von HSA musste AMD auf GCN wechseln, was auch absolut okay und gut gelungen ist.

Wenn max theoretische DP alles ist, warum dann GCN? Weil beste Rohleistung nichts bringt wenn sie die Software nur selten anwenden kann.

aylano schrieb:
Übrigens, wenn du mal diese Folie ansiehst, dann würde man einen Tesla-Kepler mit 2-3 Fach höhere Double-Precise bzw. DP-Flops per Watt noch 2011 erkennen.
Dass Tesla-Kepler mit etwas über 2 Fach 1 Jahr später kam, zeigt die ganze Dramatik des GK110.

vllt gehts nur mir so, aber ich erkenne hier keine "Dramatik" auf Nvidia Seite.

Wie gesagt, zeig mir doch mal Werte anstatt zu schwafeln. Auf was kommt denn eine Tahiti und was kommt bei beispielhaften Anwendungen dabei heraus? Links bitte. Keine Werbefolien von Nvidia anno 2009.

aylano schrieb:
Habe ich eh in Posting #58
Du verkennst, dass GT200 in Double-Precise dem RV770 (80 vs 240 GFlops) total unterlegen
Dass du mit diesen Zahlen nichts anfangen kann, zeigt halt deine Unwissenheit über die GPU-Architektur, denn sonst hättest du genau jene Daten gemerkt, die du jetzt nachgefragt hast. Dir muss einmal wer mal meinen Text erklären, weil dir ist nichteinmal bewusst, dass du viele Kontext-Verbindungen völlig übersiehst und ich es für dich in diesem Thread schon ständig wiederholt habe.

auch hier sag ich nur, dass reine GFlop werte genauso unbrauchbar sind. Du tust so als hätte AMD die Faktor 3 genialere Architektur gefahren da 3x Flops - und wo hat man diesen Vorteil ausgespielt? Auch ja, ich vergaß. Es gab keine handvoll Anwendungen die mit den 240GFlop auf der AMD Seite was anfangen konnten...

Ich seh das also schon richtig, dass AMD bei der HD6XXX die Rohleistung von 2.720 GFLOPs bei der HD5870 auf 2.703 GFLOPs bei der HD6970 reduziert hat und dabei 23% an Transistoren zugelegt hat? Warum hat man das wohl gemacht?

https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/2/

Warum hat der Tahiti Chip mit "nur" 40% mehr Flops als Cypress (HD5870) und verbrät dabei 100% mehr Transistoren?

Richtig, weil die Flops von Tahiti besser abgreifbar sind.

Ein Zitat von THG beim GF100 (der ja so der Flop war/ist laut deiner Aussage)

Jetzt ein kleiner Vergleich mit der Radeon HD5000-Serie: Ihr bleibt bei FP64-Berechnungen theoretisch 25% der FP32-Leistung und damit auf dem Papier doppelt so viel wie bei der Nvidia-Karte. Absolut gesehen ist aber die GeForce GTX480 dennoch die schnellere Karte, weil ihre Leistung selbst mit nur 1/4 der vollen Möglichkeiten noch höher als bei der roten Konkurrenz ausfällt.

aylano schrieb:
Warum sollte ich das nicht dürfen, nachdem GK110 eher 4Q 2012 sah und nicht wie viele Experten im 2Q 2012 oder gar 4Q 2011?

ähm. Diese Prognosen trifft man jeweils vom eigenen Standpunkt. Wäre Bulldozer heute vor Ivy Bridge würde ich z.B. Haswell Q2 2013 erwarten, da dem aber nicht so ist eher später (Q4).

beim GK110 ist das ähnlich. Diese "Experten" die von Q2 gesprochen haben, nahmen schlicht an dass bis dahin AMD mehr Konkurrenzdruck macht und dass es die 28nm Fertigung hergibt.

aylano schrieb:
Leute die eine Ahnung von Architektur haben, hatten sich erwartet, dass AMD aufgrund der frühen Einführung nochmal kontern kann, während Nvidia schon beim ersten GK104 alles rausquetscht und nachher nicht mehr drauflegen konnte.

Reserven und somit Konter-Möglichkeiten zu haben sowie die Erreichung der Single-GPU-Krone ist normalerweise was positiv nicht negativ. Blöd für Nvidia, dass sie erstmals auf der negativen Seite war, weil in den letzten Jahren konnten sie immer Kontern.

genau deswegen musste AMD im Desktop-Umfeld mit der Ghz Edition kontern?
 
aylano schrieb:
Nvidia 7000er-Serie gilt ja auch als Flop, weil er nicht die schnellste Top-Karte hatte. Aber die 7000er-Serie war aber effizient und verbrauchte nicht viel Strom.
Der G70 war der Konkurrenz zum Release deutlich überlegen. Die schlechte Presse folgte mit G71 bzw. der Konkurrenz R580, der Erkenntnis, das Schummel AF nicht mehr modern ist und ganz besonders dem genialen Nachfolger G80.
 
Soll es mir recht sein,

Muss es wohl, weils der Wahrheit entspricht.

aber dann hatte eben jene alle unrecht, die behaupteten, dass Nvidias erheblich größeren Marktanteil & Umsatz/Gewinn durch solche Performance-Kronen gerechtfertigt haben.

Was interessiert mich das? Jeden Tag werden X Behauptungen von Y Leuten Aufgestellt, wenn diese damit aufs Maul fallen ist das deren Problem.

So ist es, weil ich nicht DU bewusst weglies.

Siehe oben, wir drehen uns im Kreis.

Ich hatte diesen Defekt nicht als Image-Schaden gesehen.

Apple offensichtlich schon.
Da gab es auch mal nen interessanten Artikel zu von Semiaccurate den du mit Sicherheit kennen wirst.
Bis auf die Notebooks ist nV bis heute quasi überhaupt nicht vertreten.

Wenn ich Produkte erst bewerte und den Wert erst dann erkenne, wenn sie im Regal stehen

Und wie soll das anders gehen? Richtig, gar nicht und das hast du in deinem finalen Satz sogar selbst zugegeben. :lol:

dann belehre ich mit Könnte, möglich & Co eben nicht andere Leite, die schon länger versuchen zukünftige Produkte anhand der Architektur-Daten zu spekulieren

Und das hat mir wer vorzuschreiben?
Du ganz bestimmt nicht auch wenn du das wahrscheinlich anders siehst. ;)
Dieses ganze Spekulationsgehabe ist ohnehin komplett überbewertet und abseits von diversen Foren keinen Pfifferling wert.
Aber wers braucht bzw. meint brauchen zu müssen, bitte. ;)

Ganz ehrlich, es wundert mich nicht wirklich das du mit dieser Form von Diskussionskultur mit Ail auf 3DC zusammengeknallt bist.
 
Sontin schrieb:
Was erzählt du für ein Schwachsinn? GK107 wird seit Januar produziert und befindet sich seit April in Notebooks. GK107's Mission war die Eroberung der Ivi Bridge OEM Deals. Und das hat nVidia erreicht. Für nichts anderes war der Chip gedacht. Man hat AMD komplett überrumpelt. Schon erstaunlich, dass soetwas offensichtliches, so schwer zu sehen ist...
Das erklärt nicht, warum Nvidia die GTX650-Effizienz nicht schon in Juni 2012 oder April 2012 bringen, kann sondern erst 3 Monate später.
Klar sehen die Grafikkarten nach einem Respin besser aus. 10-15% kommt ja schön hin, aber das ist wegen dem Respin begründet.


Achja Mister: Im aktuellen Test bei Ht4U.de ist die GT640 bei gleichem Stromverbrauch 7% schneller als die 7750 mit GDDR3: http://ht4u.net/reviews/2012/msi_radeon_hd_7750_2gb_ddr3_test/index36.php

Hoho. :evillol:
Darf man sonst auch den angeblichen AMD-affienen Ht4U als Quelle nutzen, wenn Nvidia hinten ist bzw. AMD in all den Test überdurchschnittlich gut ist und nur dann wenn Nvidia in all den im netz vorhandenen Test in H4TU überdurchshnittlich gut rüberkommt?

Warum verwendest du nicht das Computerbase-Ergebnis, wo GTX640 eher 7% hinten ist bei gleichen Stromverbrauch?

Meinst du, dass 7% den Unterschied zwischen Himmel und Hölle macht, wo alle OEMs sich auf Nvidias GK107 stürzen?

Was interessiert es, dass AMD "weniger 28nm-Wafer ist"? Wenn AMD kein Geld hat, sind sie selbst schuld. Dann hätte AMD eben ein anderes Konzept der Veröffentlichung ihrer Grafikkarten wählen sollen. Der Konkurrent mit weniger Umsatz hatte keine Probleme seine Ressourcen gewinnbringend einzusetzen.
AMD hat einen gesunden Cash-Flow und Liquidtät und könnte sehrwohl sehr viele 28nm-Wafer kaufen, wenn es welche gäbe.

Unyu schrieb:
Der G70 war der Konkurrenz zum Release deutlich überlegen. Die schlechte Presse folgte mit G71 bzw. der Konkurrenz R580, der Erkenntnis, das Schummel AF nicht mehr modern ist und ganz besonders dem genialen Nachfolger G80.
Ich muss sagen, dass ich in der Zeit des G70/G71 mich stärker mit Computer-Technik beschäftigte. Mir ist nur der hängengeblieben, dass G71 gegen R580 (= AFAIK Mega-Shader-Moder mit 3x so viel Shader) sehr schlecht aussah.
Ich sagte ja, dass die 7000er Serie von Nvidia effizent war, und der Ruf schlechter war als es der Realität entsprach. Denn G71 war zwar langsam, aber R580 war entsprechend stromfressender. Da eben damals der Stromverbrauch in GPUs kein Thema war, sah G71 damals viel schlechter aus als heute mit anderen Ansichten (Performance-pro-Watt statt Performance-Only.)
---
Das ist der Grund, warum man alte Generation heute neu bewerten muss. Denn manche Flops von damals mit damaliger Ansicht (Performance-Only) würde man heute anders betrachten (Performance-pro-Watt).
Denn dann versteht man auch, warum eine Firma aus manchen Flops (schwache Performance aber sehr sparsam = eigentlich gute Effizienz = Nvidia 7000er-Serie) schnell herauskam und bei manchen Flops nicht (geringere Performance bei gleichen Stromverbrauch = R600/RV670-Ära)

Die ganze Nvidia 600er-Serie kann natürlich kein Flop werden, weil GK107 & GK104 schon draußen sind und gut mithalten werden.
GK110 kann aber ein Flop werden, falls es passieren mag. Nicht wegen der Architektur, sondern weil zu viele GPGPU-Einheiten drinnen sind, die ein zu schlechtes Performance-pro-Watt und zu schlechte Yield führen kann.

Bei einer Beurteilung einer ganzen Architektur muss man auch die Skalierierung der Architektur beachten. Nur weil die Architektur im Low-End/Mainstream-Bereich effizienz ist, muss das noch lange nicht auch für den Performance/High-End-Bereich gelten.

Und eines muss ich auch klar stellen.
Ein (High-End) Flop hat bei Nvidia nicht automatisch die selben Auswirkungen bei AMD. Vorerst kann es bedeuten, dass sie einige Quartale keinen Gewinn machen. Aus AMD-Sicht ware das nicht dramatisch, aber aus Nvidia Sicht sehrwohl.
 
aylano schrieb:
Meinst du, dass 7% den Unterschied zwischen Himmel und Hölle macht, wo alle OEMs sich auf Nvidias GK107 stürzen?

Die 7% machen den Brei nicht fett ja. Viel entscheidender werden hier andere Kriterien sein, wie z.B die Situation des Zulieferers. AMDs Situation kann man gerade als nicht wirklich "gesund" bezeichnen, ich will nicht sagen, dass AMD jeden Monat Konkurs anmelden kann, aber die Investoren und Gewinne bleiben zunehmend aus und das betrifft auch die Grafiksparte.

Da überleg ich mir als OEM zweimal ob ich das Risiko eingehe irgendwann absehbar gegen die Wand zu fahren und eventuell keine GPU mehr geliefert zu bekommen.

Was die Marktanteile angeht kann man grob abschätzen:

http://geizhals.de/?cat=nb

bei den dez. GPUs gibt es 618 NBs mit AMD GPU Chip, 1261 bei Nvidia.

Bei den neuen Serien ist es etwas ausgeglichener...

HD 7 Serie gibt es 407 Modelle während mit Nvidia Chip GT und GTX Serie 6 auf 679 Modelle kommen.

Funktioniert bei aktuellen dez. Mobile GPU eigentlich das PowerTune automatisch? Also wie Optimius bei Nvidia aber sozusagen das Gegenprodukt dazu. Da sollte doch was neues kommen oder? Find ich bei Notebooks schon auch ein Argument. Gerade bei dez. GPUs.
 
Definition Fanatismus:
Fanatismus im engeren Sinn ist durch das unbedingte Fürwahrhalten der betreffenden Vorstellung und meistens durch Intoleranz gegenüber jeder abweichenden Meinung gekennzeichnet. Der Fanatiker will häufig andere von seinen Ansichten überzeugen („missionarischer Eifer“), lässt jedoch seinerseits keinerlei Zweifel an der Richtigkeit und dem besonderen Wert seiner Überzeugungen zu. Vielmehr verteidigt er sie gegen jede Infragestellung und ist dabei einer vernünftigen Argumentation nicht zugänglich. Die betreffende Vorstellung ist seinem kritischen Denken bzw. Reflexionsvermögen entzogen. Damit verbundene negative Konsequenzen für sich selbst oder andere werden als solche nicht erkannt bzw. anerkannt.
http://de.wikipedia.org/wiki/Fanatismus

Schauen wir uns doch mal einige Punkte in dem Posting an, von denen er so fest überzeugt ist:
Respin von GK107
Der Chip auf der GT640 Karte von CB wurde in der 3. Woche 2012 produziert und war A2. Der Chip auf der GTX650 wurde in der 28. Woche 2012 produziert und war A2.

Ergebnis: Kein Respin.

Erkenntnis: Es wird sich einfach etwas ausgedacht, dass zur eigenen Überzeugung passt, selbst wenn es nicht der Tatsache entspricht und jederzeit nachprüfbar ist.


Verweis auf falschem Testbericht
HT4U hat nichts weiteres getan als mal ihren veralterten Treiberstandard nachzubessern. Und schwupps haben sich die Ergebnisse zu gunsten von nVidia geändert. Da verstehe jemand, was dir an aktuelleren Treiber so missfällt...
Gleichzeitig wird auf einem angeblichen Test bei Computerbase hingewiesen, wo es keine 7750 mit GDDR3 Speicher gibt...

Ergebnis: HT4U hat die selben Spiele verwendet, die vor der Treiberaktualisierung vorhanden waren. Doch plötzlich sind die Ergebnisse nicht mehr empfehlenswert... Gleichzeitig muss aber dringend die Aussage negiert werden, wodurch auf ein Scheintest verwiesen wird.

Erkenntnis: Tests sind immer nur so gut, wie das Ergebnis der eigenen Hardware. :evillol:


AMD wollte mehr 28nm Wafer
Lustige Aussage. Ironischerweise hat AMD in den CC zu Q1 und Q2 2012 jeweils mitgeteilt, dass sie keine Probleme mit der Liefersituation ihrer 28nm GPUs haben und zufrieden waren. Da können wir jetzt darüber philosophieren, ob AMD also entsprechend Zugriff zu genug Wafer hatte oder nicht, Fakt ist, dass AMD mit der Stückzahl nach ihren Aussagen in keiner Lieferschwierigkeiten gelaufen sind und somit jede Nachfrage nachgehen konnten

Ergebnis: AMD hat genug 28nm Wafer für ihre Prognose erhalten

Erkenntnis: Selbst wenn die "eigene" Firma das Gegenteil öffentlicht äußert, wird trotzdem versucht Gründe für bestimmte Ereignisse zu suchen, die eben die Situation positiv darstehen lassen.


Und da wundert sich Cr4y im anderen Thread noch, warum man auf solche Postings nicht "freundlicher" eingeht. Es macht kein Sinn, da Realität eben keine Bedeutung hat.
 
Sontin schrieb:
Ergebnis: HT4U hat die selben Spiele verwendet, die vor der Treiberaktualisierung vorhanden waren...

Oh Mann Sontin!:freak:
Der Hauptgrund warum sich bei ht4u das Gesamtrating in Richtung Nvidia verschoben hat begründet Peter Gräber in folgendem Kommentar:
Ergänzung ()

Sontin schrieb:
AMD wollte mehr 28nm Wafer
Lustige Aussage. Ironischerweise hat AMD in den CC zu Q1 und Q2 2012 jeweils mitgeteilt, dass sie keine Probleme mit der Liefersituation ihrer 28nm GPUs haben und zufrieden waren. Da können wir jetzt darüber philosophieren, ob AMD also entsprechend Zugriff zu genug Wafer hatte oder nicht, Fakt ist, dass AMD mit der Stückzahl nach ihren Aussagen in keiner Lieferschwierigkeiten gelaufen sind und somit jede Nachfrage nachgehen konnten

Ergebnis: AMD hat genug 28nm Wafer für ihre Prognose erhalten...

Zumindest die OEMs hätten gerne mehr 28nm Karten in Q1 und Q2 verkauft. Anbei ein paar Links (die ja von dir nie kommen!), welche das belegen:
+
Insofern liegt dein Gegenüber augenscheinlich doch nicht so daneben.;)
 
Krautmaster schrieb:
schön, aber laut eigener Sache war das AMD DP Prachtstück ja dank fehlender Software praktisch unnütz, und so sah es auch in der Realität aus.
Sage ich ja, dass Nvidia ein DP-Krüppel war und deine Arugmente falsch waren, weil GF110 eine neue Architektur-struktur bekam.

naja ich hätte schlichtgern die folgende Aussage von dir erklärt:
Logisch, da du keine Ahnung von GPU-Architekturen hast, müsste man dir viel erklären.
Aber immerhin hast du jetzt nach mehrmaligen Erklären begriffen, dass Double-Precise doch wichtig ist und nicht ich sondern du verkanntest die Schwächen von Nvidias bisherigen GPUs in Tesla Markt.

lass uns doch an deinem HPC / Architekturwissen zu GK110 teilhaben ^^ und erkläre mir diese "Extra Double-Prcise-Einheiten."
Warum sollte ich dir nach deinen falschen Unterstellungen auch noch etwas erklären.
Zwar hat es halt bei dir lange gebraucht bis du erkanntest, dass du völligen Schwachsinn redest, weil du Double-Precise als völlig unwichtig darstellt, aber das konnten halt die wenigen Wissenden schon lange sehen.

Wenn du mal lernst selbsttändig zu lernen, dann tretest du nicht ständig ins Fettnäpfchen. Ich muss sowieso über dich lachen, dass du nichteinmal die Wichtigkeit von Double-Precise erkennst, obwohl du ja ein möchtegerne TU-Informatik/Feritgungstechnik (oder so)-Stundent sein magst. Weiß du. Studenterln müssen auch fähig sein alleine lernen/recherchieren zu können.

Und tun nicht so, als ob mir deine ständigen Anfeindungen gegen mich nicht auffallen.

hä, bitte was?! Was ist denn dass für ne (hrinlose) Auflistung? So langsam erschließt sich mir die letzte Aussage s.o. doch...:freak:
Passend zu deiner Aussage.
Nicht ich erstellte diese GPUs mit deutlich mehr Double-Precise sondern Nvidia. Blöd dass du es halt nicht wusstest, bevor du mir "Verkennung" & Co unterstelltest.
Aber Krautmaster kann halt damit nicht umgehen, wenn er Unsinn erzählt.

Was hat das jetzt mit dem Thema zu tun? Du tust gerade so als ob ich DP Leistung als nicht relevant hingestellt hätte ^^ ich habe gesagt, dass reine DP nur eine Seite der Medaille ist,
Es muss dir halt wer klären, dass Double-Precise das Hauptthema von der Kepler-Hardware ist. Cloud & Co Fähigkeiten sind weitere Features die wenig Platz nehmen und in den bisher aufgebauten Tesla-Markt nichts bringen.
Und weil die Double-Precise-Einheiten viel viel viel viel mehr Platz einnehmen als die zusatz-Features (Cloud & Co) ist das Problem von GK110 in Desktop-Game die ganzen Double-Precise-Einheiten, die eben das Gaming viel ineffizienter machen.

die Software muss durchweg auch hohe DP auf Anwendungsfälle ermöglichen, was bei der vergangenen AMD als auch den älteren Nvidia Architekturen kaum möglich war und im Rahmen von HSA musste AMD auf GCN wechseln, was auch absolut okay und gut gelungen ist.
Topic ist GK110 und bitte lenk nicht mit anderen Themen ab, die in andere Threads gehören.
Wir sprichen hier von Rohperformance in Spiele & GPGPU.
Nur weil AMD es mittels besseren Software @ GPGPU nicht genutzt hat, ist es noch lange nicht kleinzureden.

Für die Games ist es völlig irrelevant, ob AMD mittels Software vor HD 5870 die GPGPU-Rohperformance @ Workstation & HPC nutzen konnte oder nicht. Die GPGPU-Einheiten waren nunmal vorher da und AMD hatte halt vorher seine Hausaufgaben gemacht.

Wenn max theoretische DP alles ist, warum dann GCN? Weil beste Rohleistung nichts bringt wenn sie die Software nur selten anwenden kann.
Dafür braucht man ein Architetkur-Verständnis, warum manche Front-End nicht gut (= Effizienz) zusammenarbeiten, wenn die in den nächsten Jahren so zusammenschmelzen, dass sie sich die Daten gegenseitig teilen/zugreifen.

vllt gehts nur mir so, aber ich erkenne hier keine "Dramatik" auf Nvidia Seite.
Wundert mich nicht, weil du Double-Precise als Unwichtig für Tesla sahst und GF110 wegen öh??? warum auch immer, die eigentlich Tesla-GPU war.

Wie gesagt, zeig mir doch mal Werte anstatt zu schwafeln. Auf was kommt denn eine Tahiti und was kommt bei beispielhaften Anwendungen dabei heraus? Links bitte. Keine Werbefolien von Nvidia anno 2009.
Warum sollt ich dir die Double-Precise-Rohperformance von Thaiti erklären, damit du mir erzahlen kannst, dass ich ständig schwafel?
Warum erzählst du ständig, dass GK110 um so viel besser ist, wenn du nicht einmal weißt, was Thaiti leistet??
Das sind typische Anfeindungen gegen mich. Weil wenn es dir wirklich um GK110 und Thaiti geht, dann wüsstest du längst die ganzen Zahlen kennen und mir erzählen und nicht mich auffordern dir ständig die Zahlen zu bringen.

auch hier sag ich nur, dass reine GFlop werte genauso unbrauchbar sind. Du tust so als hätte AMD die Faktor 3 genialere Architektur gefahren da 3x Flops - und wo hat man diesen Vorteil ausgespielt? Auch ja, ich vergaß. Es gab keine handvoll Anwendungen die mit den 240GFlop auf der AMD Seite was anfangen konnten...
Im HPC-Markt gehts nur um DP-Performance.
Wieviele HPCs wurden damals mit G80 ohne DP ausgestattet?
Öh ich glaube, das war nur eines.

240GFlops bei Thaiti ist übrigends falsch.
Sea-Island wird übrigends weitere GPGPU-Features besitzen. Also verbeiß dich nicht zu sehr in den Wunder GK110, sonst kommst du wieder schwer raus, wenn Sea-Island wieder mit den Features nachzieht.

ähm. Diese Prognosen trifft man jeweils vom eigenen Standpunkt. Wäre Bulldozer heute vor Ivy Bridge würde ich z.B. Haswell Q2 2013 erwarten, da dem aber nicht so ist eher später (Q4).
Es war der Standpunkt von Nvidia, dass GK110 in Mai 2012 kommen sollte.
Meine Prognosen basierten auf der Vergangenheit wo Nvidias Big-Dies ebenfalls erhebliche Verspätungen passierten.

beim GK110 ist das ähnlich. Diese "Experten" die von Q2 gesprochen haben, nahmen schlicht an dass bis dahin AMD mehr Konkurrenzdruck macht und dass es die 28nm Fertigung hergibt.
Nö, es gibt Leute, die haben eine direkt-Verbindung zu solchen Firmen.
Und manche Gerüchteseiten ebenfalls.
Die Ausreden, dass Nvidia es nicht nötig hat hochproftable zu sein, ist wirklich sehr lächerlich. Nvidia hat die GPUs Tesla-Tauglich gemacht, um noch profitabler zu sein und nicht ihr Leben aufregender zu machen, weil es denen vielleicht viel zu langweilig sind.

genau deswegen musste AMD im Desktop-Umfeld mit der Ghz Edition kontern?
Mussten nicht, aber sie wollten und AMD hatte die Möglichkeit von Mitte 2012 bis so März 2013 die schnellste Single-GPU-Performance-Krone zu besitzen.

Sontin schrieb:
Definition Fanatismus:
Richtig, Krautmaster begann in Posting #44 gegen mich auf einmal eine feindliche Hetze mit folgenden Worten
ich weiß nicht in welcher Welt du lebst, ...
Leider wird sowas zugelassen.

Schauen wir uns doch mal einige Punkte in dem Posting an, von denen er so fest überzeugt ist:
Respin von GK107
Der Chip auf der GT640 Karte von CB wurde in der 3. Woche 2012 produziert und war A2. Der Chip auf der GTX650 wurde in der 28. Woche 2012 produziert und war A2.
Die Ablenkung mit GK107 ist typisch für dich, um dir die Probleme mit GK110 schön zu reden.
Außerdem bist du noch nicht eingegangen, warum aufeinmal 7% Performance/Effizienz-Unterschied aufeinmal der Unterschied zwischen den Megavielen-Desgin-Wins bei Nvidia und Megawenigen-Desgin-Wins bei AMD ausmachen.

Verweis auf falschem Testbericht
Deine Erbsenzählerei, ob es jetzt 4 oder 7% Unterschied waren ist gigantisch.
Aber du hast immer noch nicht erzählt, warum du nicht die Computerbase-Testsergebnisse verwendest! Siehst du eine GK107-Verschwörung bei Computerbase?

AMD wollte mehr 28nm Wafer
Lustige Aussage. Ironischerweise hat AMD in den CC zu Q1 und Q2 2012 jeweils mitgeteilt, dass sie keine Probleme mit der Liefersituation ihrer 28nm GPUs haben und zufrieden waren.
Genau diese Leute sagten auch, dass schon HD 7970 leistungsfähiger war als GTX680.
Diese Ansicht hast du nicht vertreten.
Warum sagen sie einmal eine eindeutige Wahrheit und ein anderersmal nicht?

Bist du schon mal auf die Idee gekommen, dass TSMC zumindestens es schaffte, die AMD-Bestellungen auch liefern zu können, damit AMD alle OEM-Versprechnungen erfüllen kann?

Da können wir jetzt darüber philosophieren, ob AMD also entsprechend Zugriff zu genug Wafer hatte oder nicht, Fakt ist, dass AMD mit der Stückzahl nach ihren Aussagen in keiner Lieferschwierigkeiten gelaufen sind und somit jede Nachfrage nachgehen konnten
Dass AMD nicht mehr Wafer wollte, wird wohl jeder als Märchen abstempeln.

Und da wundert sich Cr4y im anderen Thread noch, warum man auf solche Postings nicht "freundlicher" eingeht. Es macht kein Sinn, da Realität eben keine Bedeutung hat.
Und? Immerwieder fragen mich Leute, warum Computerbase Sontin & Krautmaster erträgt, die absichtlich Diskussionen stören.

Ich habe keine Probleme mit der Realiät, eher Krautmaster, der das 1x1 der GPU-Architektur vorne und hinten nicht weiß.
Oder in Sontin Realität wäre HD 7970s-Preis wegen GTX680 schon 1-2 Monaten nach der Einführung auf unter 300$ gefallen und GK110 hätte im Mai/Juni 2012 dann HD7970 entgültig in die Schranken verwiesen, weil HD7970 gegenüber HD6970 lächerliche +30% zulegt, während Nvidias Big-Dies (GT200 & GF100) immer bei der Einführung 50-60% zulegte.

Warum sollte meine Realität verhindert werden, ????
die eben eine GK110-Verspätung auf eigentlich nur maximal 4Q 2012 sah. 4Q 2012 hört sich nicht viel war, aber wenn so manche Nvidia-Experten sich bei einer GK100 @ 2Q 2012 - Einführung so verdammt sicher waren, dann hat man auch entsprechende Bewertungen bekommen, wenn man 4Q 2012 auch nur etwas erwähnt hat.
 
Athlonscout schrieb:
Oh Mann Sontin!:freak:
Der Hauptgrund warum sich bei ht4u das Gesamtrating in Richtung Nvidia verschoben hat begründet Peter Gräber in folgendem Kommentar:

Aktuelle Treiber. Hat sich ja auch niemand aufgeregt als HT4U einen 3-4 Monate alten Treiber für nVidia-Karten verwendet hat, wo die neueren in Batman 2 und Dragon Age 2 mehr Leistung brachten. Und wenn die neusten Treiber Probleme machen, dann ist es die Schuld des Herstellers. Ergo kein Argument und vorallem kein "nVidia biased".

Ergänzung ()

Zumindest die OEMs hätten gerne mehr 28nm Karten in Q1 und Q2 verkauft. Anbei ein paar Links (die ja von dir nie kommen!), welche das belegen:
+
Insofern liegt dein Gegenüber augenscheinlich doch nicht so daneben.;)

COnference Call Q1 - Kurzfassung:
Rory P. Read - Chief Executive Officer, President, Interim Chief Sales Officer and Member of The Board of Directors

28-nanometer has been -- is a very important part of our business. As you may know, we're the first company that has launched our entire desktop discrete graphics product set on 28-nanometer. And I can tell you that within the first quarter, we were able to deliver on all of our customer commitments in that Graphics segment.

Sanjay Chaurasia - Nomura Securities Co. Ltd., Research Division

This is Sanjay Chaurasia. My first question is on 28-nanometer. Some of the industry participants have talked about capacity issues in 28-nanometer. My question is, are you seeing any impact to your Graphics business from this? And what are you seeing go ahead in 28-nanometer?

Rory P. Read - Chief Executive Officer, President, Interim Chief Sales Officer and Member of The Board of Directors

28-nanometer has been -- is a very important part of our business. As you may know, we're the first company that has launched our entire desktop discrete graphics product set on 28-nanometer. And I can tell you that within the first quarter, we were able to deliver on all of our customer commitments in that Graphics segment. What we're doing is we're monitoring this closely. We believe that a focus on execution consistently, day in and day out, will yield better returns and better execution. We think that, from our perspective, that we have the execution in place, the relationships with our key foundry partners to deliver on our 28-nanometer product ramp. Of course, we're going to monitor it. We're going to track it week in and week out to make sure. And we do hear some of the information in the quarter. We believe that we can deliver our base plan and our commitments to the customers. Right now, we're looking to the ability to reach upside. That's what's probably holding us back on the 28-nanometer going forward. But again, we're focused on going after that and we have the execution and plans in place, Sanjay.

Thomas Seifert - Chief Financial officer, Principal Accounting officer and Senior Vice President

Let me put some color on that, too. As you heard from Rory, we met all of our customer commitments in the first quarter. When demand is strong and your product is good, this opens up opportunity for upside. And that is an area where we would like to see more velocity, to be very honest, and that's why we have to monitor the situation very carefully. We meet commitments, we are limited on upside, and that is not a good situation when your product is good and demand is strong.
http://seekingalpha.com/article/512...arnings-call-transcript?page=4&p=qanda&l=last

Conference Call Q2
Uche X. Orji - UBS Investment Bank, Research Division

Just real quick, I just wanted to clarify the weakness in desktops. Was it just CPU? Was it also a problem with graphics in desktop channel products?

Rory P. Read - Chief Executive Officer, President, Interim Chief Sales Officer and Member of The Board of Directors

Graphics enjoyed -- had a solid quarter. It was within seasonal expectation and history. We saw good performance out of our next-generation 28-nanometer products and we have strong supply there. We did not see issues in terms of the graphics space in terms of that, where the big issue in terms of the quarter, and that is largely in our control, is around the Desktop business in the channel around CPUs and around the APU product.
http://seekingalpha.com/article/734...arnings-call-transcript?page=5&p=qanda&l=last

Noch fragen Meister? Keine Probleme bzgl. der Liefersituation der 28nm Grafikkarten zwischen Januar und Juni 2012.
 
Zuletzt bearbeitet:
Nachdem AMD mit den Treiber ordentlich zulegen dürfte, sieht die Sachen für GK110 bzw. Nvidia weiter etwas ungünstiger aus.
https://www.computerbase.de/2012-10/bericht-amd-catalyst-12.11-beta/2/

Fast +5% im Gesmt-Ranking ist für eine Treiberentwicklung enorm.
Aber das wundert nicht, da GCN recht neu ist und mehr Treiber-Entwicklungs-Potential drinn ist als bei Nvidia, die schon viel länger an dieser Architektur optimieren.

Das interessante ist, dass das Hardware-Potential dann bei GCN 2.0 (alias HD 8000er) ebenfalls größer ist als bei der Konkurrenz.

Kurz zusammengefasst.

1) Mit den Treiber konnte AMD etwas vom Aktuellen Nvidia-Single-GPUs davonziehen und im Vergleich zu einem zukünftigen so +50% GK110 etwas aufholen.
https://www.computerbase.de/2012-10/bericht-amd-catalyst-12.11-beta/2/

2)
AMD könnte beim nächsten Treiber-Update (Feb 2013) ebenfalls wieder so eine Performance-Steigerung von so +5% zusammenbringen und so den Druck auf GK110 erhöhren.
Falls dies so kommen mag, könnte dies ein Grund sein, warum die HD 8000er-Serie doch erst in März/April 2013 statt wie früher oft angekündigt im 4Q 2012 kommen, da sie dann in den Einführungs-Benchmarks mit den aktuellesten/schnelleren Treiber getestet werden. Vorallem, muss Nvidia fast schon mit weiteren +5% Performance-Steigerungen rechnen, die die GK110-Einführungen schwieriger machen, was in Worst-Case zu einer weiteren Verspätung um 1Quartal führen kann.

3) Da die GCN-Architektur neu ist, könnte die Architektur-Verbesserung bei GCN 2.0 mehr Effizienz-Steigerung bringen als Nvidias GX xx0 5.0 alias Kepler-Refresh (GK 11x). Kann, muss natürlich nicht.

Mit diesen Betracht-Berücksichtigung sieht der GK110 noch etwas ungünstiger aus.
 
Kommt mir fast so vor, als ob du die Textberge nur schreibst, um AMD schönzureden. Sieht mir alles nach ziemlich vielen "wenns" und "könnte" aus. Naja...

Dafür dass Tahiti XT2 30% mehr Rechenleistung und 50% mehr Bandbreite hat, kommt GK104 doch noch ziemlich gut mit. Ich denke daher nicht, dass der von der Rohleistung deutlich stärkere GK110 mit Sea Islands ein größeres Problem haben wird.
 
boxleitnerb schrieb:
Kommt mir fast so vor, als ob du die Textberge nur schreibst, um AMD schönzureden. Sieht mir alles nach ziemlich vielen "wenns" und "könnte" aus. Naja...
Komischerweise bekomme ich diesen Vorwurf von leuten, die nur meine "wenns" und "könnte" kritisieren, aber nicht meine Rechnungen, wo ich mit konkreten Daten einen möglichen HD 8800 und HD 8900 speklulierte.

Ich habe mir extra diesen Schreibweise "wenn" & "könnte" angewöhnt und nutze sie überproportional, weil ich meine lieben Kritiker ständig meine Texte falsch lesen, indem sie sie gleich als Fakt & Co lesen und nicht als eine Möglichkeit.

Übrigens
du schreibst ja genauso wie ich. Siehe folgenden Absatz.
Ich denke daher nicht, ...
Also müsstest du dir vorkommen, dass du Nvidia schönredest.

Ein Grundproblem von vielen ist, dass wenn sie was nicht verstehen, dass der Grund (Ist es Falsch?; Ist es Schönreden?; ...) beim anderen liegt.

Dafür dass Tahiti XT2 30% mehr Rechenleistung und 50% mehr Bandbreite hat, kommt GK104 doch noch ziemlich gut mit.
Der Unterschied von dir zu mir ist, dass ich mit deiner Aussage nichts anfangen kann und wertlos sehe, weil es einfach Bezugslos ist. Ob der Zahlenvergleich jetzt gut oder schlecht ist, kann man aus diesem Satz nicht erkennen.
Damit man was anfangen kann, müsstest du nicht nur AMD "High-End-Die" mit den Nvidia-"Performnace"-Die vergleichen, sondern auch HD 7870 vs. GK104 und HD 7870 vs. HD 7970. ( GK104 vs. GK110 geht ja nicht.) Und dann müsste man es auch mit so 3 Generation (oder mehr) vergleichen, um nicht nur Zukunftsentwicklungen zu sehen, sondern auch zu sehen, wie diese Abstände in der Vergangenheit waren.
Erst dann kann man (vielleicht mit zusätzlichen Technischen Hintergrund) erkennen, ob man so einen Vergleich für Zukunfts-Prognose nutzen kann.

Natürlich entsteht dann ein Textberg, obwohl man nur 1 Vergleichsmöglichkeit betrachtet hat.
Schönreden sind für mich ein oder zwei-Zeiler, die einfache Behauptungen/Aussagen treffen, und das grundsätzlich ohne nachvollziehbaren Informationen, außer man versucht mit eigenen Recherchen & Informations-Fähigkeit diese Aussage reproduzieren.

Ich denke daher nicht, dass der von der Rohleistung deutlich stärkere GK110 mit Sea Islands ein größeres Problem haben wird.
Grundsätzlich ist diese Behauptung falsch, ohne dass du es merkts.
Es hat schon seinen Grund, warum man viel stärkere Megas-Schiffs-Dieselmotoren nicht nicht in Autos einbaut. Das Problem dabei ist die Physik (Kraft).

In der Chip-Technik liegen die Physikalischen Eigenschaften in der Die-Größen-Herstellung (Yield) und im Stromverbrauch, sodass die Problemen der Die-Größen-Produktion (Kosten) und Stromverbrauch (Watt = Lärm & Betriebskosten) nicht von heute auf Morgen einfach verringert werden kann.
Nur weil Nvidia den Die groß gemacht hat, heißt es nicht, dass er automatisch schneller wird. Denn sie könnten ihn auch zu groß gemacht haben, den sie einfach nicht richtig/vernünftig zu laufen bekommen.
Und genau das ist das entscheidende. Genau dieses Problem hatte ja Larrabee @ 45 & 32nm, dass sogar aufgrund von Image-Gründen zur non-Veröffentlichung führte, obwohl die mit 400W (oder so) mit noch schlechten Yields wahrscheinlich eh etwas stärker als die Konkurrenz gewesen wäre.

Dass GK110 es nicht in den Desktop-Game-Markt schafft, daran gehe ich nicht davon aus, obwohl die Möglichkeit besteht. Denn GF110 benötigte schon viel mehr Strom als geplant. Ich denke, das waren so +20% (250 statt 210 oder gar statt 190 (GTX285). Falls Nvidia die 40nm-Fertigung schon als "Worst Case" falls angesehen hat und sich schon in den sehr Kriktischen Bereich bewegten, dann könnten sie vielleicht ernsthafte Probleme bekommen, weil 28nm bisher schon mehr Probleme machte als 40nm.

Grundsätzlich gibt es mehrere Betrachtungspunkte.

G80 ......... 484mm² ... 150W?
GT200b ... 470mm² ... 185W (+23%)
GF110 ..... 520mm² ... 250W (+35%)
GK110 ..... 550mm² ... 300W? (+20%) bis 350W? (+40%)

G80 ......... 0,31 W/mm²
GT200b ... 0,39 W/mm² (+26%)
GF110 ..... 0,48 W/mm² (+23%)
GK110 ..... 0,55 - 64 W/mm² (+15% - +33%)

Grundsätzlich schätze ich GK110 zwischen 300W (Best-Case) und 350W (Worst-Case) ein, wo die Tendenz aufgrund der Stromverbrauch- und Strom-pro-Watt-Steigerungen in den beiden Listen eher auf so 320W tendieren.

Wobei ich selbst den HD8900 garnicht so rosig sehe, den ich mit 2 Big-Grafik-Engines und 40 CUs einschätze. Mit 8CUs*6mm² = 48mm² und so 25mm² für die Big-Front-End, würde es auf die bisher spekulierten 440mm².
8CUs und 1 Grafik-Engine entspricht fast Thaiti (HD 7970) & Cape Verdi (HD 7770)
http://de.wikipedia.org/wiki/AMD-Radeon-HD-7000-Serie
Zusammen brauchen sie 210+75= 285W-Spiele. Somit würde ich HD 8970 zwischen 250W und 300W-Spiele einschätzen, wo die Tendenz bei 275-285W liegen könnte. Zwar hat die Rechnung mit Cape Verde 2 CUs und eine 64bit-SI zu (und UVD 3.0) zu viel, aber AMD könnte die Takte steigern und das könnte wieder den Stromverbrauch steigern (siehe Giga-Herz-Thaiti), was man eigentlich (siehe Vergangenheit) anzunehmen muss.

Gegen so einen hohen Stromverbrauch des HD 8970, würde ein bisher in den Medien spekulierter HD 8800 mit so 280mm² @ 32CU auf 150W sprechen.
Mit der Betrachtung 440mm²/280mm²*150W , würde das ein HD 8970 @ 1050 Mhz mit 235W bedeuten. Das wäre zu schön um wahr zu sein (Best-Case)
HD 8800 vs HD 7700 mit 280/212*120W = 158W ---> HD 8970 @ 1000 Mhz --> 248W Das entspricht ziemlch genau meinen Best-Case.

Kurz gesagt,
HD 8970 (= Thaiti @ 1050 Ghz + 25% CUs = 15+25% = 40%) könnte 40% schneller als GTX680 sein und einen Stromverbrauch zwischen 250-300W (Spiele) haben.
GK110 soll +50% schneller als GTX680 sein bei 300-350W.

Auch wenn GK110 schneller sein mag, wäre es mit dieser Berechnung 150/140 nur ein 7%iger Vorsprung gegenüber einen HD 8970. Aufgrund des eventuellen größeren Stromverbrauchs-Potential (im Mittel 50W bzw. asynkron 0 bis 100W) könnte HD 8970 mit +10% mehr Takt (1100-1150Mhz) vielleicht doch noch die Krone über den Stromverbrauch hohlen.
Deshalb wundert es mich nicht, dass ein HD 8970 nach dem GK110 kommen soll, während ein HD 8800 sich mit einem bekannten GTX680 und somit gut einschätzbaren GTX680-Refresh zuerst bzw. schon früher anlegen kann.

G80 ......... 90nm ... 1,0 Jahr nach RV515, RV530 & R520 (320mm²)

GT200A ... 65nm ... 1,0 Jahr nach RV630 (150mm²) & RV610 (80mm²) - Non-Takt-Zielerreichung
GT200B ... 55nm ... 1,5 Jahr nach RV630 (150mm²) & RV610 (80mm²) - Takt-Zielerreichung
GF100 ..... 40nm ... 1,0 Jahr nach RV740 (140mm²) - Non-Takt-Zielerreichung
GF110 ..... 40nm ... 1,5 Jahr nach RV740 (140mm²) - Takt-Zielerreichung

GK110 ..... 28nm ... 1,00 Jahr nach GK107 (120mm²) --> April 2013
GK110 ..... 28nm ... 1,25 Jahr nach Thaiti (360mm²) ---> April 2013
GK110 ..... 28nm ... 1,50 Jahr nach GK107 (120mm²) --> Juli 2013

Kurz gesagt,
Nvidias Big-Dies kamen immer schon 1 ("bis 1,5") Jahr nach ATI/AMD. Während G80 gut lief, hatten GT200 und GF110 nach einem Jahr noch Probleme und nach 1,5 Jahren waren sie ausgereift.
Es wäre überraschend, wenn GK110 1 Jahr (= in 2-3 Monate) nach AMD ohne Probleme daherkommt.
Es wäre im nichteinmal so überraschend, wenn GK110-Non-Problema erst in Juli 2013 kommen würde.

Das Problem ist, dass selbst 1 Jahr nach AMD immer noch kein GK110 dahertanzt, was kein gutes Bild über GK110 gibt. Vorallem sprechen die Gerüchte, dass GK110 vs HD 8970 mit nur so +7-10% nicht mehr diesen Performance-Vorsprung haben könnte, wie sie es beim GT200 und GF110 (jeweils +15%) gehaupt haben.

Eigentlich hatte ich mich viel eher auf die HD 9970 vs GTX 880 Begegnung gefreut, wo AMD mit neuer Fertigung immer schon etwas im Vorteil war, aber es deutet sich an, dass selbst HD 8970 vs GK110 ebenfalls sehr spannend werden kann.
 
aylano schrieb:
Es wäre überraschend, wenn GK110 1 Jahr (= in 2-3 Monate) nach AMD ohne Probleme daherkommt.
Es wäre im nichteinmal so überraschend, wenn GK110-Non-Problema erst in Juli 2013 kommen würde.
Übersehen, das Tahiti aus der Reihe tanzt? In der Betrachtungsreihe starten stets kleine Chips in der neuen Fertigung. Tahiti ist vor Pitcairn und Cape-Verde erschienen.

Damit fällt deine gesamte Argumentation.

Bei solchen Schnitzern will ich beim Besten Willen nicht in deiner Ausführlichkeit antworten. Übrigens, mit Ausführlichkeit kommt leider auch zur Unübersichtlichkeit. Worauf wolltest du gleich hinaus? HD8970 ist toll schnell und GTX 780 wird entgegen der super GTX 680 Vorlage eine Krücke?

Beim Überfliegen wundern mich darüber hinaus noch G80 Vergleiche mit jenen späterer Refreshs, ohne Berücksichtung der Urversionen.
 
Unyu schrieb:
Übersehen, das Tahiti aus der Reihe tanzt? In der Betrachtungsreihe starten stets kleine Chips in der neuen Fertigung. Tahiti ist vor Pitcairn und Cape-Verde erschienen.
Nö,
a) deshalb hatte ich für Dich & Co den GK107 ebenfalls aufgelistet.
Mit 1 Jahr nach GK107, würde GK110 halt wieder besser ins nicht-ausgreifte Schema passen.

b) weißt du die Yields nicht der Big Dies.
Bzw. man weißt, dass Thaiti & RV870 sehr schlechte Yields haben, mit den man früher vielleicht noch gewartet haben.

c) Modelle sind immer etwas falsch.
Nur Leute, die noch nicht mit sowas gearbeitet haben, wissen das nicht und sind dann beim ausbessern besonders klug.

d) Modelle macht man einfach, damit sie übersichtlicher sind.
Ich hätte es natürlich etwas genauer machen können, aber ich bin mir sicher, dann hättest du mit dem doppelten Text noch viel mehr herumgenörgelt u.a., weil du dich überhaupt nicht zurechtgefunden hättest.

Damit fällt deine gesamte Argumentation.
Bei solchen Schnitzern will ich beim Besten Willen nicht in deiner Ausführlichkeit antworten.
Ich habe auch nicht darum gebetet.
Aber wie man sieht, würdigst du auch nicht irgendwelche Bemühungen.

Übrigens, mit Ausführlichkeit kommt leider auch zur Unübersichtlichkeit. Worauf wolltest du gleich hinaus?
Es mag für dich sehr Unübersichtlich sein. Wobei es für viele andere gilt, da grundsätzlich keiner ernsthaft recherchiert und somit mit solchen Vergleichen überhaupt keine Erfahrungen & Co haben.

Ich hatte AFAIK mal die 1600 Shader von HD 5870 mit einem Shader zu mm² - Verhältnis der HD 4000er-serie richtig "erraten"/modelliert., als die Diefläche des HD 5870 bekannt waren.

RV710 hat quasi 1:1
RV730 hat quasi 2:1
RV770 hat quasi 3:1

Damals war ich einer der optimisten, die beim HD 5870 ganze 1600 Shader spekulierten, während viele/meisten von 1280 ausgingen. Da mir in der 4000er-Serie aufgefallen ist, dass das Shader zu mm²-Verhältnis bei steigenden Die-Größe deutlich anstieg, hielt ich 1600 am wahrscheinlichsten (wobei quasi 4:1 für 1920 Shader auch irgendwie möglich waren)

Mittlerweile stellte sich dieses Modell sich in der Annahme richtig an, da im RV710 & RV730 ein RV770-Front-End genutzt wurde und nur beim größten Modell wurde das Front-End ganz ausgenutzt, was eben so eine hohe Shader-pro-mm² bedeutete.

Oft erkennt man es erst Jahre später, wie es genau abgelaufen ist.

Worauf wolltest du gleich hinaus? HD8970 ist toll schnell und GTX 780 wird entgegen der super GTX 680 Vorlage eine Krücke?
Klar, war ja bei GF104 vs GF100 auch nicht anders.

HD 8970 wird übrigends IMO ebenfall @ Performance-pro-Watt ineffizienter als HD 8800.
In der 7000er-Serie wirkt es nicht so, weil 7800 mit 10CUs pro Grafik-Engine einen stark überdimensionierten Front-End hat, während 7900 mit 16CUs pro Grafik-Engine das Front-End voll ausnutzt.
Bei HD 8900 vs HD 8800 wird dieses CU-pro-Grafikverhältnis voraussichtlich genau andertrum sein und somit die HD 8900 im Vergleich zu HD 8800 zusätzlich zu den GPGPU noch ineffizienter sein, falls sich die Gerüchte & Co bewahrheiten sollen.

@Unyu
Wenn du bessere Prognosen mit konkreten Zahlen machen kannst, dann tu es doch.
Gescheit mit bezugslosen Meinungen zu reden kann jeder.
Vielleicht kriege ich sowas auch in einer Zeile zusammen.
 
Zurück
Oben