News Radeon Polaris Tech Day: NDA für AMD-Polaris-Grafikkarten fällt am 29. Juni

psYcho-edgE schrieb:
Marge ist irrelevant für AMD zum jetzigen Zeitpunkt. Es gilt Marktanteile einzunehmen, da muss man halt zuerst für die Einsteiger und Mittelklasse sorgen, denn bei Enthusiast und High-End kommt nicht viel rum.
Wen interessiert die Marge singulär betrachtet? Quantity rules.
 
Für mich sieht das so aus, als hätte man da aus einer 1 eine 29 gemacht und noch th hingeschrieben;-)
 
Wenn bis zum Release der 1070 immer noch nichts von AMD da ist, Pech gehabt.
Wenn diese Volltrottel ihre Produkte nicht anwerben und verkaufen wollen, nehme ich halt das Produkt welches es bald definitv geben wird.
Die Nvidia GPU wird erwartungsgemäß bestimmt eh weit aus mehr zu bieten haben.
 
Dann nimm eine 1070 die dann anscheinend immer noch Lücken bei DX12 aufweist und zudem auch mehr kostet als ne P10.

Einige haben es immer noch nicht verstanden,dass P10 und die 1070 nicht auf einer Leistungs-und Preisklasse sind.
 
bobitsch schrieb:
Wenn bis zum Release der 1070 immer noch nichts von AMD da ist, Pech gehabt.
Wenn diese Volltrottel ihre Produkte nicht anwerben und verkaufen wollen, nehme ich halt das Produkt welches es bald definitv geben wird.
Die Nvidia GPU wird erwartungsgemäß bestimmt eh weit aus mehr zu bieten haben.

Wenn die denn überhaupt vernünftig verfügbar sind und es nicht wie schon so oft ein Quasi Paperlaunch ist.
 
Limit schrieb:
Das ist ein äußerst eigenwillige Sichtweise. Ein GP104 kostet in der Herstellung einen Fixbetrag egal ob teildefekt oder nicht. Je weniger ich also für die Chips verlangen kann (da teildefekt), desto weniger Gewinn mache ich damit.

Ähm...falsch.
Je weniger du vom Wafer verwenden kannst desto weniger bekommst du letztendlich auch raus.
Denkfehler deinerseits, du betrachtest nur die eine GPU und nicht die Fertigungskosten des Wafers.
 
poi schrieb:
@Moriendor Wenn die Developer jedoch die bestmögliche Grafik aus den Konsolen rausholen wollen werden sie früher oder später Async compute nutzen müssen. Die XB1 und die PS4 beherrschen es schließlich, wenn also weiter primär für Konsolen entwickelt wird dann kommt es irgendwann. Bis dahin kann Nvidia ja noch aufholen.

@major_tom111 wenn Buttermilch zu lange in der Sonne steht kommt dabei nur Quark raus ;)

Ich wollte darauf hinaus, dass mit Xbox One und PS4 bzs Neo(?) und Scorpio(?) Spielehersteller eine riesige Installbase zu bedienen hat. Die übertrifft Nvidia Marktanteil im PC-Segment bei weitem. Sprich, Devs müssen sowieso für die Konsolen optimieren. Aber hey, ich bin einfach nur gespannt worauf es hinausläuft...
 
sverebom schrieb:
Also zunächst einmal habe ich dich nicht als Fanboy bezeichnet, sondern deine Argumente als für einen Fanboy typisch. Das ist ein Unterschied, und gesagt habe ich das, weil deine Argumente überwiegend hanebüchen sind. Und mit diesen Argumenten versucht du AMD's aktuelle Situation irgendwie als einen gewieften Schachzug derzustellen, während du es noch schaffst, NVidia's erfolgreichen Launch eines in nackten und objektiven Zahlen hervorragenden Produkts (abgesehen vom Einführungspreis) als einen Fehler und etwas Schlechtes darzustellen. Ein gewagtes argumentatives Kuntsstück..

Dass ich es mir mit der Argumentation einfach machen würde, habe ich auch nie behauptet ;) ... nun gib es doch zu, anstatt Dich noch darum herum winden zu wollen, im Endeffekt hast Du mich - wenn auch nicht direkt - als Fanboy wahr genommen (ohne natürlich vorher zu wissen, dass ich kein solcher bin). Natürlich habe ich (absichtlich) etwas provokativ argumentiert, auch deswegen, weil mir die zum Teil plumpe nVidia Lobhudelei und Schönmalerei (nicht von Deiner aber anderer Seite, siehe aktueller nVidia GTX 1080 Thread) so langsam auf den Wecker geht, aber da bin ich bestimmt kein Einzelfall.

Die Veröffentlichung und der Marktstart war von AMD sicherlich schon seit einiger Zeit geplant worden, auch in der Absicht nicht mit nVidia zur gleichen Zeit neuen Karten zu verkünden, denn unglücklicher könnte das für AMD wohl aus den vorher von mir bereits angeführten Gründen dann kaum laufen.

Was ist denn an dem Produkt von nVidia so "hervorragend", außer der exorbitante Preis natürlich :evillol:? Im Endeffekt lohnt sich für jeden Fury X/GTX 980Ti Nutzer kein Upgrade auf eine GTX 1080 und für einen GTX 980er Nutzer wird das aufgrund des Mondpreises momentan auch eher problematisch, zumal die begrenzte Übertaktbarkeit bei HardCore Enthusiasten auch schon für Frust gesorgt hat, wenn man diesem Artikel glauben darf/will:

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10808G-Grafikkarte-262111/News/Erste-Erfahrungen-1196720/

sverebom schrieb:
Das ist die eine Beobachtung, die mich annehmen lässt, dass du dich ziemlich verrannt hast. Die andere Beobachtung ist deine Emotion. Schon in deinem zweiten Satz in diesem Thread am heutigen Tag wirfst einem Mitdiskutanten argumentative Dummheit und Verblendung vor. Und das zieht sich durch alle deine elend langen Beiträge (was für sich schon eine gehörige Portion Motivation erfordert), in denen du das Thema und die Diskussion immer wieder auf die Person reduzierst, die du gerade im Visier hast, garniert mit allerlei Seitenhieben auf deren Verblendung, Befangenheit und die in deinen Augen minderwertigen Qualität ihrer Argumente.

Und wieso ist das wohl so? Genau deswegen, weil gewisse Herrschaften es einfach ignorieren und weiterhin Blödsinn schreiben ohne vorher nach zu denken, ob das nun durch "Fanboytum"/Verblendung, Ignoranz, Dummheit oder aus anderen Gründen geschieht, einfachstes (zigfach moniertes) Beispiel sind die GP104 Karten mit P10 Karten zu vergleichen trotz komplett unterschiedlicher Leistungsklassen und natürlich auch Preise. Ja entschuldige, aber soll ich jetzt "Ja und Amen" sagen, wenn die Argumente einfach nicht stimmig oder unsinnig sind oder mutmaßen. Es ist ja nicht so, dass ich nicht auch mutmaßen würde, aber ganz an den Haaren herbei gezogen sind meine Argumente selten und wenn, dann ist das auch ersichtlich/bewusst so und ich mache keinen Hehl daraus.

sverebom schrieb:
Ich werde nicht auf alle deine Aussagen eingehen (bei Weitem nicht), und auch viele persönliche Anspielungen werde ich geflissentlich überlesen, allein schon um dem Thread weitere Text- und Zitatwüsten zu ersparen.

Wenn du diese persönlich nimmst, dann selber Schuld, denn ich habe diese bewusst in Frageform gestellt um Dir nichts zu unterstellen und es ansonsten bewusst allgemein gehalten, soviel argumentatives Geschick darfst Du mir dann schon noch zutrauen, auch wenn es Dich mitunter genervt haben dürfte ;).

sverebom schrieb:
Das meine ich. Wir reden hier von Märkten und marktrelevanten Faktoren, und du ziehst das Argument auf ein persönliches Level. Und das zieht sich durch deine ganzen Beiträge. Übrigens: Nein, ich bin keiner von denen, die alle sechs Monate für 700 Euro eine neue Grafikkarte kaufen, aber das ist hier auch irrelevant.

Meine ganzen Beiträge? Nun mach' aber 'mal 'nen Punkt, wie viele meiner Beiträge hast Du denn bisher schon gelesen? Vermutlich wird es ein kleiner Bruchteil sein. Dass ich ein Engel wäre, habe ich auch nie behauptet und manchmal ist Provokation eben auch ein wenig hilfreich und gestaltet die Diskussion schwungvoller (glücklicherweise weisst Du das ja auch zu beherzigen und eben nicht persönlich zu nehmen, was Dich somit auszeichnet), wie man ganz gut sieht. Natürlich habe ich nicht angenommen, dass Du zu den Leuten gehörst, die mit Geld um sich schmeißen, und somit war es natürlich übertrieben, aber reizen wollte ich Dich dann schon noch damit (und Du hast mir ja auch den Gefallen getan darauf anzuspringen).

sverebom schrieb:
AMD bereitet gerade eine große Inszenierung in Macau vor, und du machst dir Sorgen um deren Marketing-Möglichkeiten. Außerdem reden wir hier garnicht davon, dass AMD eine Marketing-Kampagne fahren soll, sondern dass sie einfach über ihre kommenden Produkte reden sollen, anstatt die Informationen hinter einer NDA zu verstecken. Es kostet keine Millionen, eine Email zu verschicken oder eine Pressemitteilung rauszugeben oder die eingeweihten Journalisten reden zu lassen. Das ein Interesse an diese Informationen besteht, sieht man an den Reaktionen im Netz.

Ja, weiss ich und es macht rein gar nichts, dass diese einen Monat später kommt und AMD exklusiv ist, somit weiss ich auch nicht was die Leute jetzt alle haben um AMD den Buhmann als angebliche Marketingniete wieder zu zu schieben. Die Marketingkampagne wird doch natürlich nach der Vorstellung in Macau sowie auf der Computex Schritt für Schritt laufen, nicht viel anders als derzeit bei nVidia auch. Was glaubst Du denn wieso Apple und andere führende Unternehmen auch diese Geheimniskrämerei betreiben und einen Spannungsbogen aufbauen .... eben, weil es sich im Endeffekt für diese auszahlt, so wenig uns das auch gefällt (weil wird unsere Neugierde befriedigen wollen). Ich würde auf die Reaktionen im Netz auch nichts geben an Lisa Sus Stelle, denn so oder so wird es immer negative (und positive) Reaktionen geben. Wenn AMD die Katze aus dem Sack jetzt ließe, gäbe es auch wieder etliche die es als Schwäche auslegen würde und das Haar in der Suppe suchen würden, glaubst Du nicht?

sverebom schrieb:
So, so, es wäre für dich also eine Genugtuung, wenn AMD das Aufgebot von NVidia in Grund und Boden stampfen würde. Eine ganz persönliche Genugtuung, nehme ich an. Und wer das nicht so sieht, ist NVidias Marketing auf den Leim gegangen. Ich sollte dir vielleicht sagen, dass ich es vorziehen würde, eine Radeon zu kaufen (allein schon wegen FreeSync anstatt G-Sync, aber auch weil ich den Crimson-Treiber vorziehe), wenn AMD denn etwas Vernünftiges abliefert. Ich schiebe jetzt schon seit über einem Jahr den längst Überfälligen Neukauf eines PCs vor mir her. Warum? Wegen AMD! Deshalb bin ich jetzt so enttäuscht, weil sich AMD zurückzieht und NVidia kampflos die erste Runde überlässt, anstatt zur informativen Gegenattacke zu blasen, die jetzt eigentlich angesagt wäre.

Ganz ehrlich, ja :evillol: ... nach all dem was sich nVidia in den letzten Jahren an Lug und Trug geleistet hat würden sie das auch sicherlich verdienen. In den "Genuß" der nVidia Kundempolitik bin ich als GTX 670OC Besitzer ja glücklicherweise nur noch bzgl. des absichtlich herunter gefahrenen Supports für Kepler Karten gekommen (so dass einige sich gezwungen gesehen haben auf Maxwell zu wechseln).

Da ich mich nur ungern von dem Herrn Huang und Konsorten für blöd verkaufen lasse, was anderen dann noch mehr bei Maxwell mit dem GTX 970 Speicherkrüppel und Unterschlagung von AsyncCompute geblüht ist, ziehe ich als mündiger Verbraucher eben meine Konsequenz daraus und werde auf AMD setzen (mindestens solange bis diese mich ähnlich enttäuschen würden oder bis nVidia Gutmachung gelobt, wovon ich keinerlei Anzeichen in der "Unternehmenskultur" erkennen kann derzeit, eher im Gegenteil wenn man sich deren neue Preistreiberei anschaut).

Besten Dank für den Einwurf, proprietäre Entwicklungen wie G-Sync und Gamesworks zählen - als betont miese Strategien von nVidia - auch noch zu den Kriterien, AMD den Zuschlag zu geben. Es ist ja nicht so, dass ich nVidia in 2012 nicht auch ein wenig auf den Leim gegangen bin und mit einer AMD 7950 (die 7970 war leider außerhalb des mir selbst gesteckten Budgets) besser gefahren wäre. Aus Schaden wird man klug ;).

Da irrst du, niemand überlässt hier kampflos dem anderen das Feld, P10 ist eine andere Leistungsklasse in der nVidia erst einmal nichts gegen zu setzen hat, genauso wie AMD bis zur Verfügbarkeit von HBM2 nVidia erst einmal die Performanceklasse überlassen wird müssen. Davon geht aber die Welt wohl nicht unter und auch als ehemaliger Performanceklasse Käufer begrüße ich diese Strategie von AMD, zumal der Kauf einer Performanceklassekarte für mich nur wenig Sinn macht, es sei denn 4K/UHD bei 60Hz wäre durch die Bank gegeben und das ist leider noch nicht der Fall (ob bei Vega 10 auch nicht, wird man aber abwarten müssen, die Hoffnung stirbt bekanntlich zuletzt).

Das beste Preis-Leistungsverhältnis in dieser Generation werden wohl die R9 480(X) und GTX 1060(Ti) bieten, auch wenn Du vermutlich gerne auf die Performanceklasse schielst, die ich Dir nicht ausreden will (für mich wird es auch ein Klassen-Downgrade werden, es sei denn die R9 490 kann mich preis-leistungstechnisch überzeugen im Vergleich zur R9 480X). Einige Monate mehr machen den Braten auch nicht fett oder vielleicht wird Dir ja die Leistung einer Fury mit 8GB erst einmal (bis Navi oder Volta) reichen und die R9 480X käme doch noch in Frage für Dich als Übergangskarte ohne zu großen Wertverlust, wer weiss.

sverebom schrieb:
Das stimmt so nicht. NVidia hat zwar nicht die gleichen Leistungszuwächse unter DirectX12 bzw. mit AyncCompute wie AMD, das heißt aber nicht, dass Pascal in DirectX12 langsamer sein wird als Polaris bzw. Vega. Und insgesamt spricht dieser Umstand eher für ein Versäumnis oder taktische Fehlentscheidungen AMDs in der Vergangenheit. Vielleicht hat man zu früh auf Low-Level-APIs gesetzt und hatte so unter DX11 Probleme, gegen NVidia's Entwicklungsarbeit zu bestehen. Das ist eine Diskussion, die versiertere Leser führen sollten.

Es ist aber anzunehmen, denn AMD dominiert die Konsolen (noch) und von dort kommen die meisten Ports. Zudem hat AMD Mantle entwickelt und könnte was (das darauf basierende) DX12 angeht somit noch einiges in petto haben, aber natürlich ist das mittelfristig spekulativ; im Moment liegt AMD jedenfalls noch vorne, dank AsyncCompute..

sverebom schrieb:
Natürlich zeigen Daten der Vergangenheit an, dass die Hardware bestimmend ist, die in der Vergangenheit maßgebend war. Es wäre auch recht erstaunlich, wenn die Daten anzeigen würden, welche Hardware nächstes Jahr tonangebend sein wird. Aber allein die Leistung der neuen Hardware - besonders unter Berücksichtigung der Leistungszuwächse, die Low-Level-APIs in Aussicht stellen - deutet an, dass die Reise in Richtung WQHD und darüber hinaus gehen wird. Oder bereits geht. Ist dir aufgefallen, dass Gaming-Monitore neueren Datums überwiegend mit WQHD- oder gar noch höheren Auflösungen daher kommen? Full-HD wird schon seit einiger Zeit von den Herstellern nur noch stiefmütterlich behandelt. Schau in einem Jahr nochmal in die Steam-Statistiken, wenn die neue Hardware-Generation auch in der Breite angekommen ist und auch die Budget-Kunden begonnen haben, ihre Hardware aufzuwerten.

Also noch gibt es - im Gegensatz zu TVs etwa - jede Menge Monitore (die meisten mit G und Free-Sync) für Full HD zu kaufen, wobei WQHD natürlich auf dem Vormarsch ist. Bis die breite Masse einen solchen hat, kann es aber noch dauern und wer holt sich bitte jetzt als Gamer einen solchen ohne HDR/OLED 120 HZ DP1.3 und passenden Sync? Wer clever ist wartet bis Ende des Jahres (Marktstart ist für die DP1.3 Monitore dann angekündigt), auch wenn dann natürlich erst einmal Premiumpreise für DP1.3 zu zahlen sein werden. Vor 2018 sehe ich noch keine klare Mehrheit für WQHD Monitore (von 4K/UHD ganz zu schweigen) gegenüber Full HD Monitoren, aber ja, ich mag mich irren, wir werden es sehen.

sverebom schrieb:
Ein leichter Anstieg auf sehr niedrigem Niveau. NVidia gehören über drei Viertel des Marktes. Vor einem Jahr lag AMD noch unter 20 Prozent. Jetzt steht man bei rund 23 Prozent. Das ist kein Aufbruch oder eine Trendwende, sondern kaum mehr als eine Fluktuation. Kleiner Denkanstoß dazu: Wenn die hochpreisigen Marktsegmente keine Rolle spielen, wie du andeutest, und AMD vor allem die mittleren und unteren Marktsegmente im Blick hat, wie kommt es dann, dass NVidia über drei Viertel des Marktes gehören? Wenn AMD tatsächlich in erster Linie an den günstigeren Marktsegmenten interessiert ist, dann NVidid ihnen das Geschäft nur so um die Ohren!Oh, du wirst jetzt sagen, dass dies alles nur der Hype, auf den so viele Verblendete rein fallen. Und weißt du was? Damit hast du sogar Recht, wenngleich nicht mit der Wortwahl. AMD hatte in den letzten Jahren in den unteren Preissegmenten häufig die besseren Produkte. Trotzdem haben die Kunden überwiegend zu Produkten von NVidia gegriffen, weil sich NVidia ein gewisses Standing erarbeitet hat, dem die Kunden - oft nur auf Zuruf von Freunden und Bekannten oder gar Fremden in Internetforen - blind vertrauen. Und dieses Standing wurde auch dadurch begünstig, dass NVidia oft die Ersten waren, die ein Marktsegment mit frischen Produkten bedient haben, während AMD erst nach viel Flickschusterei und Monate später nachziehen konnte, stets zu einem Zeitpunkt, da Schlagzeilen schon geschrieben waren und sich ein Standing gefestigt hatte.

Die Tendenz ist positiv für AMD, oder? Das ist schon einmal eine gute Voraussetzung und zum fatalistisch sein bleibt immer noch genug Zeit bzw. ich werde den Teufel nicht an die Wand malen, ehe AMD noch am Markt bestehen kann. Nur beunruhigt es mich natürlich, dass die meisten sich nicht klar machen, was für gravierende Folgen ein Quasi-Monopol seitens nVidia auf dem GPU Markt hätte. Das lag bei Maxwell sicherlich auch an der Mundpropaganda, keine Frage, das sehe ich auch so, aber auch daran, dass die GTX 970 als untere Oberklasse (Performanceklasse) Karte noch erschwinglich war für die breite Masse, was bei den jetzigen Mondpreisen (GTX 1070 und 1080) nicht mehr gegeben ist, bis die Konkurrenz in Form von Vega 10 Karten draußen ist.

Wie gut AMD bei der 480(X) ankommt, wird entscheidend sein und dass nVidia dort nachziehen muss ist sicherlich günstig für AMD, denn bis eine 1060(Ti) im Markt ist, haben die Käufer in diesem Marktsegment keine Wahl und kommen bei einer aktuellen Karte nicht an AMD vorbei (und wieso sollten sie auch). Zudem sind die Mobilkarten auch extrem wichtig, da man Apple auch weiterhin für MacBooks beliefern will.

sverebom schrieb:
Verstehst du jetzt, warum ich AMD's aktuellem Verhalten nicht viel Gutes abgewinnen kann und darin kein Grund zum Jubeln erkenne? Wenn ich ein Fanboy bin, dann im Moment eher ein Roter, und als solcher, wollte ich dich einfach nur ein wenig zur Besinnung bringen, denn was du heute hier argumentativ und emotional zur Diskussion beigetragen hast, war nicht sonderlich konstruktiv.
Und jetzt bitte, lass uns das hier etwas kürzer fassen, damit der Thread nicht zu einer Text- und Zitatewüste verkommt, und ziehen wir das Thema nicht immer wieder auf ein persönliches Level.

Ja, sorry, das mit dem kürzer fassen (bei Dir war die Beitrags-Länge aber auch nicht von schlechten Eltern), hat leider nicht so ganz geklappt, aber ich hoffe die Antworten sind trotzdem brauchbar für Dich. Nicht verzagen, AMD wird das schon noch schaukeln, warten wir es einfach ab ;). Ich freue mich jedenfalls schon auf die Show in Macau (und zur Computex, falls da noch etwas zu AMD nachgereicht werden sollte).
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Ähm...falsch.
Je weniger du vom Wafer verwenden kannst desto weniger bekommst du letztendlich auch raus.
Denkfehler deinerseits, du betrachtest nur die eine GPU und nicht die Fertigungskosten des Wafers.
Bei der Herstellung gehst du von einer gewissen Quote defekter und teildefekter Chips aus um die durchschnittlichen Preis für die Chips festzulegen. Je höher du diese Quote ansetzen musst desto weniger Gewinn machst du. Soweit sind wir noch einer Meinung?

Wenn du diesen Durchschnittspreis steigern kannst, machst du mehr Gewinn, sinkt der Preis, so gilt das analog für deinen Gewinn. Damit der Preis für einen teildefekten Chip den Durchschnittspreis übersteigt, man also durch ihn den Gewinn steigern kann, muss der Yield schlecht genug sein um den Durchschnittspreis entsprechend zu senken.

Bsp. Ein Chip würde 800€ kosten, die Quote guter Chips liegt bei 80%, dann müssten die teildefekten Chips mindestens 640€ kosten um den Durchschnittspreis anzuheben. Dabei ist noch garnicht berücksichtigt, dass häufig die Nachfrage nach den günstigeren Varianten höher ist als nach den teuren und man dazu gezwungen wird gute Chips für den niedrigeren Preis zu verkaufen.
 
Limit schrieb:
Wenn du diesen Durchschnittspreis steigern kannst, machst du mehr Gewinn, sinkt der Preis, so gilt das analog für deinen Gewinn. Damit der Preis für einen teildefekten Chip den Durchschnittspreis übersteigt, man also durch ihn den Gewinn steigern kann, muss der Yield schlecht genug sein um den Durchschnittspreis entsprechend zu senken.

Bsp. Ein Chip würde 800€ kosten, die Quote guter Chips liegt bei 80%, dann müssten die teildefekten Chips mindestens 640€ kosten um den Durchschnittspreis anzuheben. Dabei ist noch garnicht berücksichtigt, dass häufig die Nachfrage nach den günstigeren Varianten höher ist als nach den teuren und man dazu gezwungen wird gute Chips für den niedrigeren Preis zu verkaufen.

Das ist jetzt nicht dein Ernst, oder?
 
96iXUa8.jpg
 
@Limit
Festlegen kannst du viel aber wozu sollte der Auftragsfertiger den Auftrag annehmen wenn er dabei draufzahlt?
Um die Produktionskosten des Wafers wieder raus zu bekommen würde der Preis Pro GPU für weniger nutzbare GPUs natürlich entsprechend höher ausfallen. Der Vorteil dieser Resteverwertung ist also die durchschnittlichen Produktionskosten pro GPU zu senken.

Deine Rechnung hinkt übrigens da es völlig aus der Luft gegriffen ist.
Sagen wir mal das die Quote voll funktionstüchtiger GPUs bei 40% liegt und weitere 40% mit nutzbaren Teildefekten dabei sind.
Ohne die Resteverwertung könntest du max. 40% nutzen, mit Resteverwertung 80% der GPUs auf dem Wafer und die durchschnittlichen Produktionskosten pro GPU halbieren sich.
 
Wadenbeisser schrieb:
@Limit
Festlegen kannst du viel aber wozu sollte der Auftragsfertiger den Auftrag annehmen wenn er dabei draufzahlt?
Üblicherweise wird pro Wafer bezahlt, das Risiko trägt also nicht der Fertiger, sondern der Chipentwickler.

Wadenbeisser schrieb:
Um die Produktionskosten des Wafers wieder raus zu bekommen würde der Preis Pro GPU für weniger nutzbare GPUs natürlich entsprechend höher ausfallen. Der Vorteil dieser Resteverwertung ist also die durchschnittlichen Produktionskosten pro GPU zu senken.
Das ist zwar richtig, aber trotzdem nur die halbe Wahrheit, denn das funktioniert nur so, wenn die Nachfrage nach günstigeren Chips die Menge des Ausschusses nicht übersteigt. Bei einem ~320mm² Chip sollten Yields eigentlich kein Problem sein, selbst bei einem recht neuen Prozess. Bei einem fast 60% höheren Preis für die 1080er dürfte die Nachfrage nach dem 1070er allerdings deutlich höher sein (UVP 789€ / 499€). Also werden auch einige gute Chips als 1070er verkauft werden müssen und schon ist es vorbei mit Gewinn steigern durch Resteverwertung.

Wadenbeisser schrieb:
Deine Rechnung hinkt übrigens da es völlig aus der Luft gegriffen ist.
Ist sie, es ging nur darum das Prinzip zu verdeutlichen.

Wadenbeisser schrieb:
Sagen wir mal das die Quote voll funktionstüchtiger GPUs bei 40% liegt und weitere 40% mit nutzbaren Teildefekten dabei sind.
Solche Yields kann man sich eigentlich nur bei sehr großen und teuren Chips erlauben oder temporär als Übergangslösung bis man ein Respin bzw. Redesign vorgenommen hat. Das Problem ansonsten ist einfach, dass ein Konkurrent mit kleinerem Chip und möglicherweise besseren Yields einen gnadenlos preislich unterbieten kann, einfach weil seine Kosten niedriger sind.
Diese Beschreibung könnte durchaus auf GP104 zutreffen, allerdings wäre das sicherlich nichts, worüber sich nVidia freuen würde.

Wadenbeisser schrieb:
Ohne die Resteverwertung könntest du max. 40% nutzen, mit Resteverwertung 80% der GPUs auf dem Wafer und die durchschnittlichen Produktionskosten pro GPU halbieren sich.
Ob sie sich über eine Verbesserung von "katastrophal" nach "sehr schlecht" freuen würden ist eher zweifelhaft.

Bei für solche Massenchips typischen Yields liegt der Grund solcher teildeaktivierter Chips häufiger weniger in der Resteverwertung, sondern vielmehr in der Marktabdeckung. Die Resteverwertung nimmt man einfach so mit. Die Resteverwertung tritt erst dann in den Vordergrund, wenn die Yields sehr niedrig werden und man daran ohne weiteres nichts ändern kann. Das tritt in der Regel allerdings nur auf sehr große Chips zu.
 
Zuletzt bearbeitet:
@Limit
Es ist vollkommen egal ob pro GPU oder pro Wafer bezahlt wird. Die Produktionskosten für den Wafer teilen sich so oder so auf die Anzahl der nutzbaren Chips auf und je mehr du nutzen kannst desto geringer sind die Produktionskosten pro Chip und genau diesen Punkt ignorierst du.

Was du ebenfalls ignorierst ist die Tatsache das die beschnittenen GPUs sonst aus den voll intakten GPUs erzeugen und diese für einen geringeren Preis verkaufen müßtest.
Auf der einen Seite wirfst du nutzbare GPUs weg und treibst so den Preis pro GPU hoch. Auf der anderen Seite kastrierst du voll intakte um sie billiger zu verkaufen und treibst so noch den Preis für die voll intakten GPUs zusätzlich hoch um den Preisnachlass der künstlich kastrierten GPUs zu kompensieren? Sinn?
 
han123 schrieb:

Gibt es Infos zu den Einstellungen und den FPS?

Ich vermute ja, wenn ich mir diesen Vertrag ansehe, dass die 29 da vorher nicht stand. Es gibt also 2 Möglichkeiten: Falschmeldung seitens des Reporters, denn man erkennt noch die 1. Oder aber AMD will auf die 1070 warten, weil P10 eben doch an eine GP105-150 heranreicht.
Es macht auch keinen Sinn AMD nun dafür zu verteufeln, denn die 1070 ist ja nunmal ein Paperlaunch par Excellance, wir wissen ja noch nicht mal was die Karte tatsächlich leistet. Die Doppelte Performance der 980 hat dier 1080 ja auch nicht erreicht

Mir gefällt aber das neue Radeon Logo
 
major_tom111 schrieb:
...

Wieso sollte ein Produkt wie Polaris 10 nutzloser als GP104 sein?
Der eine wird der effizienteste Chip am Markt, der andere der schnellste. Punkt. Was gibt's da jetzt noch zu diskutieren?

Ich bedanke mich bei allen, die sich nicht mit dieser Ansage angesprochen fühlen

@ Topic: hoffentlich dann das Finale und nicht nur ein Info Update

Ich hab mit meinen Beiträgen just genau das versucht rüberzubringen. Polaris wäre im Gegenteil ideal unterhalb der Leistungsklasse einer 1070, weshalb man hier völlig freie Hand hätte. Viele kaufen aus verständlichen Gründen keine Grafikkarte über 300€, weshalb nicht ein paar Infos geben? Die Leute sind mündig genug, ein Datum zu akzeptieren, ab wann im Handel mit den Karten gerechnet werden kann. Macht man aber nicht - und das warum ist die große Frage (zumindest mich interessiert sie).

Daher schließe ich mich deinem Fazit an, hoffentlich nicht nur ein Info Update :)
 
@Palmdale: Wissen wir ja bei der 1070 auch nicht. Wen juckt schon das Referenzmodell am 10.06. ? Keiner weiß wie gut die Karte ist, geschweige denn wann man sie kaufen kann. Eigentlich ist das der gleiche Sachverhalt wie bei AMD. Wir haben praktisch keine Informationen. ^^
 
@ Aldaric:

Für mich sieht das auch eher danach aus, als will man mit P10 gegen 1070 anstinken. Aber die NV Jünger lobpreisen ja ihre 1070 dabei ist da ebenso Null bekannt. Wenn am ende dann P10 und 1070 identische Leistungen haben, dann macht es schon Sinn das NDA kurzfristig zu verlängern.
Ich sehe z.b. im Vertrag auch immer noch die 1 und sehe daraus wurde eine 9 gemacht. Am 1.6. wissen wir alle Mehr, oder auch weniger :D
 
Wadenbeisser schrieb:
@Limit
Es ist vollkommen egal ob pro GPU oder pro Wafer bezahlt wird. Die Produktionskosten für den Wafer teilen sich so oder so auf die Anzahl der nutzbaren Chips auf und je mehr du nutzen kannst desto geringer sind die Produktionskosten pro Chip und genau diesen Punkt ignorierst du.
Es ging darum, wer das Risiko für schlechte Chips trägt. Dabei gibt es üblicherweise zwei Varianten, die normale ist die, dass der Entwickler das volle Risiko trägt, da er pro Wafer bezahlt. Bei der weniger gängigen Variante bezahlt der Chipdesigner nur für funktionsfähige Chips. Dabei trägt dann der Auftragsfertiger das Risiko.

Wadenbeisser schrieb:
Was du ebenfalls ignorierst ist die Tatsache das die beschnittenen GPUs sonst aus den voll intakten GPUs erzeugen und diese für einen geringeren Preis verkaufen müßtest.
Auf der einen Seite wirfst du nutzbare GPUs weg und treibst so den Preis pro GPU hoch. Auf der anderen Seite kastrierst du voll intakte um sie billiger zu verkaufen und treibst so noch den Preis für die voll intakten GPUs zusätzlich hoch um den Preisnachlass der künstlich kastrierten GPUs zu kompensieren? Sinn?
Üerhaupt keinen Sinn, aber so etwas habe ich auch nie gesagt.

Diese Diskusion sollten wir aber langsam mal abhaken; das ist der falsche Thread dafür.
 
Zuletzt bearbeitet:
Zurück
Oben