News Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren“

CR4NK schrieb:
btw. funktioniert eigentlich G-sync mit einem G-sync-Monitor und AMD-Graka?

Leider nein, da G-Sync nicht dem VESA Adaptive-Sync Standard entspricht.
 
CR4NK schrieb:
Warum bringt AMD nicht einfach ne "green" Radeon VII? Von Haus aus untervoltet mit minimal niedrigerem Takt.
Weil die hochwertigeren Chips, die man für so eine Edition bräuchte, besser fürs Vielfache an Gewinn als Instincts in Serverfarmen landen.

CR4NK schrieb:
btw. funktioniert eigentlich G-sync mit einem G-sync-Monitor und AMD-Graka?
Nope.
Ergänzung ()

Grestorn schrieb:
Leider nein, da G-Sync nicht dem VESA Adaptive-Sync Standard entspricht.
Leider nein, da AMD G-Sync nicht lizensiert hat. :evillol:
 
Transistor 22 schrieb:
Dann hat man aber einfach nur eine effiziente GPU mit Vega 64 Leistung. Um sich von der Vega 64 abzusetzen benötigt man 12 GB HBM2, welche mit 3072 Bit angebunden sind.
Nein, die VII mit sauber eingestellten Spannungen liegt auf RTX 2080 Niveau, also entsprechend 30 - 40% mehr Leistung als der Vorgänger. Das sieht man im Test von CB ja ganz schön.
 
Ich finde sowohl NVIDIA als auch AMD enttäuschend, gefühlt seit mehr als 6 Jahren Stillstand im Bereich unter 300€.
Mehr als mit nicht ausgereiften Produkten um sich werfen tun beide darüber auch nicht.
Turing ist aktuell nichts weiter als eine Enttäuschung, altes Verfahren, kaum Mehrleistung, neue Funktion nicht verbreitet.
 
  • Gefällt mir
Reaktionen: Galatian
Che-Tah schrieb:
Die Radeon VII ist hauptsächlich wegen der größeren Speicherbrandbreite (was im Fall von HBM = Speichermenge ist) schneller als die Vega 64.

Nein die Radeon 7 profitiert fast ausschließlich durch den höheren Takt. Das Speicherinterface macht da kaum was aus.
incurable schrieb:
Sind doch erst 5 Jahre, seitdem Nvidia die ersten Tile-based rendering Maxwells auf den Markt geworfen hat.

Irgendwann schafft AMD das auch. Vielleicht. Jedenfalls wäre das für die Effizienz dringend von Nöten.

Jetzt rate mal, wie lange es dauert eine GPU zu entwickeln? Genau ~5 Jahre!
Es geht vielleicht auch etwas schneller, aber AMD hatte zeitweise überhaupt keine Ressourcen und hat alles auf Zen gesetzt. Das hat der RTG deutlich zu schaffen gemacht.
dettweilertj schrieb:
Das Monopol hat nicht Nvidia sondern TSMC, mittlerweile sind sowohl AMD als auch Nvidia von TSMC abhängig.

Gibt auch noch Samsung ;) Man munkelt, dass Samsung wohl auch die nächsten 7nm-Karten von Nvidia fertigen wird.
SIR_Thomas_TMC schrieb:
Argh, der 8. Beitrag, und schon "Fanboy" im Text. :kotz:

Ist halt *isser. Was erwartest du?
SSD960 schrieb:
Nach über 10 Jahren AMD bin ich Anfang 2018 auf die 1080Ti umgestiegen....
Wow, bitte erzähl mir mehr davon...
Cr@zed^ schrieb:
Schon irgendwie beachtlich, dass sich ATI/AMD nie von dem Flop der HD 2900 Reihe erholen konnte. Zwar war die HD 5800 damals ein sehr gute Karte, aber danach kam nichts vergleichbares mehr.
4870 und 7970 waren auch ganz gute Karten :)
Discovery_1 schrieb:
Ich habe bei meinem Kumpel am letzten Wochenende seine MSI RX 570 8G im Einsatz gesehen und gehört. Das Teil ist fast so laut wie ein Hubschrauber (etwas übertrieben). Dabei haben wir nur Youtube-Videos geschaut. Sowas kommt mir nicht ins Gehäuse.Meine Nvidia GTX 550Ti ist flüsterleise auch beim Zocken.

Ich habe bei meinem Kumpel am letzten Wochenende seine passive MSI RX 560 im Einsatz gesehen und gehört. Das Teil ist fast so laut wie ein Asteroideneinschlag (etwas untertrieben). Dabei war der PC nur im Stand-by Modus. Sowas kommt mir nicht ins Gehäuse. Meine Nvidia GTX 480 im Referenzdesign ist selbst übertaktet flüsterleise, auch beim Zocken.
 
  • Gefällt mir
Reaktionen: Fresh-D
Rock Lee schrieb:
Nein die Radeon 7 profitiert fast ausschließlich durch den höheren Takt. Das Speicherinterface macht da kaum was aus.
Wer hat eine Vega7 und würde bitte mal testen was passiert wenn man den Speichertakt in den Keller fährt?
 
Meine letzte Karte war die AMD RX480 8GB von MSI. In dem Segment ist die einfach Gold.
Die nächste die ich kaufen werde, wird im gleichen Segment eine mit 16GB RAM sein, die gibt es leider noch nicht.
 
Alexdr schrieb:
Es gibt nur wenige Freesync Monitore, die mit AMD problemlos funktionieren?

Der Unterschied bei AMD und nVidia ist hier die Definition von "es funktioniert problemlos".
AMD hat genauso wie nVidia eine Kompatibilitätsliste. Die von AMD ist länger als die bei nVidia weil die Kriterien andere sind. Während z.B. bei AMD Monitore ohne LFC als kompatibel gelistet werden, ist dies bei nVidia nicht so (die typischen 48-75 Hz Freesync Range Geräte). Obwohl sie auch funktionieren. LFC muss unterstützt werden, sonst bekommt der Monitor keine G-Sync Compatible Einstufung.
 
  • Gefällt mir
Reaktionen: estros
M4deman schrieb:
Mir war gar nicht bewusst, dass 2017 noch 1/3 AMD war.
Wäre schön, wenn es wieder in die Richtung geht.
Aber mit sowas wie der RVII wird's halt leider nichts.

die marktanteile, die JPR ab 2017 für amd erfasst und über den gesamtumsatz ermittelt hat, sind ausschließlich über mining gekommen - da wird nicht erfasst, wieviele GPUs in mining rigs gewandert sind.

es ist aber tatsächlich so, dass 2016 mit dem polaris release die marktanteile von amd nach dem grenada / fiji loch bei 18% wieder auf ~30% gestiegen sind - von dort an gings aber wieder abwärts. was hier genau passiert ist, lässt sich schwer sagen. ich glaube nicht, dass polaris alleine dafür verantwortlich ist - dafür ist der ausschlag insgesamt viel zu extrem. da wird sich irgendwas an der datenerfassung oder ähnlichem zusätzlich geändert haben.

Q3-2017-Discrete-GPU-Market-Share-NVIDIA-AMD_1.png


die RX580 war eine karte, die im gaming segment die gtx1060 ordentlich angeknabbert hat bzw. hätte - mit dem mining hype war das vorbei - ab ca april/mai 2017 bestand hier aus gamer sicht ein nvidia monopol, da amd gpus schlicht nicht mehr verfügbar waren. und spätestens ab hier sind die zahlen von JPR und die tatsächlichen adaption von amd gpus für spielerechner etwas total verschiedenes. an der stelle hat der mining hype amd einfach nur geschadet, weil der wichtige marktanteile im zielmarkt gekostet hat - sicher hat man einige gpus in einen fremden markt verkauft - aber das bringt nur schnelles geld und im zielmarkt nur nachteile.

um zu zeigen, dass JPR mit der tatsächlichen adaption von amd karten für spiele rechner eigentlich kaum mehr was zu tun hat, habe ich die steam hw survey daten für die 1060 und polaris in einer tabelle erfasst.

hier kann man gut sehen, wie dominant die gtx 1060 (release juli 2016) ist (rx 480 release juni 2016), und dass sich die marktanteile von polaris 20 konträr zu den aussagen von JPR entwickeln - die anzahl an rx580 in spielerechnern steigt nämlich derzeit in nie dagewesene "höhen".

steam anteile 1060 polaris.png


incurable schrieb:
Das muss man sich mal auf der Zunge vergehen lassen:

Auf Basis der veröffentlichten Daten hat Nvidia von Q3 auf Q4 Einbußen von 2,4% eingefahren, während bei AMD die GPU-Verkäufe um sagenhafte 34,6% einbrachen. :freak:

Der Vergleich zu Q4/2017 ist noch schlimmer:

Nvidia -26,7%
AMD -66,7%

Ned Flanders schrieb:
Kann es eventuell sein, dass das ganze einfach eine Normalisierung nach dem Mining Hype ist und die ganzen Mining GraKas als gebraucht Karten den asiatischen Markt fluten und so neue Absätze erschweren?

das ist meiner meinung nach schon mal der richtige gedankengang - hier meine version:

zuerst mal ist festzuhalten, dass ein großer teil der amd gpus, die auf steam erfasst werden, irgendwelche gammel-gpus aus fertigrechnern, notebooks oder altbestände (Pitcarin, Tahiti, Hawaii, Grenada, Tonga) sind. die rx580 ist zwar derzeit die am höchsten platzierte moderne amd gpu in steam, aber es haben immer noch faktor 1,7 mehr leute eine gtx 1080 ti als eine rx580.

nvidia verkauft ein vielfaches an gaming gpus -daher ist das volumen und der grundumsatz von nvidia im vergleich zu amd sehr hoch (sieht man auch an den quartalszahlen - nvidia gforce > amd gesamt).

hier eine grafik um das mal grundlegend darzustellen. turing und ähnliches mal nicht berücksichtigt:

amd nvidia gpu mining.jpg


flappes schrieb:
Wundert doch niemanden, AMD liefert ja nix, außer den Aufguss vom Aufguss vom Aufguss.

das ist schon richtig - aber wo solls herkommen?

die niedrigen produktionskosten von nvidias pascal vs fiji/polaris/vega sind/waren für amd nicht zu schlagen. und trotzdem konnte nvidia die eigentlich günstigeren karten fast doppelt so teuer verkaufen.

von den produktionskosten her schenken sich gtx 1070 (wäre der chip nicht nur gebinnt & lasercut sondern tatsächlich physikalisch kleiner) und polaris 10 eigentlich nichts. nur amd muss die teurere hardwareklasse gegen die günstigere von nvidia antreten lassen. hier fängt das problem doch schon an.

und das ist auch der grund, warum es "kein" "amd high end" gibt - das echte amd high end kämpft mit reduziertem preis nahe der verlustschwelle gegen die nächst kleinere hardwareklasse von nvidia. es geht schlicht nicht mehr. und das liegt zum einen an der mittlerweile angestaubten architektur, als auch am schlechten softwaresupport, der durch die niedrigen marktanteile bedingt ist, und dem generell winzigen budget im vergleich zu nvidia und der foundry. zum glück ist amd jetzt auch bei tsmc, weil man sich von glofo vertraglich lösen konnte, eine neue architektur oder neue generation von GCN ("Navi") könnte höchstens ein einziges weiteres problem lösen - aber die anderen zwei bleiben weiterhin bestehen.

jetzt kommt amd mit den vega karten in einen preiskampf, der amd pro karte geld kostet. anhand unserer produktionskostenschätzungen beim verkaufspreis von 260€ für eine v56 sogar ziemlich viel. das bringt amd nicht um und der verlust ist schon in den abschreibungen drin, aber forschungsbudget kommt jetzt halt durch den polaris und vega abverkauf auch nicht rein.

flappes schrieb:
Ich hoffe mit Navi passiert endlich was, sonst wird der Grafikkartenbereich auch die nächsten 2 - 3 Jahre von nvidia dominiert.

wenn navi floppt, wäre das sicherlich eines der besten szenarien, die man sich vorstellen kann. hier stehen noch ganz andere szenarien im raum. navi könnte grundsätzlich entscheidend dafür sein, ob AMD überhaupt weiterhin dedizierte gaming gpus herstellt.

es wäre auch gut vorstellbar, dass amd den markt aufgibt und sich auf APU und embedded, konsolen und auftragsfertigung konzentriert. bisher macht amd hier nämlich seit jahren nur verlust und bekommt dafür von den "gamern" noch dreck hinterhergeworfen.


lynx007 schrieb:
Bei AMD sind einfach an zu viel Enden zu viel Pfeifen am werk die sich selbst ein Bein stellen.

einige entscheidungen wirken im ersten moment hirnrissig und einiges hätte sich auch vermeiden lassen - aber am ende kommts immer wieder auf einen punkt zusammen: geldmangel.

wieso der overvolt bei amd gpus? man braucht die maximale ausbeute, weil chips wegschmeißen geld kostet.
wieso sind die amd gpus dann individuell nicht besser konfiguriert? weils geld kostet. wieso ständige refreshes? weil eine neue gpu arch geld kostet. warum keinen harten preiskampf? weil amd viel höhere fertigungskosten aufgrund der viel geringeren stückzahl und generell teureren hardware (in der selben performanceklasse) als nvidia hat.

und nvidia legt parallel aus spaß die titan V auf - weil: wieso nicht?

90% der "schlechten" entscheidungen bei amd lassen sich relativ einfach durch geldmangel erklären. ob die schlechten entscheidungen anhalten, falls amd mal in geld schwimmt, ist eine andere geschichte.

auf der cpu seite macht amd bisher alles richtig. ich wüsste nicht, warum man bei gpus dann unnötigerweise einfach so irgendeinen bullshit veranstaltet. amd ist in der führung hochkarätig besetzt.

lynx007 schrieb:
Ich halte mitlerweile für einen Fehler auf den HBM Zug aufgesprungen zu sein. Die Radeon 7 kommt gerade an mal die 1080ti bzw 2080 ran und müssen sie für 700€ fast verschenken.

hbm ist die bessere speichertechnologie. die radeon 7 kommt nicht an die 2080 ti ran, weil der chip zu langsam ist - nicht der speicher. es ist ein irrglaube, dass amd mit gddr5/6 speicher besser dran wäre. dadurch wird der chip nicht schneller, die karte nicht energiesparender (im gegenteil), nicht besser zu kühlen (im gegenteil), nicht kleiner (im gegenteil) und auch nicht signifikant günstiger - mal abgesehen von dem enormen dram preisanstieg in den letzten 2 jahren. eine wirklich extreme form des schweinezyklus und im voraus absolut nicht kalkulierbar. als vega mit hbm2 geplant wurde, hat das zeug noch die hälfte gekostet. wem soll man hier denn einen vorwurf machen?

GDDR6 speicher braucht mehr strom, mehr platz (faktor 10 oder 20), mehr kühlfläche, ist langsamer, lässt sich vergleichbar schlecht kühlen - ist aber günstiger.

sobald HBM speicher im mainstream ankommt (so wie bspw nvme ssds) ist hbm die bessere speichertechnologie auf allen ebenen. das einzig schlechte an hbm ist der preis.

und dann möchte ich noch mal auf das zurückommen, was ich oben gesagt habe. die radeon 7 ist die schnellste gaming karte, die amd derzeit überhaupt herstellen kann - würde man aus verschiedenen gründen nicht so viel performance verlieren, müsste die radeon 7 eigentlich nahe der rtx 2080 ti liegen (natürlich wäre sie langsamer, die 2080 ti ist ein monster, chipfläche) - und dann wäre der preis absolut "ok". das selbe gilt für vega - die hardwareklasse entspricht einer titan xp - würde hier entsprechend der verbauten hardware performt werden, wäre vega mit titan xp performance für 500€ ein absoluter brecher.

das letzte mal, als das genau so funktioniert hat, hat man gerade hawaii (r9 290x) herausgebracht. das war ebenfalls das hardwaremäßig dickste, was amd zusammenbekommen hat - aber hier hats für die titan black gereicht. und je weiter man von hier aus voranschreitet, desto größer wird der abstand von der high end amd karte zur high end nvidia karte und jetzt reicht amd high end gerade so für die zweit bzw. drittschnellste (je nachdem ob man titans dazurechnet oder nicht) nvidia karte.

würden amd gpus so performen, wie man auf der einen seite hardware-aufwand hineinsteckt, wäre der preis überhaupt kein problem - aber amd hängt eine gute generation hinter nvidia, weshalb man immer eine hardwareklasse drunter angreifen muss - und dann stimmt das verhältnis von chipfläche/stromverbrauch/preis auch nicht mehr.

und an der stelle darf man sich fragen: wie gut kann navi denn realistischerweise überhaupt werden?

meine prognose für navi: eine der besten amd midrange karten seit langem - löst aber nur die wenigsten probleme von amd - die leute werden enttäuscht sein, wieso navi so eine inkonsistente performance hat.

die einzige chance von navi ist turing. hätte sich nvidia auf performance statt raytracing konzentriert, würde navi aufgrund des generellen rückstands von amd gegen nvidia einfach nur untergehen.

aber die rtx karten sind so aufwändig und teuer und noch so neu, dass navi hier doch noch eine weile chaos stiften können sollte, bevor nvidia mit einem konter daherkommt.

der heilsbringer ist navi aber nicht. nur eine kleine chance auf ein ernsthaftes comeback.

TheUngrateful schrieb:

ein laktoseintoleranter ist in der wüste und es gibt weit und breit nur milch und kein wasser - selber schuld am durchfall?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fresh-D, Herr Melone, s0UL1 und 12 andere
AMD bietet im Bereich von 100-180€ die deutlich attraktiveren Karten an, aber bedient damit nur eine relativ unprofitable Nische des Marktes, während Nvidia sich alle lukrativen Preisbereiche sichert, insbesondere im B2B, wo richtig Geld verdient wird.
 
Keine Ahnung was alle haben. Will ich was für um die 150€, habe ich die Wahl zwischen einer 570 mit 8 GB von AMD oder einer 1050ti mit 4 GB. 200€ 580/8 vs. 1060/6. 300€ Vega56/8 vs. 1660ti/6 (1070/8).
Immer ist die AMD etwas schneller, hat mehr Speicher, etwas teuerer und braucht mehr Strom.
Will man also a) mehr frames oder b) weniger Verbrauch.
Muss man für sich wissen was man will.
Über 300€ sieht es anders aus aber solange ich zb nicht im Lotto gewinne, werde ich mir keine Grafikkarte über 300€ holen.
 
  • Gefällt mir
Reaktionen: eXe777 und Cpt.Willard
Es wäre so toll wenn AMD diesen wahr gewordenen Fehler beendet. Ohne der Radeon 7 würden die Nvidia Karten dank der Kartellklage die dann möglich wäre 30% weniger kosten.
 
M4deman schrieb:
Mir war gar nicht bewusst, dass 2017 noch 1/3 AMD war.
Was denkst du, welcher Bereich AMD über Wasser gehalten hat, bis die FX-Durststrecke überstanden war? Semicustom (also vorallem PS4 und Xbox) und Graphics. Serverbereich ging gegen null und am Desktop war auch maximal kostendeckend zu verkaufen, Entwicklungskosten mussten anderweitig finanziert werden.
 
  • Gefällt mir
Reaktionen: estros
Transistor 22 schrieb:
Nvidia hat doch auch schon lange keine Architektur komplett neu entwickelt.

Nvidia hat seit Kepler immer eine komplett neue GPU-Serie aufgelegt. Bei AMD kam meist nur ein neues (Spitzen)modell und dann größtenteils Restverwertung aka re-labeling.
Die letzte vollständige Serie, die alle Performancebereiche abgedeckt hat, war tatsächlich die erste GCN-Generation.

Transistor 22 schrieb:
AMDs Problem ist, das GCN ziemlich bandbreiten limitiert ist.

Nein, denn an Bandbreite mangelt es den Karten ja nicht. Auch die 1TB/s der Radeon VII reißen da nix raus.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
AMD kann den Absatzrückgang mit den sehr guten Ergebnissen mit Ryzen ausgleichen. Aber was machen die Kartenhersteller, die ausschließlich AMD GPUs verbauen? Die gehen langsam aber sicher zugrunde, wenn sich die Lage nicht ändert. XFX und Powercolor (VTX3D gehört noch zu denen) sind fast bedeutungslos. Sapphire hat auch mal bessere Zeiten gesehen. Asrock konnte zwar hinzugewonnen werden, aber die Karten sind nichts besonderes.
 
... seit 10 Jahren also. Komisch. Ich hätte ja gesagt eher seit 12 - 13 Jahren, seit AMD ATI übernommen hat. Unabhängig so mancher Marken-Ideologen hat mich noch nie eine AMD GPU im Vergleich überzeugen können. Vor der Übernahme waren ja einige ATI GPU´s interessant oder gar besser als Nvidia.
Gründe dafür werden ja immer wieder genannt, wobei ich stets auch Energieeffizienz zum Preis beziehe, wo AMD (für mich) nie Preisleistungssieger war, somit die immer angeführte "Preisleistung bei AMD" (für mich) auf 2 Jahre gerechnet die Energiemehrkosten (und ja, ich Messe selbst) für andere GPU´s besser angelegt sind.
 
Aliosy schrieb:
VEGA || mit 8GB und dann könnte die Sache etwas besser aussehen.
Was soll das bringen ??? Da die Vii deutlich über die Speicherbandbreite performt, welche dann halbiert wäre, würde so eine Karte eher auf Vega 64 Niveau liegen.
Deswegen, und NUR deswegen hat sie auch ihre 16 GB HBM bekommen. Alles andere wäre dann zu peinlich bezüglich der Gesamtleistung gewesen.
 
duskstalker schrieb:
die marktanteile, die JPR ab 2017 für amd erfasst und über den gesamtumsatz ermittelt hat, sind ausschließlich über mining gekommen - da wird nicht erfasst, wieviele GPUs in mining rigs gewandert sind.

es ist aber tatsächlich so, dass 2016 mit dem polaris release die marktanteile von amd nach dem grenada / fiji loch bei 18% wieder auf ~30% gestiegen sind - von dort an gings aber wieder abwärts. was hier genau passiert ist, lässt sich schwer sagen. ich glaube nicht, dass polaris alleine dafür verantwortlich ist - dafür ist der ausschlag insgesamt viel zu extrem. da wird sich irgendwas an der datenerfassung oder ähnlichem zusätzlich geändert haben.

Anhang anzeigen 761454

die RX580 war eine karte, die im gaming segment die gtx1060 ordentlich angeknabbert hat bzw. hätte - mit dem mining hype war das vorbei - ab ca april/mai 2017 bestand hier aus gamer sicht ein nvidia monopol, da amd gpus schlicht nicht mehr verfügbar waren. und spätestens ab hier sind die zahlen von JPR und die tatsächlichen adaption von amd gpus für spielerechner etwas total verschiedenes. an der stelle hat der mining hype amd einfach nur geschadet, weil der wichtige marktanteile im zielmarkt gekostet hat - sicher hat man einige gpus in einen fremden markt verkauft - aber das bringt nur schnelles geld und im zielmarkt nur nachteile.

um zu zeigen, dass JPR mit der tatsächlichen adaption von amd karten für spiele rechner eigentlich kaum mehr was zu tun hat, habe ich die steam hw survey daten für die 1060 und polaris in einer tabelle erfasst.

hier kann man gut sehen, wie dominant die gtx 1060 (release juli 2016) ist (rx 480 release juni 2016), und dass sich die marktanteile von polaris 20 konträr zu den aussagen von JPR entwickeln - die anzahl an rx580 in spielerechnern steigt nämlich derzeit in nie dagewesene "höhen".

Anhang anzeigen 761455





das ist meiner meinung nach schon mal der richtige gedankengang - hier meine version:

zuerst mal ist festzuhalten, dass ein großer teil der amd gpus, die auf steam erfasst werden, irgendwelche gammel-gpus aus fertigrechnern, notebooks oder altbestände (Pitcarin, Tahiti, Hawaii, Grenada, Tonga) sind. die rx580 ist zwar derzeit die am höchsten platzierte moderne amd gpu in steam, aber es haben immer noch faktor 1,7 mehr leute eine gtx 1080 ti als eine rx580.

nvidia verkauft ein vielfaches an gaming gpus -daher ist das volumen und der grundumsatz von nvidia im vergleich zu amd sehr hoch (sieht man auch an den quartalszahlen - nvidia gforce > amd gesamt).

hier eine grafik um das mal grundlegend darzustellen. turing und ähnliches mal nicht berücksichtigt:

Anhang anzeigen 761473



das ist schon richtig - aber wo solls herkommen?

die niedrigen produktionskosten von nvidias pascal vs fiji/polaris/vega sind/waren für amd nicht zu schlagen. und trotzdem konnte nvidia die eigentlich günstigeren karten fast doppelt so teuer verkaufen.

von den produktionskosten her schenken sich gtx 1070 (wäre der chip nicht nur gebinnt & lasercut sondern tatsächlich physikalisch kleiner) und polaris 10 eigentlich nichts. nur amd muss die teurere hardwareklasse gegen die günstigere von nvidia antreten lassen. hier fängt das problem doch schon an.

und das ist auch der grund, warum es "kein" "amd high end" gibt - das echte amd high end kämpft mit reduziertem preis nahe der verlustschwelle gegen die nächst kleinere hardwareklasse von nvidia. es geht schlicht nicht mehr. und das liegt zum einen an der mittlerweile angestaubten architektur, als auch am schlechten softwaresupport, der durch die niedrigen marktanteile bedingt ist, und dem generell winzigen budget im vergleich zu nvidia und der foundry. zum glück ist amd jetzt auch bei tsmc, weil man sich von glofo vertraglich lösen konnte, eine neue architektur oder neue generation von GCN ("Navi") könnte höchstens ein einziges weiteres problem lösen - aber die anderen zwei bleiben weiterhin bestehen.

jetzt kommt amd mit den vega karten in einen preiskampf, der amd pro karte geld kostet. anhand unserer produktionskostenschätzungen beim verkaufspreis von 260€ für eine v56 sogar ziemlich viel. das bringt amd nicht um und der verlust ist schon in den abschreibungen drin, aber forschungsbudget kommt jetzt halt durch den polaris und vega abverkauf auch nicht rein.



wenn navi floppt, wäre das sicherlich eines der besten szenarien, die man sich vorstellen kann. hier stehen noch ganz andere szenarien im raum. navi könnte grundsätzlich entscheidend dafür sein, ob AMD überhaupt weiterhin dedizierte gaming gpus herstellt.

es wäre auch gut vorstellbar, dass amd den markt aufgibt und sich auf APU und embedded, konsolen und auftragsfertigung konzentriert. bisher macht amd hier nämlich seit jahren nur verlust und bekommt dafür von den "gamern" noch dreck hinterhergeworfen.




einige entscheidungen wirken im ersten moment hirnrissig und einiges hätte sich auch vermeiden lassen - aber am ende kommts immer wieder auf einen punkt zusammen: geldmangel.

wieso der overvolt bei amd gpus? man braucht die maximale ausbeute, weil chips wegschmeißen geld kostet.
wieso sind die amd gpus dann individuell nicht besser konfiguriert? weils geld kostet. wieso ständige refreshes? weil eine neue gpu arch geld kostet. warum keinen harten preiskampf? weil amd viel höhere fertigungskosten aufgrund der viel geringeren stückzahl und generell teureren hardware (in der selben performanceklasse) als nvidia hat.

und nvidia legt parallel aus spaß die titan V auf - weil: wieso nicht?

90% der "schlechten" entscheidungen bei amd lassen sich relativ einfach durch geldmangel erklären. ob die schlechten entscheidungen anhalten, falls amd mal in geld schwimmt, ist eine andere geschichte.

auf der cpu seite macht amd bisher alles richtig. ich wüsste nicht, warum man bei gpus dann unnötigerweise einfach so irgendeinen bullshit veranstaltet. amd ist in der führung hochkarätig besetzt.



hbm ist die bessere speichertechnologie. die radeon 7 kommt nicht an die 2080 ti ran, weil der chip zu langsam ist - nicht der speicher. es ist ein irrglaube, dass amd mit gddr5/6 speicher besser dran wäre. dadurch wird der chip nicht schneller, die karte nicht energiesparender (im gegenteil), nicht besser zu kühlen (im gegenteil), nicht kleiner (im gegenteil) und auch nicht signifikant günstiger - mal abgesehen von dem enormen dram preisanstieg in den letzten 2 jahren. eine wirklich extreme form des schweinezyklus und im voraus absolut nicht kalkulierbar. als vega mit hbm2 geplant wurde, hat das zeug noch die hälfte gekostet. wem soll man hier denn einen vorwurf machen?

GDDR6 speicher braucht mehr strom, mehr platz (faktor 10 oder 20), mehr kühlfläche, ist langsamer, lässt sich vergleichbar schlecht kühlen - ist aber günstiger.

sobald HBM speicher im mainstream ankommt (so wie bspw nvme ssds) ist hbm die bessere speichertechnologie auf allen ebenen. das einzig schlechte an hbm ist der preis.

und dann möchte ich noch mal auf das zurückommen, was ich oben gesagt habe. die radeon 7 ist die schnellste gaming karte, die amd derzeit überhaupt herstellen kann - würde man aus verschiedenen gründen nicht so viel performance verlieren, müsste die radeon 7 eigentlich nahe der rtx 2080 ti liegen (natürlich wäre sie langsamer, die 2080 ti ist ein monster, chipfläche) - und dann wäre der preis absolut "ok". das selbe gilt für vega - die hardwareklasse entspricht einer titan xp - würde hier entsprechend der verbauten hardware performt werden, wäre vega mit titan xp performance für 500€ ein absoluter brecher.

das letzte mal, als das genau so funktioniert hat, hat man gerade hawaii (r9 290x) herausgebracht. das war ebenfalls das hardwaremäßig dickste, was amd zusammenbekommen hat - aber hier hats für die titan black gereicht. und je weiter man von hier aus voranschreitet, desto größer wird der abstand von der high end amd karte zur high end nvidia karte und jetzt reicht amd high end gerade so für die zweit bzw. drittschnellste (je nachdem ob man titans dazurechnet oder nicht) nvidia karte.

würden amd gpus so performen, wie man auf der einen seite hardware-aufwand hineinsteckt, wäre der preis überhaupt kein problem - aber amd hängt eine gute generation hinter nvidia, weshalb man immer eine hardwareklasse drunter angreifen muss - und dann stimmt das verhältnis von chipfläche/stromverbrauch/preis auch nicht mehr.



ein laktoseintoleranter ist in der wüste und es gibt weit und breit nur milch und kein wasser - selber schuld am durchfall?

Danke für diesen ausführlichen Beitrag. :schluck:
 
  • Gefällt mir
Reaktionen: s0UL1 und Schultzie
Zurück
Oben