News Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren“

I:r:O:n:I:C schrieb:
Na los Leute kauft mehr AMD Grafikkarten, Navi folgt :)
Die haben das verdient :D
Werde aufgrund des Stromverbrauchs natürlich KEINE Karte von AMD kaufen. Wenn dene das Nachhaltigkeitsprinzip völlig egal ist, dann sind mir die GPUs von AMD ebenfalls egal. Bei den CPUs sieht es anders aus. Aber ne Graka von AMD kommt mir nicht ins Haus.
 
kisser schrieb:
Das sehe ich anders, denn an Rohleistung (gemessen in TFLOPS) mangelt es den Karten der GCN-Architektur ja nicht. Aber die Auslastung der Einheiten in typischen Spiele-Szenarien ist äußerst bescheiden. Das ist ein Problem der Kontroll-Logik/Scheduler (oder wie auch immer man dieses Teil einen Rechenwerkes nennen will).
Auf welcher Datenbasis fußt diese Theorie?
 
ZeT schrieb:
Werde aufgrund des Stromverbrauchs natürlich KEINE Karte von AMD kaufen. Wenn dene das Nachhaltigkeitsprinzip völlig egal ist, dann sind mir die GPUs von AMD ebenfalls egal. Bei den CPUs sieht es anders aus. Aber ne Graka von AMD kommt mir nicht ins Haus.
Ja auch das ist nichts neues das sollte man in Kauf nehmen bei AMD, aber man ja kann ja bei den Vega Karten gut undervolten das bringt ziemllich viel ohne auf die Leistung zu verzichten :)
 
  • Gefällt mir
Reaktionen: Mcr-King
Bin gerade begeistert von der "neuen" Technik.
Hab mal aus Nostalgie COD4 MW im Singleplayer gestartet. Meine RX480 läuft im ZeroFan Modus bei vollen Details und 120FPS.
Ich weiß noch wie die damals aktuellen Karten gerödelt haben bei so einem Spiel.

Wenn man überlegt wie gut Spiele heute aussehen und wieviel Leistung benötigt wird ist es eigentlich traurig.
Der Sinnvollere Ansatz wäre es, wenn man effizienter mit den Ressourcen umgehen würde. Anstatt dessen wird einfach immer mehr Hardware auf ein Problem geworfen.
 
  • Gefällt mir
Reaktionen: Mcr-King
@ZeT
Na sicher doch, lieber zum wohle der Nachhaltigkeit möglichst schnell etwas neues kaufen damit auch der kleinere Speicher kein Problem wird, damit wären die Gewinne des Herstellers nachhaltig gesichert. ;)
 
  • Gefällt mir
Reaktionen: Mcr-King und Rockstar85
I:r:O:n:I:C schrieb:
Na los Leute kauft mehr AMD Grafikkarten, Navi folgt :)
Die haben das verdient :D

Wieso sollte man?
Wieso genau hat AMD irgendwas verdient?
Das ist genauso wenig eine gemeinnützige Stiftung wie Nvidia. Mit dem einzigen Unterschied, dass die Produkte nicht so leistungsfähig sind (bezogen auf GPUs).

Zur News: wundert mich tatsächlich in dem Segment überhaupt nicht. Da kommt seit mittlerweile fast einem halben Jahrzehnt keine echte Konkurrenz mehr.
Im CPU Segment haben se sich ja wieder gefangen, aber bei den GPUs wird das noch so weiter gehen, wenn da nicht bald ein Befreiungsschlag à la Ryzen kommt...
 
Grafikkarten sind einfach zu groß und zu teurer für den schrumpfenden PC-Markt. Ich bezahle GPU, Speicher, PCB incl. SpaWa und Kühlung jedesmal komplett neu. Wenn ich das alte Modell entsorge, blutet mir das Herz.

Eine Grafikkarte ist soetwas wie ein kleiner Komplett-PC und oft sind die Komponenten nicht aufeinander abgestimmt. Mal klemmts am Speicher, mal an der Speicheranbindung, mal an der Kühlung, mal an der Spannungsversorgung.

Wenn ich diese Komponenten einzeln kaufen könnte, wäre es womöglich für alle besser. Ich würde öfter eine CGPU kaufen und vlt auch den Speicher erweitern oder gg schnelleren ersetzen. Kühlung kaufe ich nur einmal und dann wohl auch Wasser.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
Ich sehe das ganz locker, wie man in #159 sieht sind sie lediglich wieder dort angelangt wo sie vor der mining Blase waren und dieser Einbruch fing gegen Mitte 2014 an und wäre damit etwas vor dem Wechsel zur Geforce 900 Serie angesiedelt.

Die späteren erneuten gewinne an Marktanteilen wäre also vor allem durch die Mining Blase getrieben gewesen. Die Kundschaft hat also die neue Serie abgewartet und nvidia für die Nummer mit der GTX970, welche wohl für einen Großteil der gewonnenen Marktanteile zuständig sein dürfte, nicht abgestraft. Der Wettbewerb ist damit im Daddler Grafikkarten Markt offensichtlich tot und AMD ist gut beraten sich bei der Produktentwicklung auf alternative Bereiche zu konzentrieren und genau das haben sie offensichtlich auch gemacht.

Man bietet alternative Modelle an, welche für andere Anforderungen anderer Bereiche entwickelt wurden, hat sich weitestgehend vom sinnlosen Preiskampf um die Daddel Fraktion verabschiedet und passt die Preise lediglich an die Gegebenheiten des Marktes an. Gaming GPUs werden offenbar vor allem für die Konsolen entwickelt und dürften damit am Ende auch deren Ansprüchen entsprechen.

Genau deshalb kann man wohl auch davon ausgehen das die ersten Navy Ableger weder auf HBM(2) setzen (Preis), noch komplex genug sind um Modelle wie die Radeon VII abzulösen. Ich denke das es eher auf ein Modell mit Vega56/64 Performance mit 8 oder 12 GB GDDR6 hinaus laufen und mehr frühes nächstes Jahr kommen wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
incurable schrieb:
Auf welcher Datenbasis fußt diese Theorie?

Ich habe nachgedacht! GCN ist überall dort schnell, wo viele gleiche Dinge parallel laufen, also der gleiche Shader-Algorithmus auf einer großen Anzahl an Shadereinheiten läuft. Z.B Mining oder Compute.
Hast du viele unterschiedliche Shader-Algorithmen auf dem Chip laufen (wie in Spielen), dann bricht die Performance ein. (Zur Hochkonjunktur der "AsyncCompute"-Debatten gab es da mal irgendwo Messungen IIRC)
 
  • Gefällt mir
Reaktionen: Unnu
dettweilertj schrieb:
Das Monopol hat nicht Nvidia sondern TSMC, mittlerweile sind sowohl AMD als auch Nvidia von TSMC abhängig.
Global Foundries kommt schon lange nicht mehr mit, nur Intel könnte bald mit eigener Fertigung zur Konkurrenz werden.
Bei AMD ist es sogar noch schlimmer, die sind auch bei den CPUs von TSMC abhängig, aber das ist halt das Schicksal wenn man nur noch Reseller ist.
Letztendlich sind die User selbst schuld, Hauptsache billige Hardware und sich über die Preise von Intel aufregen.
Das Intel Zigtausende Jobs schafft, eine Fertigung selbst entwickeln und erforschen muss und dann auch noch Milliarden für Auf und Umrüstung bezahlt, vergessen wohl einige.
Solche Discountpreise kann man da nicht stemmen.
Sollten die 10nm floppen, dann warte mal ab wie die Preise bei AMD noch durch die Decke gehen.
Nvidia wird ihre 7nm Karten wohl bei Samsung fertigen lassen. So viel zum Monopol.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bulletchief schrieb:
Wieso sollte man?
Wieso genau hat AMD irgendwas verdient?
Das ist genauso wenig eine gemeinnützige Stiftung wie Nvidia. Mit dem einzigen Unterschied, dass die Produkte nicht so leistungsfähig sind (bezogen auf GPUs).

Zur News: wundert mich tatsächlich in dem Segment überhaupt nicht. Da kommt seit mittlerweile fast einem halben Jahrzehnt keine echte Konkurrenz mehr.
Im CPU Segment haben se sich ja wieder gefangen, aber bei den GPUs wird das noch so weiter gehen, wenn da nicht bald ein Befreiungsschlag à la Ryzen kommt...
Das habe ich auch nicht gesagt das sie da bissl hinterher hängen wisssen wir alle, aber man sollte AMD unterstützen und ne Chance geben, und das macht sich irgendwann auch bezahlt, (das haben sie im CPU Bereich auch geschafft) wenn die merken das mehr Leute AMD GPU`s kaufen bin ich mir sicher :)
 
Darkscream schrieb:
Habt ihr schon mal ausgerechnet was ihr in 10 Jahren für Grafikkarten ausgegeben habt? Also mit Gegenrechnung vom Erlös für die vorige Karte? Ich komme bei 7 NV Karten ab der 8800GT bis 1070TI auf 660€. Eine Karte ist mir abgeraucht weil ich sie im Betrieb bewässert habe. Die aktuelle lass ich hierbei weg, weil ich für diese noch ~ genau so viel bekommen würde, wie ich vor einem halben Jahr bezahlt habe. Ist so weil ich sie, wie auch 3 davor gebraucht gekauft habe.
Da kommen faszinierend hohe 5,5€ im Monat bei raus. Das Hobby ist ja so teuer:daumen:
Rockstar85 schrieb:
Wie kommst du auf diese Rechnung?

Also bei mir war es (wo ich es noch weis)
Diverse Rage, Paraphelia und Riva TNT

Kyro 1 +2 (Kp was die gekostet haben, zu lange her)
9500 Pro ( 230€ ca.)
9800Pro (300€ 2 Karten durchgenommen)
6800 Ultra 550€
7800GT (220€)
4850 110€
GTX 470 350€
HD7870 (90€ gebraucht, 3 waren es locker)
1080Ti 680€

Und bei mir was nicht viel mit Gegen Erlös, ich glaube auch in deiner Rechnung hast du dich irgendwo verrechnet
Ja, ein Monatsdurchschnitt von 5,50 € erscheint mir auch recht wenig. Da muss man wirklich seeeehr günstig gekauft und verkauft haben (oder bei seiner Rechnung den Kauf der ersten und aktuellsten Grafikkarte ignorieren und nur die Kosten dazwischen rechnen).

Bei mir sind es zwischen 5,50 € und 16,50 € monatliche Kosten, je nach Grafikkarte und Nutzungsdauer, im Gesamtdurchschnitt 2002 - 2019 ca. 10 € pro Monat. Die teuerste (auf Nutzungsdauer und Wertverlust gerechnet) war die Kult-GPU 8800 GTX, da hatte ich Pech beim eBay-Verkauf. Die günstigsten waren die 9800 Pro und die GTX 970.

GPU-Kosten.png


Mein Bruder ist deutlich genügsamer und immer noch mit seiner GTX 650 Ti (unter 2 € pro Monat) zufrieden, da er hauptsächlich alte Spiele zockt. Der liegt im Gesamtdurchschnitt 2002 - 2019 bei unter 3 € pro Monat.

Falls ich mal aufrüste, bekommt er meine 1070 (derzeit noch 2,5 Jahre Restgarantie) geschenkt, das dürfte ein nettes Upgrade bei ihm sein.
 
  • Gefällt mir
Reaktionen: Rockstar85
@Cohen
Ich mache das exakt wie du seit der GTX 470... Die VK Preise müssen bei dem Kollegen sehr gut gewesen sein.. die 7870xt ging bei mir aber auch zu 0€ Verlust weiter. Ob ich 2020 noch 600€ für meine TI bekommen? Schauen wir Mal. Bei den Nvidia Preisen, Muss das aber ein gutes Angebot werden.
 
Thommy-Torpedo schrieb:
Ich würde es garnicht so negativ sehen, man sollte neben dem Erfolg von Ryzen auch an die AMD SoC´s in den Abermillionen von Konsolen denken.
Der Highend-Enthusiast Bereich dient ja im Kern lediglich zur Imagepflege.

Habe selber erst vor kurzem eine V56 für den Zweitrechner und einen 2700X bestellt aufgrunde des P/L Verhältnisses.
Für meinen "Hauptrechner" warte ich auf einen 21:9 Freesync HDR10 Monitor samt passender AMD GPU, aber da schaue ich erst in 2 Jahren nach sobald PS5 und XBox (XY) da sind.

Mit 500 € musst halt rechnen ...

https://geizhals.de/acer-ed7-ed347ckrbmidphzx-um-ce7ee-001-a1941465.html?hloc=at&hloc=de

habe mir letzten Monat den Samsung C34H892 (34 ", curved. 21:9, FreeSync) für 499 € geholt.

MfG, Föhn.
 
kisser schrieb:
Geld ist kein Garant dafür, dass es in Forschung/Entwicklung besser der schneller läuft. Das Argument zieht also nicht. Die geistige Leistung, die Ingenieure erbringen müssen, lässt sich auch nicht mit mehr Gehalt steigern.
ohne Geld läuft jedoch überhaupt nichts... ob man 100 Mio Forschungsbudget oder 1 Milliarde macht schon einen Unterschied weil man dan unterschiedliche Teams ansetzen kann die parralel arbeiten und man , falls ein Team in eine Sackgasse gerät , auf Team B umschwenken kann .
Grade das hat Intel den Hals gerettet als sie sich mit den P4 verrannten , da hat das Mobile Team mit ihrer Core Architektur sogar dafür gesorgt das Intel in Führung ging , der Rest ist Geschichte ...
Ohne Moos nichts los , der Spruch hat durchaus seine Berechtigung ...
 
lynx007 schrieb:
Sowohl die Lautstärke wie auch Temperatur liegen angeblich zum großen Teil nur an den voreinstellungen der Karte. Wo man sich aber natürlich dann aber auch zu recht frägt, warum man die dann nicht vor dem Release vernünftig eingestellt rausbringt. Es ist ist sogar in vielen Test so das die Karte schneller wird wen man sie undervoltet.

Aber auch das ändert ncihts daran das HBM scheinbar einfach viel viel zu teuer in der Herstellung im B2C bereich ist.
Lass dir keinen quatsch einreden. Ich hatte eine vega kurz und sie war auch undervolted so laut wie ein fön. Dagegen läuft meine 1080 die meiste zeit passiv also mit dem lüfter komplet aus.
 
@onkel-foehn der wird eher 1.500€+ kosten :freak:

Der Monitor der am nähesten drankommt wäre der 34GK950F davon wirds bestimmt die 3. Gen mit AMD FS 3 HDR
 
  • Gefällt mir
Reaktionen: Mcr-King und onkel-foehn
Zurück
Oben