News Radeon-Chef: High-End-Grafikkarten sind für AMD weiterhin kein Thema

TigerherzLXXXVI schrieb:
Wie gesagt: der Hauptgrund für die aktuell sehr schwachen Verkäufe von Radeon-GPUs liegt nicht an der Technik, sondern an der dystopischen Entwicklung unserer Gesellschaft.
Ich könnte auch behaupten die Verkäufe der Radeon GPUs liegen so niedrig, weil in unserer Straße gerade Glasfaser verlegt wird und die Leute somit nicht zum Media Markt kommen.
:watt:

Dystopische Veränderungen in unserer Gesellschaft, die vorrangig AMD Käufer vom Kauf abhalten? Wieviel "Copium" ist eigentlich nötig, um sich eine solche Realität zu basteln?
TigerherzLXXXVI schrieb:
Hirnlose Smartphone-Zombies entscheiden sich nun einmal für den Hersteller, der auf Social Media extrem präsent ist...
Und bei den Prozessoren entscheiden sich diese "hirnlosen Smartphone-Zombies" plötzlich für AMD Produkte und nicht für Intel? Genau. Weil sie dort das bessere, beliebtere Gaming Produkt finden, da AMD die letzten Jahre durchgängig einfach abgeliefert hat und effizient ist.
TigerherzLXXXVI schrieb:
Nvidia war schon immer mehr Meister im Marketing als alles andere. Und das ist in der heutigen Zeit zu einem ernsthaften Problem für AMD geworden.
Die Analysen der kritischen Tech Journalisten zeigen genau das Gegenteil. Problem ist nicht primär das Marketing, sondern die Produkte und vor allem Software.
TigerherzLXXXVI schrieb:
Denn wenn man allein nach der gebotenen Leistung geht (Intel mal ausgeklammert), müsste heute eher eine Marktverteilung von ca. 60 : 40 zugunsten Nvidia vorherrschen.
Weil Rasterleistung nicht das einzige ist was zählt, das wurde allerdings schon oft mit dir diskutiert.
TigerherzLXXXVI schrieb:
Zu allererst müssten sich die Menschen ändern, die diese besagte Dystopie erst möglich gemacht haben.
Genau, nicht die Unternehmen sind schuld, sondern die Menschen, weil sie nicht das kaufen, was man ihnen vorsetzt. Super Argumentation.
 
  • Gefällt mir
Reaktionen: DaHell63, Fallout667, N0Thing und eine weitere Person
blackiwid schrieb:
Sind wird doch ehrlich der Markt würde AMD nicht belohnen, sagen wir es käm ein 4090 oder gar 5090 äquivalent raus 10% billiger dann würde das niemand kaufen alleine wegen FSR statt DLSS.
DLSS und RTX sind auch die Gründe wieso ich immer noch Team Grün bin und vermutlich auch noch recht lange bleiben werde
 
  • Gefällt mir
Reaktionen: AsgardCV, Quidproquo77, ElliotAlderson und eine weitere Person
Rockstar85 schrieb:
Denn nicht AMD ist schuld an den hohen Consumerpreisen, sondern wir alleinig als Verbraucher.
Auch ein Verbraucher kann sich nicht über Herstellkosten, Fixkosten, Softwareentwicklung und Co hinwegsetzen. Wenn kein Nachfrager für Gaming GPUs da ist, dann werden nach einem mäßigen Preiscut schlicht keine mehr angeboten.
Der Effekt auf die Preise wäre gering. Schau dir doch mal AMDs Bilanz an. Wo wird dort bei der Radeon Group das große Geld gescheffelt? Wo sind dort große Spielräume für Preissenkungen? Die existieren nicht. Nvidia kann deutlich mehr Gewinne generieren, da die Chips deutlich kleiner für dasselbe Geld sind (+teurer/schneller) und mehr von TSMC abgenommen wird. AMD kann das derzeit aber nicht. Der Verbraucher hat darauf keinerlei Einfluss.
Rockstar85 schrieb:
Das sollte man sich so langsam endlich mal bewusst werden!
Mir wird halt immer mehr bewusst, dass manche einfachste Zusammenhänge nicht einmal annähernd verstehen. Und du bist 20 Jahre auf diesem Board unterwegs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, Fallout667, N0Thing und 3 andere
TigerherzLXXXVI schrieb:
Hirnlose Smartphone-Zombies entscheiden sich nun einmal für den Hersteller, der auf Social Media extrem präsent ist... Nvidia war schon immer mehr Meister im Marketing als alles andere.

Naja. Auf Computerbase steht z.B. bei den Grafikkartenempfehlungen für WQHD mit RT:

"Gerade im Hause AMD sind oft nur noch die schnellsten Radeon-Beschleuniger ausreichend – es sei denn, die Detailstufe wird reduziert."
Das sind keine Sätze aus der Nvidia Marketingabteilung.
Natürlich gilt das nur für die Betrachtung mit Raytracing. Aber Raytracing war am Ende des Tages dann wohl doch etwas mehr, als nur ein Marketing Gag.

Ich bin ja beim Grundsatz bei dir. Ich bin z.B. bei Betriebssystemen der Meinung, dass mit Windows sicher nicht die bestmögliche Software am Thron sitzt.

Aber man kann Nvidia den technischen Vorsprung nicht absprechen. Ohne RT bekommst du bei AMD vielleicht mehr FPS für den Euro, aber das hilft auch nur bedingt, wenn du bei den meisten Leistungstests auf dem zweiten Platz landest. Abgesehn davon sind 1000 Euro für die RX 7900 XTX ja jetzt auch nicht nichts. Dass die Leute bereit sind, für die schnellere Hardware verhältnismäßig mehr zu zahlen, ist kein Grafikkartenspezifikum und auch nicht neu. DLSS und FG waren ja auch ziemliche Brecher.
 
  • Gefällt mir
Reaktionen: Fallout667 und ElliotAlderson
Simonte schrieb:
Da ist der Vertreter der "Leute". Woher kommt dieses Wissen?

Da ist ein graph an dem Artikel, der exakt das aussagt 🤷‍♂️

Simonte schrieb:
isso. Einfach alle nach Hause und Licht aus. Machen so kleine "Konzerne" ja ständig :)
In der Tat machen Konzerne nicht profitable Geschäftsbereiche einfach dicht.
 
  • Gefällt mir
Reaktionen: JarlBallin
Mir egal, 400 € sind mein Limit, mehr gebe ich einfach nicht in ~4 Jahren für eine GPU aus. Fertig.

Geld verdienen die eh im KI-Cloud-Bereich, für uns Gamer gibt es eh nur noch "Abfall-Produkte".
 
  • Gefällt mir
Reaktionen: fox40phil und jonderson
Majestro1337 schrieb:
....Wenn die Leute die Produkte nicht kaufen wollen dann würde ich auch aufhören sie zu entwickeln.
Stimmt der Kunde ist schuld, der hat nur nicht verstanden wie geil die AMD Karten eigentlich sind. Eyeyey, Kausalität einfach mal umdrehen und schon passt das Weltbild wieder :-D Persönlich war bei mir ab der ATI 9700 Pro immer ne AMD GPU drin aber seit der GTX 1070 hab ich keinen Grund (ausser VRAM und nichtmal der) gesehen mir ohne Not die Klöten von ner AMD Karte aufheizen zu lassen die viel zu oft auf Kante genäht war um noch irgendwie mithalten zu können. Bei den CPUs war man zu einem Comeback fähig aber bei den GPUs isses plötzlich der Wille der fehlt? Ja, genau.....
 
Zuletzt bearbeitet:
aspro schrieb:
Zwangsläufig wird AMD mitziehen müssen, ist schon klar.
Solange AMD nicht voran schreitet bleiben die mit dem Marketing weiterhin an der gleichen Position. Mitziehen/hinter her laufen ist zu wenig.
 
Die oberste Priorität bestehe momentan darin, „Skaleneffekte zu erzielen, um schneller 40 bis 50 Prozent des Marktes zu erreichen“, so der AMD-Manager. „Denn wenn wir die nötige Größe erreichen, bringen wir die Entwickler auf unsere Seite“.

Nope@AMD.

Ihr bekommt die Entwickler auf eure Seite, wenn ihr innovativ seid und gut vermarktbare, marktreife, aktuelle, neue Features (i.e. nicht nur copy&paste von nVidia Features 12+ Monate nach deren erfolgreicher Einführung) einführt, die für den AAA(A) Entwickler, dessen Lead Platform par ordre du mufti die PS5 ist, mit geringem Aufwand effektiv ein- und umsetzbar sind.

Das heißt ihr müsst bei AMD vor allem an eurer Software (SDKs usw.) und eurem Support arbeiten. Und nicht primär daran, billige Grafikkarten unter die Leute zu bringen. Was soll das bringen?
Marktanteile um jeden Preis hatten wir bei AMD schon mal und das hat den Laden fast in den Ruin getrieben.

Naja, mir soll es recht sein. Wenn AMD sich als Preisdrücker auch indirekt für nVidia Produkte betätigen wollen, dann wird die nächste GeForce vielleicht etwas günstiger als erwartet. Insofern schon mal danke @ AMD :daumen: .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Kloin
blackiwid schrieb:
Es ist einfach schlicht die Wahrheit AMD hätte einen Monsterchip machen können aber wozu, wenn man dann vielleicht vom Stromverbrrauch nicht mit halten kann...
Dass es nicht die Wahrheit sein kann, gibst du doch bereits im Nachsatz zu, indem du sagst sie wären beim Strombedarf nicht konkurrenzfähig. Was wäre doch bereits ein Argument einen solchen Chip nicht zu Ende zu entwickeln. Offenbar geht die Chiplettechnik im GPU Bereich bisher noch nicht auf.

Anstatt einfach zu sagen "sorry wir habens einfach nicht geschafft", kommt so Marketingblabla.
blackiwid schrieb:
Sind wird doch ehrlich der Markt würde AMD nicht belohnen, sagen wir es käm ein 4090 oder gar 5090 äquivalent raus 10% billiger dann würde das niemand kaufen alleine wegen FSR statt DLSS.
Der Markt würde dann auch die Mittelklasse nicht belohnen. Dein FSR Argument ist ergo austauschbar.
Im Grunde geht es um "Mimimimi, AMD darf nicht schuld an ihrem eigenen Versagen sein". Sorry, aber da draußen läuft es nunmal so. Intel verteidigt auch keiner, wenn deren Produkte instabil sind und die Unternehmens-Kommunikation fürn Hugo ist. Bei AMD ist das scheinbar aber ganz was anderes.
Da wird dann die Kausalität umgekehrt und den Kunden die Schuld in die Schuhe geschoben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: N0Thing, Fallout667, Innocience und 2 andere
Genau deswegen kosten Nvidias Highendkarten 2000€+ Nennt sich Monopol. Ganz schlechte Entwicklung für alle Kunden. Und es ist abzusehen, dass bei den 5000ern sehr sicher 2500€ fürs Topmodell verlangt werden. Gibt ja keinerlei Alternative. Theoretisch kann Nvidia auch 3000€ oder noch mehr nehmen. Der Markt jedoch ist vollkommen tot. Denn ich habe quasi keine Auswahlmöglichkeit bzw. Produktvielfalt wenn ich ein Topmodell kaufen möchte. Irgendwas läuft in der Branche komplett schief. Man stelle sich mal vor es gäbe nur noch zwei Autohersteller. Und nur einer bedient die gehobene Klasse. Undenkbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, JarlBallin, konkretor und 2 andere
Seit (ca.) 1997 (mit 8 Jahren) beschäftige ich mich stets Interessiert mit dem Thema. Meine erste "echte" Grafikkarte war eine 3Dfx Voodoo 2 mit 12 MB (habe ich immer noch :evillol:) - die Karte war ein Weihnachtsgeschenk von meinem Vater.
Natürlich hat Nvidia verdient die Nase vorne, aber für uns Konsumenten ist AMD/Ati und Intel wichtig. Meine letzte Nvidia war die 8800GT von ECS Elitegroup - eine tolle Karte! Auch wenn es manche nicht glauben wollen, blieb die Karte nicht von Treiberproblemen verschont. In Mirrors Edge 1 hatte ich damals regelmäßig Abstürze. Erst ein Treiberupdate brachte Besserung. Unabhängig davon hatte ich danach ausschließlich AMD/Ati in meinem Rechner. Das P/L Verhältnis war meist besser und mir ist das Unternehmen einfach viel sympatischer. Alle RTX4XXX User werden wieder bei DLSS 4 in die Röhre schauen, während meine gute alte RX580 problemlos von FSR profitiert! Jedenfalls habe ich vor mir dieses oder nächstes Jahr eine RDNA4 Karte zu gönnen (min. 16GB).
Nvidia hat ein bisschen was von Apple ("Exklusiv" usw.) während AMD eher mit Android vergleichbar ist ;).

PS: Ist nur meine persönliche Meinung und möchte niemanden damit angreifen. Am Ende kochen alle nur mit Wasser!
 
  • Gefällt mir
Reaktionen: Corpus Delicti
Klingt für mich nach Marketingsprech, das ein erneutes "Aussetzen" im High-End-Wettbewerb rechtfertigen soll. Denn seien wir ehrlich, AMD hat in den letzten Jahren häufig das bessere Preisleistungsverhältnis geboten und hat dennoch immer nur Marktanteile verloren. Warum sollte also ein Fokus auf die Mittelklasse diesen Trend umkehren können? Solche Karten kann man immerhin genauso gut und besser im Windschatten eines starken Flaggschiffs positionieren.

Meiner Meinung nach schadet dieses Vorgehen AMD sogar, denn es kommt seit dem Wechsel auf DX10 (!!!) mit der R600-Generation ja leider ziemlich regelmäßig vor. So eine Inkonsistenz kann am Markt gar nicht gut ankommen und ungeschicktes Marketing tut dann sein Übriges, "poor volta" lässt grüßen.

RDNA2 war in meinen Augen die beste AMD-Generation seit vielen Jahren. Leider hat man dann mit RDNA3 die falschen Weichen gestellt. Das MCM-Modell hätte vermutlich noch 1-2 Generationen im Labor bleiben müssen.

Ich sehe für AMD mit RDNA4 nicht mehr als weiter schrumpfenden Marktanteil, denn ein paar Mittelklasse-Boliden werden leider im Schatten von Blackwell verschwinden, wenn es um die Medienpräsenz und sonstige Sichtbarkeit geht.

In den kommenden Jahren muss die Radeon Group, wie angekündigt, im Software-Bereich mächtig verstärkt werden, damit am Feature-Rückstand gearbeitet werden kann. Gleichzeitig muss viel Geld in die Entwicklung konkurrenzfähiger Hardwarekonzepte fließen. Und nur wenn AMD im Anschluss daran über vielen Jahre und Generationen kontinuierlich abliefern kann, kann es eine Trendwende geben. Das aktuelle Vorgehen kann vom Kunden doch nur noch als penetrantes Flipflopping wahrgenommen werden, gleichzeitig sinkt die Priorität für Spieleentwickler, Rücksicht auf Radeon-Karten zu nehmen, immer weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI
AMD müsste in RT 1 generation überspringen, am besten 2gen. bei Raster leistung müssen sie nur die üblichen %mehr erreichen. Dann wird es auch besser mit den verkäufen. Natürlich spielen die features auch eine Rolle. Aber zu Nvidia müssen sie mit der RT leistung aufschließen, auch wenn es nur bis zur unteren Oberklasse Hardware gibt. Sonst wird das auf lange sicht nix. Selbst wenn ich auf RT verzichten könnte, aber die spiele Entwickler tun dies nicht.
genauso das ding mit den upscalern. Aktuelles beispiel Warhammer Spacemarines 2 bietet zum telease nur FSR2 und nicht FSR3.1.

Das spiel macht spass, ich würde aber nicht mehr wie 30-40€ dafür ausgeben. Darum ust es auch erstmal wieder zurück gegangen.
 
Tja, scheinbar kann niemand Nvidia das Wasser reichen.
 
Whitehorse1979 schrieb:
Genau deswegen kosten Nvidias Highendkarten 2000€+ Nennt sich Monopol.
Welche Highendkarte kostet denn 2000€+? Hier steht 1770€: https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/

Und wo ist AMD da so viel günstiger mit ihrer 7900 XTX, wenn man die Leistung mal ins Verhältnis setzt, das Featureset inkl. RT beachtet und dabei im Hinterkopf behält, dass der Preis exponentiell ansteigt, je schneller die Karte ist?
Die 4090 ist mehr als 30% schneller beim Rastern, mehr als doppelt so schnell bei RT und DLSS und co. hatte man lange nichts wirklich entgegen zu setzen. Dazu kommt noch Cuda und das ganze für nur 700€ mehr.

Wie andere schon sagten: AMD ist zu teuer. Die 7900XTX für 600-700€ wäre ein no brainer, aber das wäre für AMD nicht wirtschaftlich. TSMCs Prozess ist nicht günstig und deshalb sind die Nv Karten auch so teuer, denn Nvidia verdient sich an uns Gamern keine goldene Nase. Den großen Umsatz machen die mit KI.

TSMC ist an den Preisen der Karten schuld, aber einige wollen das immer noch nicht sehen und denken, dass AMD die Preise wegen Nvidia nicht senkt :daumen:
 
Zuletzt bearbeitet:
Cool Master schrieb:
Klar, wenn man das Handtuch wirft und keine Ernsthafte Konkurrenz in dem Bereich ist wäre das für mich auch (weiterhin) kein Thema.
Da hat jemand total vergessen, dass AMD sehr wohl eine Konkurrenz für die 4090 auf dem Tisch liegen hatte, nur nie veröffentlicht hat, aus den oben genannten Gründen.
Zu teuer, zu groß, zu durstig.
Alles, was der normale Anwender nicht will.

Ich bin auch dafür, dass die Entwicklung gezielt auf die breite Mittel bis Oberklasse fokussiert wird.
Somit kann man sich auf ein effizienteres Design für diese Produktpalette festlegen, und muss nicht eine Entwicklung bis zur Kotzgrenze vorantreiben und diese dann mit irgendwelche Stückelungen in kleinere Häppchen zerlegen, die dann öfters gerne mal suboptimal wirken, weil man z.B. zu wenig Shadereinheiten etc. dann wieder durch viele zu hohe Taktraten als Zwischenlösung wieder einrenken muss.
Hälfte hiervon, viertel davon, dazu dann 20% mehr Takt, passt schon irgendwie halbwegs, aber nicht so wirklich gut.
Würde man das jetzt mal alles besser für die jeweiligen Podukkategoerien und Leistungsklassenabstände zueinander besser durchdenken und zusammenbasteln, wären auch durchweg effiziente und trotzdem leistungsstarke Gegenparts zu NVidia möglich.
Und auf keinen Fall wegen wenige Prozentpunkte dieses alles wieder opfern.
Wichtig wäre auch, dass in den Treibern mehr Spielraum vor allem nach unten wäre, um die Spannung, Leistungsaufnahme etc. noch weiter optimieren zu können.
-6% bei meiner Radeon 6700XT sind geradezu lächerlich.
Wenn ich die Spannung senke, bringt das auch kaum bis nichts, weil die Karte immer volle Kanne Saft zieht.
Das muss dringend besser werden, die Karte könnte sicher mit maximal 180 Watt laufen, ohne wirklich langsamer zu werden..
 
  • Gefällt mir
Reaktionen: JarlBallin
Kleinere Grafikchips haben keine andere Architektur sondern einfach "nur" weniger Ausführungseinheiten, d. h. wenn man in in der Oberklasse nicht mithalten kann, kann man das in der Regel auch unten nicht.
Bei den kleineren Desktopchips mag man dann diese einfach niedriger einstufen und/oder den Mehrverbrauch dann mit einem kleinen Preisnachlass kompensieren und auf Marge verzichten, bei den Laptops heißt dagegen feste TDP niedrigere Leistung, AMDs Marktanteil spiegelt es wieder.
 
Zurück
Oben