News Radeon-Chef: High-End-Grafikkarten sind für AMD weiterhin kein Thema

Ich finde AMD versagt auf großer Linie die Karten an den Mann zu bringen. Nvidia ist und bleibt durch Mundpropaganda die Nr. 1. AMD hat was dGPUs angeht ein schlechtes Image.

Um die Marktanteile höher zu treiben fehlen drei Sachen:
1. Bessere Preise
2. Bessere Treiber
3. Besseres Marketing

Der Preis muss so gut sein, dass sogar Kunden die immer von einer AMD Karte abgesehen haben auch mal zu dieser greifen. Dadurch gibt es mehr Empfehlungen im Freundeskreis. Voraussetzung sind noch bessere Treiber und schnellere Problemlösungen bei Fehlern. Ich lese in etlichen Foren in letzter Zeit dass Beiträge zu bestehenden Fehlern ignoriert werden und ziemlich viel Zeit verstreicht bis die gemeldeten Fehler behoben werden.

Nvidia hat mehr gesalzene Preise, aber bei denen funktioniert was die Treiber angeht alles deutlich reibungsloser.
 
Zuletzt bearbeitet:
Kazuya91 schrieb:
Nvidia hat mehr gesalzene Preise, aber bei denen funktioniert was die Treiber angeht alles deutlich reibungsloser.
Was funktioniert denn in Sachen Treiber bei AMD nicht reibungslos in letzter Zeit?
 
  • Gefällt mir
Reaktionen: katamaran3060, cbmik und jonderson
Mythos Treiber. Ich Verweise immer gerne auf das CB Forum wo Probleme von Nvidia und AMD auf Augenhöhe sind. Auch laut CB Statistik sind die GPU's hier nicht wie bei Steam 95 / 5 % sondern ich meine es waren eher 55 / 45 % für Nvidia in etwa~
Mit anderen Worten hat Nvidia mehr Probleme, dafür aber auch mehr Anteil. Was ein solides 50/50 ist. Da sieht weder der eine noch der andere Hersteller besser aus, ist alles subjektive Wahrnehmung.
 
@stefan92x @riOrizOr
Diesen Bug hier findest du in den Release Notes seit fast einem Jahr unter "Known Issues":
Audio and video may intermittently become out of sync while recording using the AV1 codec in AMD Software: Adrenalin Edition. [Resolution targeted for 24.9.2]

Wenn du mir nicht glaubst, kannst du gerne nachschauen. Ich nehme ab und an Gameplay auf und muss aufgrund diesen Fehlers seit einem Jahr den 23.10.2 als Treiber verwenden. Der Treiber den ich verwende ist von Oktober 2023. Ab Treiber vom Nov 2023 tritt dieser Fehler auf.

Wie kann man bitte solch einen Fehler ca. 1 Jahr unbehoben lassen? Mal schauen ob die kommende Treiberversion das Problem tatsächlich behebt. Ich bin gespannt.
 
  • Gefällt mir
Reaktionen: Lamaan
@Kazuya91 keine Angst ich glaube dir, das war ehrliches Interesse, weil mir seit langem nichts aufgefallen war. Nutze aber ehrlich gesagt auch Linux und nicht Adrenalin. Kriege daher solche Windows-Probleme einfach nicht mit, und mache auch sehr wenig anspruchsvolles (Zocken muss halt gehen und Medienwiedergabe, aufzeichnen etc mach ich alles nicht).
 
  • Gefällt mir
Reaktionen: Kazuya91
Syrato schrieb:
Wird es nicht geben.
Nvidia lässt fertigen und bei Intel ist es ja u.A. henau das, was schwächelt.
Soll das bedeuten das Intel mit 6 Ghz und der Selben Architektur aber einer anderen Fertigung mehr Leistung aus ihren Chips geholt hätte ?
So weit ich das verstehe, ist die Architektur in Verbindung mit dem Takt für die Leistung eines Chips verantwortlich. Die Fertigung gibt den Rahmen in Sachen Größe, Verbrauch und Leistungsoptimum vor.
Da aber auch kein Chip von TSMC je auch nur annähernd wie intel die 6 Ghz erreicht hat, zweifel ich mal ganz stark an das eine Fertigung bei TSMC irgendetwas geändert hätte.

Auch das jetzt so Ideen aufkommen, es sei für AMD leicht gewesen...
Damals hat so gut wie niemand an AMD geglaubt und Foristen die AMD das Potenzial zugetraut haben wurden ausgelacht.
Es ist ja auch schon sehr selten bis nahezu unmöglich mit einer neuen Architektur ~44% IPC draufzupacken, aber das hat AMD halt geschafft und RDNA1 war ein ähnlich großer Sprung zur 7970.

Solche Verwässerungen wie genenwärtig sind der Grund daür, dass die AMD Aktie wieder fällt, also habe ich eigenlich kein Problem damit, ergibt sich doch so wieder eine Chance zum Einstigen..

Viele Grüße
Ergänzung ()

Nvidia ist vorne weil sie ein neues Feature eingeführt haben das ihnen auch in Zukunft regelmäßige Kartenverkäufe einbringt. AMD war in Raster schneller.
Das gut zu verkaufen war schlau von Nvidia.
Ein Feature das quasie nicht Nutzbar ist so lange man nicht ausgedachte Zwischenbilder mit Bildfehlern einfügt.
Ich werde nie verstehen wie man ein Feature nutzen und feiern kann, dass angeblich die Qualität verbessern soll aber gleichzeitig, auf Grund von Leistungsprohblemen, Bildfehler einbaut.
Wenigstens muss jetzt nicht mehr die Auflösung auf 8k beworben werden, es wurde ja ein anders Feature gefunden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: katamaran3060, JarlBallin und xXDariusXx
Quidproquo77 schrieb:
Und bei den Prozessoren entscheiden sich diese "hirnlosen Smartphone-Zombies" plötzlich für AMD Produkte und nicht für Intel?

Mein Schwager hatte mal ne Zeit lang bei Saturn gearbeitet. Die haben die Leute wirklich so beraten, das Intel die bessere Wahl ist und AMD technisch hinterher ist. Ich habe dem dann erstmal ne kleine Lehrstunde in Sachen CPUs geben müssen. Ich konnte es wirklich kaum glauben.
Vor zwei Jahren auf ner LAN war ich der einzigste mit einer AMD GPU. Da waren sich einige nicht sicher ob meine Kiste überhaupt wegen den Treibern oder ähnlichen durchhält (hat sie ;).

Schaut man hier im Forum bei der GPU-Kaufberatung rein, dann liest man immer mal:" bitte keine AMD GPU,habe Angst wegen Problemen,Treibern etc...." ....oder viele haben die überhaupt nicht auf dem Schirm.

In @TigerherzLXXXVI Worten liegt schon Wahrheit.
Ergänzung ()

Mr Bombastic schrieb:
RDNA2 (6800(XT)) gehörte damals zu den effizientesten Karten. Hoffen wir auf effiziente RDNA4 Karten :heilig:
Das interessiert dann aber die Nvidia-Vertreter dann plötzlich nicht mehr,weil ja dann DLSS oben drauf kommt. FSR gibt es dann plötzlich auch nicht mehr. :D

Die Effiziens spielt M.m. nach sowieso nur eine Rolle wenn man den PC unter Volllast täglich über mehrere Stunden laufen lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr Bombastic, katamaran3060, cbmik und eine weitere Person
Effizienz ist für viele schon wichtig.
Nicht jeder hat ein 1kW Netzteil verbaut bei dems egal ist was dran hängt.

Nicht jeder hat ein Case mit 3.5 Slot für die Graka.

Eine RTX4060 bekommst du an jedes Netzteil und in jedes Case rein. Die braucht halt auch nur 120W.
 
Quidproquo77 schrieb:
Relativierung dieser Aussage in 3.2.1...
Wunderbar. Sätze die in einem Zusammenhang gepostet worden sind, hier aus einander nehmen und das Gegenteil behaupten. Geilo.

Es gibt keine 7900 XTX "SUPER" oder "TI" - warum sollte ich da vergleichen. Die haben sich nur angenähert, mehr nicht. Ich habe seit Release die 7900 XTX Referenz im Rechner laufen. Ich habe auch immer wieder auf die Konkurrenz geschaut, mir 4080 und Co. angeschaut, ob ich da besser wegkäme... Aber nein.

Mit den 7900 XTX Karten heute um die 1T€ rum sehe ich auch keinen Grund warum man dem ("Quasi")Monopolisten Geld in den Rachen werfen sollte. Wohlgemerkt - Rasterizer. Für reine FPS Spieler wie mich ausreichend.

Sollte ja klar sein, dass die Nische der Raytracinginteressierten definitiv zu NVidia greifen sollte. Aber muss es da nicht schon die 4090 sein, so schlecht wie die Spiele heutzutage optimiert sind...
 
  • Gefällt mir
Reaktionen: Lamaan, katamaran3060 und xXDariusXx
CastorTransport schrieb:
Wunderbar. Sätze die in einem Zusammenhang gepostet worden sind, hier aus einander nehmen und das Gegenteil behaupten. Geilo.
Welcher Zusammenhang? Es spricht nichts für Nvidia Karten (bzw. gegen 7900XTX) unterhalb einer 4090, weil bei RT eh das Dickschiff gekauft wird? Logik?

Die Vorteile gibt es in jeder Preisklasse.
CastorTransport schrieb:
Es gibt keine 7900 XTX "SUPER" oder "TI" - warum sollte ich da vergleichen.
Aber es gibt ne 4080 Super, zum Beispiel?!
CastorTransport schrieb:
Ich habe auch immer wieder auf die Konkurrenz geschaut, mir 4080 und Co. angeschaut, ob ich da besser wegkäme... Aber nein.
Schlechter kommt man ja mit RT und DLSS sicherlich nicht weg, wenn du mich fragst. Ich hatte vorher kurz eine 7800XT.

CastorTransport schrieb:
Mit den 7900 XTX Karten heute um die 1T€ rum sehe ich auch keinen Grund warum man dem ("Quasi")Monopolisten Geld in den Rachen werfen sollte.
Und da wären wir beim Pudels Kern. Ok.
CastorTransport schrieb:
Sollte ja klar sein, dass die Nische der Raytracinginteressierten definitiv zu NVidia greifen sollte.
Ne, weil die laut dir zu ner 4090 greifen, da die 80er für RT zu langsam ist, oder?
CastorTransport schrieb:
Aber muss es da nicht schon die 4090 sein, so schlecht wie die Spiele heutzutage optimiert sind...
Unter 5090 geht nichts.:D
 
CastorTransport schrieb:
Mit den 7900 XTX Karten heute um die 1T€ rum sehe ich auch keinen Grund warum man dem ("Quasi")Monopolisten Geld in den Rachen werfen sollte
Nur weil AMD bei Desktop GPUs kein Land sieht im Vergleich zu Nvidia, bedeutet dies aber noch lange nicht das die Firma am Hungertuch nagt, bei über einer Milliarde Gewinn in 2023.^^

Also meine Kaufentscheidung würde ich nicht davon abhängig machen.^^


Das was hier in der News von AMD-Seite zu vernehmen ist, wirkt auf mich wie eine kleine Kapitulation, wenn man nicht mal kommuniziert das man über bessere Technik/Software/Treiber mehr Marktanteile zurückgewinnen will sondern "nur" über den Preis.^^

Natürlich ist es schwer gegen Nvidia (bei dGPU) aber ich erwarte zumindest das man Innovation als großes Ziel ausgibt, ob man es erreicht ist wieder eine andere Frage.^^

Welche Person oder Personen war(en) eigentlich für X3D bei deren CPUs verantwortlich? Vielleicht einfach den/die mal an die GPUs ranlassen? :D
 
Gravlens schrieb:
Welche Person oder Personen war(en) eigentlich für X3D bei deren CPUs verantwortlich? Vielleicht einfach den/die mal an die GPUs ranlassen? :D
Die Karte "mehr Cache" hat AMD ja leider schon längst gezogen bei GPUs ("Infinity Cache"), die bringt nicht nochmal was ;)
 
@stefan92x Bei AMD 3D-V-Cache ist es ja nicht einfach nur mehr Cache sondern die Struktur/Aufbau musste dafür geändert werden, wird in dem folgenden Video sehr gut erklärt.^^


Es geht aber auch gar nicht um diesen Cache, sondern darum das sie sich da mal was getraut haben, das alleine wäre schon mal ein Fortschritt.^^
 
Lamaan schrieb:
Ich werde nie verstehen wie man ein Feature nutzen und feiern kann, dass angeblich die Qualität verbessern soll aber gleichzeitig, auf Grund von Leistungsprohblemen, Bildfehler einbaut.
Das liegt daran, dass es nicht so funktioniert, wie du es beschreibst, also du hast es in der Tat nicht verstanden. Denn das Feature funktioniert einerseits auch ohne Frame Generation und andererseits liegen die Bildfehler nicht an Performance-Problemen, sondern gewissermaßen in der Natur der Sache:

Du baust ja ein Bild für eine hohe Auflösung aus einem Bild in niedrigerer Auflösungen durch intelligentes Hochskalieren auf. Du erzeugst also aus weniger Pixeln als Input mehr Pixel als Output. D.h. es fehlt Wissen für die Pixel, die in der höheren Auflösung noch nicht gefüllt sind. Jetzt wird nicht stumpf hochskaliert, sondern mit ML Methoden, wodurch bessere Schätzwerte für die Pixel resultieren, als bei einem normalen Hochskalierungsalgorithmus. Im gleichen Arbeitsschritt werden dabei sogar noch Kanten geglättet.

Aber, richtig gelesen, es wird geschätzt. Das Wissen, wie die Pixel zu färben sind, gibt es ja nicht. Egal wie schnell die GPU ist, man macht ja aus wenig mehr. Das liegt eben nicht in 100% der Fälle richtig, kann es ja auch gar nicht. Trotzdem entsteht durch diese Technik einerseits ein Geschwindigkeitsgewinn, weil das schneller funktioniert, als wenn man das nächste Bild in voller Auflösung rendern würde, und andererseits wurden ja bereits Bildverbesserungstechniken im selben Arbeitsschritt angewendet, die beim normalen Bild ggf. im Nachgang, oder, noch teurer, durch Rendern in höherer Auflösung und dann Herunterskalieren passieren müssten. Also ist in sehr vielen Fällen das Bild dadurch sogar besser bei geringeren Rechenkosten.

Bei Frame Generation wird dann das ganze Bild, nämlich ein Bild zwischen 2 Frames, geschätzt. Mit ähnlichen Methoden und wieder dem Gewinn, dass es schneller ist, als das Bild so zu rendern. Dadurch potenzieren sich natürlich auch die Schwächen eines solchen Ansatzes. Aber das hat auch hier nichts mit mangelnder Leistung zu tun. Im Vergleich zum vorher genannten, wo ein bereits fertiges Bild hochgerechnet wird, wird ja hier ein Bild erzeugt, was den Übergang zwischen 2 Frames darstellen soll. Das sind ungleich mehr Schätzungen, bei denen man hart daneben liegen kann, insbesondere bei Überlagerung von Bildelementen bei viel (ggf. gegenläufiger) Bewegung. Dass das trotzdem vergleichsweise gut funktioniert, ist schon eine ordentliche Leistung.

Man kann natürlich sagen, wenn die GPU an sich mehr Leistung hätte, dann wäre das alles nicht nötig. Platt gesprochen stimmt das, aber unterm Strich gibt es dir als Käufer weit mehr Optionen, und, wie erwähnt, häufig ist ein DLSS Bild eben besser als ein herkömmlich gerendertes. Gleichzeitig läuft die Karte dabei kühler und ruhiger. Oder du kannst einfach mehr aus einer schwächeren Karte herausholen. Also würde ich behaupten, dass die Vorteile hier insgesamt überwiegen.

AMD hat hier mit FSR ja auch ein Eisen im Feuer, sogar, wie üblich, als offenen Standard. Jedoch täuscht das leider nicht darüber hinweg, dass ML basierte Techniken natürlich auch besonders gut auf Hardware funktionieren, die damit gut zurechtkommt. Nvidia ist damals mit Turing diesen Schritt gegangen und hat die Architektur konsequent dafür bzw. Raytracing umgebaut. Turing ist deswegen, was sowas angeht, auch sehr gut gealtert. AMD hat diesen Schritt noch nicht getan und wirft bis jetzt einfach mehr Kohle ins gleiche Feuer. Dadurch tun die Karten das, was sie können, zwar schneller, können aber nicht das, was von ihnen verlangt wird, dadurch besser. Die alten Stärken bleiben stark, die alten Schwächen bleiben schwach, auch wenn sie erträglicher werden.

Ein kompletter Architekturumbau wäre für AMD unumgänglich, um wieder auf Augenhöhe mitzuspielen. Den Schritt mag man offenbar nicht gehen, oder scheut zumindest den Vergleich im High-End Segment. Ich persönlich halte das strategisch für einen Fehler, aber vielleicht irre ich mich ja.
 
Zuletzt bearbeitet:
Gravlens schrieb:
Das was hier in der News von AMD-Seite zu vernehmen ist, wirkt auf mich wie eine kleine Kapitulation, wenn man nicht mal kommuniziert das man über bessere Technik/Software/Treiber mehr Marktanteile zurückgewinnen will sondern "nur" über den Preis.^^

Natürlich ist es schwer gegen Nvidia (bei dGPU) aber ich erwarte zumindest das man Innovation als großes Ziel ausgibt, ob man es erreicht ist wieder eine andere Frage.^^
Die Ressourcen dafür sind im Datacenter Bereich (Instinct) besser aufgehoben. Das Geschäftsfeld ist lukrativer, das Potential enorm und trotz nV Monopol durchaus zu erschliessen.

dGPU Consumer Markt kann erst halbwegs profitabel werden, wenn Marktanteil gewonnen wird. Daher ist es aus unternehmerischer Sicht ganz eindeutig der erste Schritt in dem Bereich.
 
CadillacFan77 schrieb:
dGPU Consumer Markt kann erst halbwegs profitabel werden, wenn Marktanteil gewonnen wird. Daher ist es aus unternehmerischer Sicht ganz eindeutig der erste Schritt in dem Bereich.
Das Problem hierbei ist nur, das hier sind die Aussagen des Chefs und des verantwortlichen für AMD dGPU und nicht von der Chefin von AMD.^^

Die letzte News von ComputerBase zur RX 8000 hier bzgl. der Technik war optimistischer als diese Aussagen hier, auch wenn es nur Gerüchte waren.^^

Also alleine vom Marketing her wird das mit größerem Marktanteil denke ich sehr, sehr schwer.^^
 
Ja das sehe ich auch so. Ich denke AMD wird sich mittelfristig nicht mehr wirklich im dGPU Markt beteiligen.

Der Fokus liegt entweder darüber (Instinct & Datacenter) sowie darunter (APU / Konsolen).

Aus unternehmerischer Sicht würde ich es zumindest so machen. Langfristig sehe ich dGPUs im Desktop (resp. Desktop als Solches) sowieso auf dem absteigenden Ast.
 
Ghostfacekalle schrieb:
Mein Schwager hatte mal ne Zeit lang bei Saturn gearbeitet. Die haben die Leute wirklich so beraten, das Intel die bessere Wahl ist und AMD technisch hinterher ist.
Dafür hat die Mediamarkt/Saturn Kette auch auf alle PC die sie mit Intel CPU verkauft haben fetten Rabatt auf die CPU von Intel bekommen, ergo war das so von der GL vorgegeben.
 
  • Gefällt mir
Reaktionen: jonderson und Ghostfacekalle
Zurück
Oben