News Radeon-Chef geht: Scott Herkelman verpasst den Endgegner

Philste schrieb:
Tun Sie eben nicht, siehe Earnings Call von Q2. Nur weil MF und andere Einzelhändler viele verkaufen, müssen das auf den gesamten Markt nicht viele sein. Das selbe gilt bei CPUs, bei MF hat AMD im Moment wieder 85% Anteil, stimmt aber im Gesamtmarkt nie im Leben.
RDNA 2 Abverkauf läuft ja schon eine Weile, der Gebrauchtmarkt war mit Mining Karten geflutet gewesen.
irgendwo muss nach der Blase der letzten Jahre ja auch jeder mal eine neue GPU abbekommen haben. RDNA3 setzt sich nun auch nicht deutlich von RDNA 2 im Abverkauf ab. 600€ für eine 6900xt / 6950xt ist jetzt irgendwo auch hart zu schlagen gewesen, aber die Karten mussten halt weg, man hat die Produktion ja tatsächlich stark steigern können im Mining Boom, der Markt der dann halt zusammen gebrochen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und SweetOhm
Geld regiert die Welt, mit einem geringen Budget hat er das Beste herausgeholt. Mal sehen, was jetzt nach RX7000 passiert und ob mehr Geld in die Grafikkartensparte hineingepumpt wird. Wenn das der Fall ist und ein gutes Entwicklerteam die Arbeit weiterhin fortführt, geht der Pfeil weiter nach Oben.
 
  • Gefällt mir
Reaktionen: Eidgenosse und HaRdWar§FreSseR
Kazuya91 schrieb:
Da muss ich dir leider widersprechen. Allein der Factory-Reset-Bug ist schon seit gefühlt einem Jahr drin und es tut sich nichts. Ich denke AMD kann deutlich mehr rausholen wenn die Treiber noch weiter optimiert werden.
Da fehlen AMD gute Errate Lists, das kenne ich aber auch aus unserem Hause.
Gute Software fällt eben nicht vom Himmel.. AMD macht aber bei 99% bessere Arbeit als Intel oder NV, gerade wenn es Richtung Linux geht. Meine 3060Ti zickt aber auch weniger als die HD7870, die hier liegt.
Die 1080Ti zB hatte manchmal schon komische PowerBugs (Taktung auf Vollgas im Idle etc), die nicht erklär- aber reproduzierbar waren.
 
  • Gefällt mir
Reaktionen: Sardok, SweetOhm und NMA
cypeak schrieb:
ich finde diese betrachtung sehr schief.
die energieeffizienz ist alles andere als schlecht - da gibt es deutlichen fortschritt gegenüber den vorserien.
ich bin selber nvidia nutzer, trotzdem kann man das amd nicht absprechen.

ja, relativ zu ada ist rdna3 bei der energieeffiziennz unterlegen - aber was ich ziemlich übertrieben finde ist diese haltung als ob wir hier von riesigen unterschieden sprechen und als ob so mancher gpu user zum stromseffizienzjunkie mutiert wäre.
wenn es danach ginge, müssten wir alle unsere 3000er geforce's und 6000er radeons oder noch ältere gpu's aus unseren systemen verbannen.
wo war diese energieeffizienz argumentation als in der vorserie die 6000er radeons den 3000er nvidias überlegen waren..auch hier teilweise 20%+...das ist offenbar an allen vorrübergegangen; da wurden ineffiziente karten wie eine 3090(ti), eine 3080ti odere auch 3060(!) als stars gefeiert!
glaubt ihr nicht? schaut euch die entsprechenden messungen/diagrame hier bei cb an!

das andere ist, dass auch nvidia nicht mit jeder gpu generation so einen sprung bei der effizienz macht - der umstieg von samsung zu tsmc als fertiger und zu kleineren strukturbreiten hat zu ada einen ungewöhnlich großen sprung verholfen - das ist alles.
es wäre also schön wenn man hier die relationen wahren würde und nicht meinen würde dass der mehrverbrauch von rdna3 in irgendeiner form "kriegsentscheidend" wäre.
Ich verstehe jetzt nicht warum jeder zweite meinen muss Karten aus der Vergangenheit zu erwähnen, wo es doch um RDNA 3 geht. Der Mann geht nicht, weil die alten RDNA-Karten gut sind, sondern gehen muss, weil RDNA3 nicht mithalten kann.

Selbst der Größte Chip 7900XTX kann mit Nvidias Abfallprodukt der 4090 nicht mithalten. Die 7900XTX verbraucht mehr watt und ist langsamer als das aktuelle Top model von Nvidia.
Also, bitte bei der Wahrheit bleiben.

Jetzt werden wieder welche kommen und sagen man kann die beiden nicht vergleichen doch kann man da es die Größte GPU von AMD ist im Highend Segment das Witzige an der Sache ist die 4090 ist nicht mal der big chip und ihr redet was von Konkurrieren.

Das sind nun mal die fakten aktuell

RDNA 3 ist einfach schlecht in Sachen wie RT und Verbrauch eigentlich müsste AMD sich voll auf RT konzentrieren aber nein nur die Raster Performens wird erhöht.
Ich bin mir sicher das sehr viele meiner Meinung sind das die reine Raster Leistung nicht mehr so wichtig ist wie vor einigen Jahren zuvor.

Die Zukunft ist KI, DLSS und DLAA.


lg
 
Zuletzt bearbeitet:
Taxxor schrieb:
aber wenn speziell von „early fall“ die Rede ist, wäre das für mich September
Für dich, aber es gibt keine Norm wann "early fall" ist.
Am 1. Oktober wäre "early fall" also vorbei? Wieso?
 
HaRdWar§FreSseR schrieb:
https://www.golem.de/news/rdna-3-gr...rx-7700-xt-und-7800-xt-vor-2308-177102-2.html

Nicht ich, habe diese nachricht verbreitet sondern gewisse Internetseiten.


lg
Ich weiß, dass auf diversen Internetseiten so geschrieben wurde, aber auf der Präsentation wurde ganz klar gesagt, dass der Treiber mit HYPR-RX im September kommt (was geschehen ist) und FSR3 "early fall".
Da der Treiber auf September datiert wurde, FSR3 aber nicht, ist davon auszugehen, dass es nicht im September kommt
 
  • Gefällt mir
Reaktionen: Tanzmusikus und 9t3ndo
Der Fokus bei AMD wechselt auf AI.
Das ist vielleicht nichts für ihn, ist mehr der Gaming Typ.

Immerhin hat AMD vor kurzem gesagt dass ROCM jetzt die höchste Priorität fürs Unternehmen hat.

Auch Nvidia fokussiert sich jetzt mehr auf den Markt.
 
  • Gefällt mir
Reaktionen: NMA und HaRdWar§FreSseR
Kazuya91 schrieb:
AMD muss Nvidia nicht einholen und das werden sie in nächster Zeit auch wahrscheinlich nicht. Es reicht, das Treiberteam aufzupeppen. Saubere, stabile Treiber
Witzigerweise, hatte ich nie große Probleme mit Grafikkarten-Treibern. Vorallem mir AMD nicht.
Wer hat aber momentan massiv Treiberprobleme bei Anno 1800? Mein Bruder mit seiner 4090. 😂
Tja kein treiber ist perfekt.

Naja außer denen von Matrox. Die rocken.

Zum Thema:
Schade das er geht.
So übel fand ich rdna 3 nicht, denn es war klar, dass sie nicht so gut wird wie rdna 2.
Es ist die erste MCM Architektur, das ist komplettes Neuland. Da ist es nur natürlichy dass noch nicht alle Probleme ausgemerzt sind.
Ist wie bei ryzen. Ryzen 1 war gut. Aber ryzen 2 wurde es besser als die Konkurrenz.
Und hoffentlich läuft das auch so bei den nächsten AMD-architekturen.
Zu wünschen wäre es.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayn, Tanzmusikus und HaRdWar§FreSseR
DrFreaK666 schrieb:
Ich weiß, dass auf diversen Internetseiten so geschrieben wurde, aber auf der Präsentation wurde ganz klar gesagt, dass der Treiber mit HYPR-RX im September kommt (was geschehen ist) und FSR3 "early fall".
Da der Treiber auf September datiert wurde, FSR3 aber nicht, ist davon auszugehen, dass es nicht im September kommt
Alles klar, danke dir für die Info, die habe ich leider verpasst.

lg
 
  • Gefällt mir
Reaktionen: DrFreaK666
Einfallslos^99 schrieb:
@Taxxor fängt der Winter nicht mit dem 21.12. an? Sowie der Herbst mit 23.09.? Kann die Aussage immer noch nicht verstehen.
Also müsste eigentlich ja von 01.12. bis 21.12. eher late fall sein.
Meteorologischer Winter vs kalendarischer Winter
 
Nicht auszumalen, wie die Marktanteile aussehen würden, hätten die Einstiegs&Mittelklasse Karten bei nVidia mehr Speicher bekommen. 😱

Naja, der gute Mann wird schon anderweitig unterkommen und nagt sicher nicht am Hungertuch.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
BAR86 schrieb:
Ein 4090 Gegenspieler geht bei AMD im Moment nicht:
Die Aussage/Behauptung ist ein wenig zu "pauschal" !
Im "gesamten" und RT stimmt jene welche.
Jedoch gibt es ein paar Beispiele in denen eine 4090 das nachsehen hat. Kommt ganz auf das Game an.
Sind "natürlich" ALLES Cherry ... ;)
 

Anhänge

  • FS 2023 Bench.jpg
    FS 2023 Bench.jpg
    405,8 KB · Aufrufe: 138
SweetOhm schrieb:
Jedoch gibt es ein paar Beispiele in denen eine 4090 das nachsehen hat. Kommt ganz auf das Game an.
Sind "natürlich" ALLES Cherry ... ;)
Vor allem ist das ein Test im absoluten CPU Limit, also weniger Cherry als einfach falsch wenn es darum geht, welche GPU schneller ist^^

Und auch ansonsten, auch wenn es ein paar wenige Spiele gibt, wo sie rankommt(auch im GPU Limit), ist es immer noch kein wirklicher Gegenspieler, das sieht man ja alleine schon am Preis
 
Mit Verlaub, aber einige hier sollten eventuell mal wieder über den Tellerrand ihrer kleinen Gaming-Bubble hinaus schauen ;) .

Wenn der Abgang von Herkelmann überhaupt etwas mit dem Consumer-Bereich zu tun hat, dann sind die Tiefstände bei den dGPU Marktanteilen höchstens noch der Tropfen, der das Fass zum Überlaufen brachte, aber viel schwerwiegender dürfte es sein, dass AMD den AI-Zug nahezu komplett verpennt hat.

Das sind die großen strategischen Dinge für die jemand in Herkelman's Position den Posten räumen muss. Das darf nicht passieren, dass der direkte Konkurrent plötzlich zweistellige Milliardenumsätze pro Quartal (nVidia erwarten für das kommende Quartal ca. $16 Mrd. Umsatz) einfährt und somit den Quartalsumsatz gegenüber dem Vorjahr mehr als verdoppelt, während man selbst in deutlich bescheideneren Fahrwassern rumdümpelt und bei der Party nur mit einem Wassergläschen am Rande daneben steht.
nVidia machen im Vergleich mit AMD fast das 8-fache an Datacenter-Umsatz ($1,3 Mrd AMD vs. $10,3 Mrd. nVidia im Q2).

Ein Herkelman wird gut dafür bezahlt, um genau solche Entwicklungen kommen zu sehen und rechtzeitig seinen Geschäftsbereich inklusive Produkt-LineUp für solche lukrativen Entwicklungen fit zu machen.
Wer einen "business case" von dieser Größenordnung derart kapital verpennt, muss nun mal die Konsequenzen ziehen.
 
  • Gefällt mir
Reaktionen: Hal14, Xiaolong, .Sentinel. und 3 andere
Glaube nicht das Herkelman viel Mitsprache an RDNA hatte.
Die Entwicklung war bestimmt schon weit fortgeschritten bis er hinzu gestoßen ist.

RDNA ist nicht schlecht.

Absolut brauchbar und war mit RDNA 2 definitiv Konkurrenfähig.

Mit RDNA 3 ist man in den Chiplet Bereich vor gestoßen und muss dort erstmal "Erfahrungen" sammeln.
Ich sehe RDNA 3 bei weitem nicht so schlecht wie der allgemeine Tenor ...
Zudem ist es für mich der Pipecleaner für die Nachfolger.

Wenn AMD jetzt wirklich den High End Markt nicht weiter beliefert, kehrt dort nach und nach Stillstand ein.

Hat man ja bei Intel gesehen. Der X-te Refresh, immer wieder teuerer. Meist Sockelwechsel nötig ...

nVidia verdient sich mit KI Beschleunigern aktuell eine goldene Nase.
Das wird auch noch ne ganze Weile so gehen.

Was erwartet uns also? ...

Kleinere Sprünge bei der Rohleistung, welche über DLSS und Konsorten kaschiert werden.
Immer schwerer die Karten zu vergleichen.

AMD wird in der Mittelklasse versuchen Intel fern zu halten.
Wobei ich bei Intel immer noch nicht sicher bin, ob es überhaupt weiter geht ..

Mal sehen ob Herkelman dort aufschlägt ...
 
  • Gefällt mir
Reaktionen: Moonr3der, NOTaNerd und SweetOhm
Taxxor schrieb:
Vor allem ist das ein Test im absoluten CPU Limit, also weniger Cherry als einfach falsch wenn es darum geht, welche GPU schneller ist^^
Meinst Du dieses CPU Limit ?
Ergänzung ()

RogueSix schrieb:
aber viel schwerwiegender dürfte es sein, dass AMD den AI-Zug nahezu komplett verpennt hat.
Also im "Angebot" hätten sie ja was ...

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Instinct-MI300X-KI-1421962/
 

Anhänge

  • CPU Bench FS 2023.jpg
    CPU Bench FS 2023.jpg
    324,8 KB · Aufrufe: 109
  • Gefällt mir
Reaktionen: Tanzmusikus
TigerNationDE schrieb:
Das würde ja meine Theorie bestätigen, das es von nun an nur bergab geht xD
Oder wieder bergauf.

Warum immer so negativ? VIelleicht ist das auf beiderseitigem Einverständnis? Nicht nur RDNA3 war nicht ganz das, was man erwartete, auch die Treiber sind nicht mehr so gut wie die Jahre davor.

Das lag und liegt noch in seiner Verantwortung!

Also, es kann nur besser werden ;)
 
Kazuya91 schrieb:
AMD muss Nvidia nicht einholen und das werden sie in nächster Zeit auch wahrscheinlich nicht. Es reicht, das Treiberteam aufzupeppen. Saubere, stabile Treiber gepaart mit Karten die ein gutes P/L-Verhätlnis haben reicht doch.
Genau das was man seit zig Jahren also hört. Scheint ja daher gar kein Problem zu sein :D
Ergänzung ()

fairhext schrieb:
Hmm ich weis ja nicht. Die RTX 30er waren RDNA2 in Punkte Effizienz auch unterlegen. Dennoch waren die RTX Karten zeitgemäß.
In meinen Augen wird das Effizienzthema sowieso viel zu sehr bewertet. In meinem Kundenstamm ist die Leistungsaufnahme oftmals total uninteressant, die wollen Leistung haben. Habe eh nie verstanden wieso man bei Karten ab den x800 bei AMD und den x080 bei nVidia ständig auf die Leistungsaufnahme schaut. Jemand der sich für 800€+ ne GPU kauft, ist wohl doch eher uninteressiert an 10€ mehr Strom im Monat. Zumindest sind das meine Beobachtungen. Es verhält sich da wohl wie mit den Porschefahrern und dem Sprit :D
Ergänzung ()

CastorTransport schrieb:
Warum immer so negativ? VIelleicht ist das auf beiderseitigem Einverständnis? Nicht nur RDNA3 war nicht ganz das, was man erwartete, auch die Treiber sind nicht mehr so gut wie die Jahre davor.
Waren die jemals gut? Die waren zu ATI Zeiten schon das Schreckgespenst.
 
  • Gefällt mir
Reaktionen: fairhext
Zurück
Oben