News Radeon-Chef geht: Scott Herkelman verpasst den Endgegner

Jakxx schrieb:
Deren Geschwafel von 8K gaming bei der Vorstellung der neuen Radeon Karten konnte ich mir kaum anhören.
8K ist halt das neue Buzzword, hebt aber nicht wirklich ab.
8K Fernseher, 8K Konsolen, nur braucht kaum jemand 8K
 
Taxxor schrieb:
Naja also bei mir ist
September: early fall
Oktober: fall
November: Late fall
Wie nennst du dann den Zeitraum von 01.12. bis 21.12.? Super late fall? :D
Spaß bei Seite, early fall muss man ja nicht auf die eine Woche im September begrenzen.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
HaRdWar§FreSseR schrieb:
Meine persönliche Einschätzung er wurde gegangen, auch wenn es so ausgehen mag, dass er freiwillig das Unternehmen verlässt.
Die RDNA3 Architektur ist sicherlich nicht schlecht, für die er verantwortlich ist, aber leider auch nicht mehr zeitgemäß, die Effizienz ist einfach nicht gut im Vergleich zu Konkurrenz.
Hmm ich weis ja nicht. Die RTX 30er waren RDNA2 in Punkte Effizienz auch unterlegen. Dennoch waren die RTX Karten zeitgemäß.
 
  • Gefällt mir
Reaktionen: Slayn und SweetOhm
HaRdWar§FreSseR schrieb:
Die RDNA3 Architektur ist sicherlich nicht schlecht, für die er verantwortlich ist, aber leider auch nicht mehr zeitgemäß, die Effizienz ist einfach nicht gut im Vergleich zu Konkurrenz.
Dann hätten nach AMPERE auch Köpfe rollen müssen bei NV (laut Deiner Theorie) ?!?
 
Shader schrieb:
Echt Bitter das AMD da einfach nicht aus der Versenkung kommt, sobald mal eine schlechte Karte auf dem Markt ist wird das sofort abgestraft. NVIDIA (wie Intel bei den CPU's) steht dagegen in Sachen Marktanteilen wie ein Fels in der Brandung.
Gibt ja auch keinen grund als nv-kunde das lager zu wechseln und wenn man agnostisch ist gibt es auch derzeit leider auch wenig grund AMD vorzuziehen. Hatte von HD5770 bis Vega64 auch nur AMD verbaut, preis/leistung war einfach besser. Mit RT und DLSS hat sich das aber geändert bei mir, da stimmt für mich dieser faktor nicht mehr und NV bietet mir viel mehr fürs geld ... außer vram 😁
 
  • Gefällt mir
Reaktionen: Bügelbernd
Einfallslos^99 schrieb:
Wie nennst du dann den Zeitraum von 01.12. bis 21.12.? Super late fall? :D
Spaß bei Seite, early fall muss man ja nicht auf die eine Woche im September begrenzen.
Dezember bis Februar ist Winter, dementsprechend early winter.

early fall wäre das erste Drittel vom Herbst und ginge halt noch 4 Tage
 
  • Gefällt mir
Reaktionen: NMA und fox40phil
Linmoum schrieb:
Seine interne Arbeit kann man natürlich nicht beurteilen, nach außen hin aber ein ähnlicher Dampfplauderer wie Koduri. Überrascht mich daher nicht unbedingt, dass er geht (oder gegangen wird?).
Wir können halt Koduris interne Arbeit auch nur schwer beurteilen
Ergänzung ()

SweetOhm schrieb:
Dann hätten nach AMPERE auch Köpfe rollen müssen bei NV (laut Deiner Theorie) ?!?
Was war mit Ampere falsch? Konnte mit AMD mithalten obwohl in einem wesentlich schlechteren Prozess
 
BAR86 schrieb:
Was war mit Ampere falsch? Konnte mit AMD mithalten obwohl in einem wesentlich schlechteren Prozess
Strom verbraten par excellence (FPS/Watt).
 
fairhext schrieb:
Hmm ich weis ja nicht. Die RTX 30er waren RDNA2 in Punkte Effizienz auch unterlegen. Dennoch waren die RTX Karten zeitgemäß.
Hier es aber nicht um RDNA2 hast du den Beitrag gelesen?

Mit RDNA 1 und 2 hat AMD 30 % an Marktanteil gewonnen mit RDNA3 wieder 20 %, wenn ich mich recht erinnere, verloren. Natürlich ist es nicht allein die Effizienz, die kaufentscheidend ist.
Marketing, die Extras an Technologien, die auch eine Kaufentscheidung entscheidend machen.

Bei all diesen Sachen hat Nvidia die Nase vorne und solange das so bleibt, wird sich auch nichts ändern.
Ich finde es immer wieder süß wie hier im Forum immer nur AMD-Karten vorgeschlagen werden, da Nvidia das Böse ist aber selbst das allein hilft nicht der gute Mann geht nicht umsonst.
 
  • Gefällt mir
Reaktionen: fairhext
@Taxxor fängt der Winter nicht mit dem 21.12. an? Sowie der Herbst mit 23.09.? Kann die Aussage immer noch nicht verstehen.
Also müsste eigentlich ja von 01.12. bis 21.12. eher late fall sein.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
SweetOhm schrieb:
Dann hätten nach AMPERE auch Köpfe rollen müssen bei NV (laut Deiner Theorie) ?!?
Nein, da Nvidia sich das leisten kann schon mal die Marktanteile angesehen, die Nvidia hat.

Für Nvidia sind GPUs in dem Segment nicht relevant genug, damit Köpfe rollen, die Aktionäre interessiert der professionale Markt KI etc.

Die ganzen 4090/4080 und wie sie nicht alle heißen sind Abfallprodukte der Großen teuren GPUs die Hauptsächlich im Profie-bereich eingesetzt werden.

Bei AMD sind es keine Professionellen Karten, sondern Only für Gaming hergestellte Line Up.

Verstehst du was ich meine mit Geldverschwendung?
Ergänzung ()

MagicPumpkin schrieb:
damit wird nvidia ihren Vorsprung weiter ausbauen.
Leider Ja, es sein denn Intel kommt um die Ecke und ärgert die, was ich aber nicht so glaube.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm
Einfallslos^99 schrieb:
@Taxxor fängt der Winter nicht mit dem 21.12. an? Sowie der Herbst mit 23.09.? Kann die Aussage immer noch nicht verstehen.
Also müsste eigentlich ja von 01.12. bis 21.12. eher late fall sein.
Nach dem meteorologischen Kalender ist der erste Tag des Herbstes immer der 1. September und endet am 30. November. (Late Fall, laut Google)
 
  • Gefällt mir
Reaktionen: JJJT, Tanzmusikus, NMA und 4 andere
@Rockstar85 alles klar, danke. Interessant ist es allemal. Was neues gelernt.
 
  • Gefällt mir
Reaktionen: SweetOhm und HaRdWar§FreSseR
Rockstar85 schrieb:
Nach dem meteorologischen Kalender ist der erste Tag des Herbstes immer der 1. September und endet am 30. November. (Late Fall, laut Google)
OK. lass es der 30 November sein ,auch dann wird FSR3 nicht da sein.
 
Ohne die internen Gründe zu wissen kann man viel mutmaßen warum er geht.

Vielleicht hat er auch nur kein bock mehr auf den Stress und hat jetzt ein Kutter und fängt Shrimps^^
 
  • Gefällt mir
Reaktionen: M11E, SweetOhm, fox40phil und 2 andere
Cronos83 schrieb:
Wenn bei AMD nun eventuell noch der 4090 "Gegenspieler" aus dem Lineup fliegt, sieht's bald noch düsterer aus.
Ein RDNA 3 Gegenspieler zur 4090 macht keinen Sinn, die 7900 XTX ist schon über den Sweetspot der Architektur, eine stärkere Karte würde nur negative Presse einheimsen und AMD hat keine Kunden welche bereit wären 1600 oder mehr für eine Grafikkarte zu bezahlen.

In der Position welche AMD bei den GPUs ist können die nur mit Preisen Marktanteile von Nvidia einheimsen, das geht am leichtesten in der Einsteigerklasse, da sich hier am wenigsten getan hat die letzten Jahre, hier müsste AMD ordentlich investieren, dann ist Nvidia unter Druck.

High End bringt AMD nix, da ist nicht genug zu holen.
 
  • Gefällt mir
Reaktionen: Apocalypse, Tanzmusikus und Inxession
Rockstar85 schrieb:
Das Treiberteam ist schon gut aufgestellt, es fehlt hier aber eine bessere Bug Meldeliste.
Da muss ich dir leider widersprechen. Allein der Factory-Reset-Bug ist schon seit gefühlt einem Jahr drin und es tut sich nichts. Ich denke AMD kann deutlich mehr rausholen wenn die Treiber noch weiter optimiert werden.
 
  • Gefällt mir
Reaktionen: M11E, Tanzmusikus, NMA und 2 andere
Cronos83 schrieb:
Wenn bei AMD nun eventuell noch der 4090 "Gegenspieler" aus dem Lineup fliegt, sieht's bald noch düsterer aus.
Ein 4090 Gegenspieler geht bei AMD im Moment nicht:
Würde man dank MCM Ansatz 2x Navi 31 kombinieren könnte man Nvidia beim Rastern zwar angreifen, aber nicht beim RT.
Das Ergebnis wäre ein teurer Chip bei dem man sich durchaus fragen würde wozu man ihn kaufne könnte/sollte: Zukunftsperspektive fraglich, Preis der Karte wäre hoch. Es wäre ein Millionengrab für AMD.
RDNA4 in N4 vorzeitig bringen könnte passieren, aber wohl auch nicht. Vor allem macht man das jetzt nicht Ruck-Zuck, das wäre schon längst geplant gewesen.
Abgesehen davon bringt RDNA4 auch nur was mit deutlich überarbeiteter Architektur.
Immerhin muss man dank MCM Ansatz nicht so tief in die Tasche greifen wie NV.
Ergänzung ()

SweetOhm schrieb:
Strom verbraten par excellence (FPS/Watt).
Das war nicht entscheidend anders als bei AMD und wie gesagt das war dem alten PRozess geschuldet, das war schon 1 Jahr vor Release klar, dass Nvidia hier fast "Eier" zeigt, mit einem alten Prozess gegen neue Karten antritt.
Was dann fast als Sieg gefeiert wurde von AMD (der Raster-Gleichstand) war eigentlich ein trauriger Realitätscheck: Hätte Nvidia denselben Prozess verwendet, wär man wohl gnadenlos in die Realität zurückgeholt worden. Nvidia hat die 7nm Wafer für was anderes verwendet.
 
  • Gefällt mir
Reaktionen: SweetOhm
HaRdWar§FreSseR schrieb:
Die RDNA3 Architektur ist sicherlich nicht schlecht, für die er verantwortlich ist, aber leider auch nicht mehr zeitgemäß, die Effizienz ist einfach nicht gut im Vergleich zu Konkurrenz.

ich finde diese betrachtung sehr schief.
die energieeffizienz ist alles andere als schlecht - da gibt es deutlichen fortschritt gegenüber den vorserien.
ich bin selber nvidia nutzer, trotzdem kann man das amd nicht absprechen.

ja, relativ zu ada ist rdna3 bei der energieeffiziennz unterlegen - aber was ich ziemlich übertrieben finde ist diese haltung als ob wir hier von riesigen unterschieden sprechen und als ob so mancher gpu user zum stromseffizienzjunkie mutiert wäre.
wenn es danach ginge, müssten wir alle unsere 3000er geforce's und 6000er radeons oder noch ältere gpu's aus unseren systemen verbannen.
wo war diese energieeffizienz argumentation als in der vorserie die 6000er radeons den 3000er nvidias überlegen waren..auch hier teilweise 20%+...das ist offenbar an allen vorrübergegangen; da wurden ineffiziente karten wie eine 3090(ti), eine 3080ti odere auch 3060(!) als stars gefeiert!
glaubt ihr nicht? schaut euch die entsprechenden messungen/diagrame hier bei cb an!

das andere ist, dass auch nvidia nicht mit jeder gpu generation so einen sprung bei der effizienz macht - der umstieg von samsung zu tsmc als fertiger und zu kleineren strukturbreiten hat zu ada einen ungewöhnlich großen sprung verholfen - das ist alles.
es wäre also schön wenn man hier die relationen wahren würde und nicht meinen würde dass der mehrverbrauch von rdna3 in irgendeiner form "kriegsentscheidend" wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moonr3der, JJJT, milliardo und 8 andere
Zurück
Oben