News AMD Radeon RX 9070 (XT): Frank Azor verspricht RDNA-4-Event und attraktive Preise

T-Horsten schrieb:
AMDs Geheimwaffe, FSR4 fügt 8 fake Frames hinzu!
Wenn es gut funktioniert, fände ich das nicht mal schlimm. Wenn wirklich fordernde Spiele dann tatsächlich anständig laufen würden, könnte ich mich sogar wieder mit AMD arrangieren :)

niLcM8G.png
 
  • Gefällt mir
Reaktionen: tollertyp
BAR86 schrieb:
"Attraktive Preise" ist doch auch nur Euphemismus für "wir kommen nicht mit der Konkurrenz mit, also bieten wir unsere Ware günstig an"
AMD hat jedenfalls erklärt, dass es ihnen einfach zu teuer geworden ist, Highend GPU-Chips zu entwickeln und zu produzieren, weil man die Kosten durch den Verkauf bisher nicht wieder reinbekommen hat, da einfach zu wenig Leute bei über 1000$ bei AMD zuschlagen. Man müsste die Karten dann mit der Mittelklasse quersubventionieren, sodass man nun auf Marktanteile durch gute Preis-Leistung setzt.
 
tollertyp schrieb:
@Waelder: Was unmöglich daran liegen kann, dass es auch viel mehr Produkte mit Intel-CPUs gibt? Beispiel Laptops bei geizhals
Anhang anzeigen 1567977

Natürlich ist hier die Frage nach der Henne und dem Ei. Fakt ist aber auch, dass AMD dort jahrelang kartellrechtlich illegal benachteiligt wurde.
Ja, vor 25 Jahren, einem Viertel Jahrhundert. Das muss man jetzt echt nicht mehr breittreten und darf auch mal genug sein.
tollertyp schrieb:
Und wenn man diese Menschen nicht mehr zurückgewinnen kann, dann sollte AMD vielleicht eher auf die setzen, die man erreichen kann. Aber irgendwie machen sie weder das eine noch das andere?
Das Problem ist vielschichtig, vor allem beginnt es mal damit, dass AMD keine eigene Produktion mehr hat und die Wafermengen schon laaaange vorab bestellen muss. Man kann also nicht einfach 80% des Marktes bedienen wenn man es möchte und auch nicht wennd er Markt es verlangt.
tollertyp schrieb:
@BAR86: 200W war für mich auch die Schmerzgrenze, habe sie jetzt aber leicht aufgeweicht. Aber 250W finde ich dennoch für "gehobene Mittelklasse" (und als anderes sehe ich auch eine RTX 5070 nicht an) dann doch irgendwie unattraktiv.
Das darf natürlich jede(r) handhaben wie er/sie möchte.
Ich bleib' dabei, dass mir effizienz wichtig ist und daher schau ich auf ebendiese. Damit ist natürlich nicht gesagt, dass eine 200W Karte nicht sogar effizienter sein kann als eine 120W Karte die weniger als die Hälfte der FPS erzeugt.
Schau' ich mir von Gen- zu Gen an.
Im Moment überzeugt mich kaum ein verfügbares Angebot in dieser Hinsicht.
 
  • Gefällt mir
Reaktionen: cbmik und tollertyp
Dass die Leute bei AMD bei 1000$ nicht zuschlagen könnte an den Produkten liegen, die AMD anbietet.
 
  • Gefällt mir
Reaktionen: Apocalypse
whyme schrieb:
Kann also schon irgendwo verstehen, dass man sich diese Generation das obere Preissegment spart. Im unteren Preissegment kann AMD deutlich mehr karten verkaufen und sich wieder Marktanteile sichern und damit auch ihre Software in den Markt drücken.
Auf alle Fälle! Hat man ja auch bei den 6700ern - 6800ern gesehen. In dem Preisbereich zwischen 300-450€ die Standardempfehlung.

Wenn Sie in dem Sie die 9000er Reihe ähnlich gut platzieren können, wäre das sicher eine gute Sachen.
 
  • Gefällt mir
Reaktionen: Windell und Holgmann75
tollertyp schrieb:
Frank Azor, der hatte doch auch mal eine gute Verfügbarkeit versprochen...

Ja, aber wenn Manager und Geschäftsführer etwas versprechen, halten sie es noch lange nicht, siehe unsere Politiker.

Sorry, aber dieser Vergleich musste sein.
 
  • Gefällt mir
Reaktionen: tollertyp
BAR86 schrieb:
Ich bleib' dabei, dass mir effizienz wichtig ist und daher schau ich auf ebendiese. Damit ist natürlich nicht gesagt, dass eine 200W Karte nicht sogar effizienter sein kann als eine 120W Karte die weniger als die Hälfte der FPS erzeugt.
Schau' ich mir von Gen- zu Gen an.
Ja, Effizienz ist mir auch wichtig, aber gibt bei mir halt auch eine "Maximalleistungsaufnahme". Und die maximal ~200W sollten halt auch effizient sein.
Und gerade in Bezug auf Effizienz hat sich AMD in meinen Augen die letzten Generationen nicht mit Ruhm bekleckert leider. Und NVIDIA (wie ich bei der entsprechenden News auch schon schrieb) scheint auch keine Hemmungen mehr zu haben, die Leistungsaufnahme zu erhöhen.
Waren das noch Zeiten, als eine neue Grafikkarte mehr Leistung bei geringerer Leistungsaufnahme haben konnte...
 
tollertyp schrieb:
Und gerade in Bezug auf Effizienz hat sich AMD in meinen Augen die letzten Generationen nicht mit Ruhm bekleckert leider.
Leider, ja. AMD hinkt seit Maxwell (2014), also nun schon über 10 Jahren der Effizienz von Nvidia hinterher.
Man hatte ganz kurz mal etwas "besseres", als es hieß Radeon 6xxx vs Geforce RTX 3xxx, allerdings ist fragwürdig ob es besser war, denn Nvidia nutzte einen 10nm Prozess, AMD 7nm TSMC. Nvidia war in Raytracing trotzdem effizienter und nur in Rastern war man annähernd gleichauf...
tollertyp schrieb:
Und NVIDIA (wie ich bei der entsprechenden News auch schon schrieb) scheint auch keine Hemmungen mehr zu haben, die Leistungsaufnahme zu erhöhen.
Etwas, das ich wiederholt kritisiert habe und dafür auch kritisiert wurde. Es gibt nichts, was die 4090 nicht schon mit 300W erreichen hätte können, wie auch die CB Tests zeigen. Und warum sollte die Nachfolgergen unbedingt knapp 600 brauchen? Einfach unverständlich.
tollertyp schrieb:
Waren das noch Zeiten, als eine neue Grafikkarte mehr Leistung bei geringerer Leistungsaufnahme haben konnte...
In der Tat, schade, dass das nicht mehr so schnell so kommen wird.
 
  • Gefällt mir
Reaktionen: tollertyp
Fighter1993 schrieb:
High End Mittelfristig kein Thema?
Ich dachte sie setzten nur diese Gen aus.
Mittelfristig kann aber auch 3 Jahre bedeuten.
Dann gute Nacht. Es gibt für NVIDIA keine Konkurrenz mehr und somit Stillstand.
Siehe Leistung 4080S vs 5080 nur von den Daten wird die Rohleistung um ~10% steigen. Das merkt man nichtmal.
Wenn man ehrlich ist, sowas haben sich doch eigentlich viele gewünscht. Es ist seit so vielen Jahren klar in welche Richtung nVidia wollte und das man für jede Generation das Portfolio Stück für Stück verschlechtert hat und immer weiter die Preise anzog. Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
 
  • Gefällt mir
Reaktionen: Rockstar85, Teeschlürfer, Fortatus und 3 andere
gustlegga schrieb:
Schaun mer mal was es dann für +/- €500-550 an Leistung gibt.
50-60% auf meine 6700XT solls schon sein, sonst rüst ich wohl eher nicht auf.
Holgmann75 schrieb:
Das wäre ja dann schon in Richtung 4080/7900XTX, was auch meine Zielvorgabe ist.
Ich denke mal die 5070 TI wird sich auch in dem Bereich bewegen.
Mal sehen was am Ende dabei rum kommt...
Ich wollte nur darauf hinweisen das 50%-60% auf eine 6700XT einer 7900GRE oder einer 4070 Super entspricht, nicht einer 7900XTX oder 4080S. Diese haben 100% mehr Leistung gegenüber einer 6700XT. Ich denke damit sollten die Chancen einer 9070(XT) sehr gut sein die geforderten 50-60% zu knacken.
 
  • Gefällt mir
Reaktionen: Slim.Shady, Rockstar85 und Holgmann75
tollertyp schrieb:
Dass die Leute bei AMD bei 1000$ nicht zuschlagen könnte an den Produkten liegen, die AMD anbietet.
Eben, und statt jetzt ein Produkt zu entwickeln, das wieder nicht konkurrenzfähig ist, aber in der Entwicklung Geld kostet, bietet AMD halt kein Produkt im Segment an.
Aber das ist jetzt auch wieder nicht recht.

Mal davon abgesehen, dass AMD realistisch gesehen wahrscheinlich um die 10% an Nvidia vorbeiziehen müsste, um die Kundenträgheit und Markentreue zu überwinden. Selbst wenn AMD gleichauf mit Team Grün wäre, würden die Leute mit 4090 halt doch wieder zur 5090 greifen.

XD-User schrieb:
Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
So sieht es halt aus!
 
  • Gefällt mir
Reaktionen: Rockstar85, BAR86 und Holgmann75
XD-User schrieb:
Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
Kunden haben durchaus Firmen, die sie bevorzugen. Das ist auch okay, darf jeder haben. Um Leute von so einer favorisierten Firma weg zu bewegen reicht es halt nicht, einfach nur eine Alternative zu sein. Dann muss man halt besser sein. Ob man NVIDIA mag oder nicht, NVIDIA hat sich diesen Status leider erarbeitet.
Ergänzung ()

Holgmann75 schrieb:
Eigentlich basierte die 30er Reihe auf Samsungs 8nm Prozess.. aber wer nimmt das schon so genau... 🫣
einem Prozess, der sich als 8nm identifizierte :P
immerhin hat Samsung damit bewiesen: Strukturbreite ist nicht das Maß aller Dinge :-)
 
Holgmann75 schrieb:
Eigentlich basierte die 30er Reihe auf Samsungs 8nm Prozess.. aber wer nimmt das schon so genau... 🫣
Da hast du dich halt vom Marketing und von den Zahlen täuschen lassen
Samsungs 8nm Prozess ist ein optimierter und umbenannter 10nm Prozess. Hauptsache sich über das Unwissen des anderen lustig gemacht und dabei selbst Unwissen demonstriert. Das ist aber allgemein bekannt gewesen, deshalb hieß es zu recht immer, Nvidia tritt mit einem Node Rückstand an um Kosten zu sparen.


Ja, wer nimmt das schon so genau...
Ergänzung ()

tollertyp schrieb:
einem Prozess, der sich als 8nm...
nannte. Aber 10nm war mit Optimierungen.
So wie Intels 10nm+++ plötzlich Intel 7 hieß. Intels "Intel 4 und Intel 3" eigentlich Intels 7nm Prozess sind usw.




"The 8LPP fabrication technology is an evolution of Samsung’s 10 nm node"

https://www.anandtech.com/show/11946/samsungs-8lpp-process-technology-qualified-ready-for-production


Aber wen interessieren schon diese "Fakten", wenn man einfach auch auf die Zahlen pochen und sich über andere User lustig machen kann...

PS: Die Gerüchteküche spekuliert weiterhin ( https://www.reddit.com/r/NintendoSw...eel_like_people_are_underestimating_just_how/ ) übrigens zum Teil, dass die Switch 2 in Samsungs 8nm Prozess gefertigt wird. Aber vielleicht glauben die auch eher GPT als den eigentlichen Quellen.
Ein Prozess, der 2017 in die Massenproduktion ging... (was noch nicht so schlimm wäre, TSMCs 7nm Porzess war auch ca zu der Zeit, aber halt einen Node weiter, nur weil Samsung ihn 8nm nennt ist er halt trotzdem nicht vergleichbar).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tollertyp
Naja, der Samsung 8N (8 nm) war halt auf dem Papier schon ein 8-nm-Prozess... ChatGPT sagt dazu: "Die tatsächliche Dichte und Leistung des Prozesses liegt näher an der 10-nm-Klasse als an neueren 7-nm-Prozessen."
 
tollertyp schrieb:
Naja, der Samsung 8N (8 nm) war halt auf dem Papier schon ein 8-nm-Prozess...

@tollertyp "ChatGPT sagt".


tollertyp schrieb:
ChatGPT sagt dazu: "Die tatsächliche Dichte und Leistung des Prozesses liegt näher an der 10-nm-Klasse als an neueren 7-nm-Prozessen."

Irgendwie sorgt das bei mir für Kopfschütteln. Wie wäre es mit selbst recherchieren statt einer KI zu glauben...
wobei in dem Fall sagt sie ja eindeutig es ist eher ein 10nm Prozess und eben nicht wie du sagst auf dem Papier ein 8nm Prozess

Aber ich finde interessant, dass es 100x auf Fachseiten erklärt wird, es wird hier immer wieder zitiert, ich verlinke sogar die Quelle zu Anandtech und dann versucht man es mit einer generischen KI zu widerlegen... wir sind also an dem Punkt gekommen wo man Maschinen mehr glaubt als der Recherche der Menschen.
Zu meinem "Glück" hat die Maschine in dem Fall aber eh bestätigt, was ich schon gesagt habe und

Hier übrigens noch aus der Wikipedia mit weiterführenden Quellen:
https://en.wikipedia.org/wiki/10_nm_process
"In June 2018 at VLSI 2018, Samsung announced their "11LPP" and "8LPP" processes. "11LPP" was a hybrid based on Samsung "14 nm" and "10 nm" technology. "11LPP" was based on their "10 nm" BEOL, not their "20 nm" BEOL like the "14LPP". "8LPP" was based on the "10LPP" process. Nvidia released their GeForce 30 series GPUs in September 2020. They were at that time made on a custom version of Samsung's "8 nm" process, called "Samsung 8N"...

@Holgmann75 hatte einfach unrecht
Ergänzung ()

PS: hier nochmal eine interessante News zum Thema, dass die 3xxxer Serie in 10nm kommt. Das war schon viele Monate vor Release dank "Kopite7Kimi" bekannt:

https://www.igorslab.de/chipgroesse...-in-samsungs-8-nm-lpp-immer-wahrscheinlicher/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slim.Shady und Rockstar85
@BAR86: Irgendwie sorgst du gerade bei mir für Kopfschütteln... ich sagte "auf dem Papier ein 8 nm Prozess". Auf dem Papier wurde auch die RTX3000-Serie damals veröffentlicht.

Und wo sagt das Zitat von ChatGPT irgendwas über die tatsächliche Strukturgröße?
Mein Zitat von ChatGPT soll ja auch zeigen, dass der Prozess eine "Mogelpackung" war. Ein vernünftiger 8nm-Prozess wäre näher an 7nm als an 10nm.

Dass ChatGPT nicht richtig liest, das bin ich ja gewohnt. Von dir war ich das eigentlich nicht.
 
@tollertyp Nun ich ging davon aus, dass du mir eigentlich widersprichst, weil
"Naja, der Samsung 8N (8 nm) war halt auf dem Papier schon ein 8-nm-Prozess."
das "halt" und "schon ein 8nm Prozess" suggerieren eben, dass es NICHT ein 10nm Prozess ist. In diesem Satz widersprichst du mir, ebenso mit dem "Like" beim Kollegen der sagt, dass ich unrecht habe mit meiner 10nm Behauptung.
Daher meine Annahme, dass du eigentlich mir widersprechen wolltest. Wenn das nicht so gemeint war, sorry.
Damit es klarer wird hättest du vielleicht sagen sollen
"stimmt, selbst laut ChatGPT ist der Samsung 8nm eher ein 10nm Prozess" was er ja ist, auch wenn @Holgmann75 lieber den Marketing-Zahlen glaubt als den Fakten
 
  • Gefällt mir
Reaktionen: tollertyp
Zurück
Oben