News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht

Verak Drezzt schrieb:
wobei der Verbrauch der 4070Ti/4080 gegenüber der 7900XTX/X jetzt auch nicht sonderlich besser ist
Bei ADA bist Du anscheinend nicht ganz auf dem Laufenden. RDNA3 ist nicht RDNA2 (MPT) um da groß was rauszuholen...während man bei ADA den Verbrauchsstift gaaanz großzügig zum streichen verwenden kann.
Zwar nicht ganz die FPS mit der RTX 4070Ti, aber dafür ~320W weniger.
https://imgsli.com/MjUxODk2

RTX 4070Ti super....die selben FPS...höhere Auflösung und ~280W weniger.
https://i.ibb.co/vjrvmch/Horizon-Forbidden-West-5160x2160.jpg

RDNA3 und ADA spielen verbrauchsmäßig nicht mal ansatzweise in der selben Liga.
 
@GerryB

Ich bitte dich, als ob Niemand voneinander weiss was der Andere in der Pipeline hat . AMD hat es sich ziemlich gemütlich im Kielwasser von NV gemacht und solang es für Beide möglichst viel Win Win heisst sind Beide glücklich. So siehts momentan und schon länger aus. Naiv da was Anderes hineinzuinterpretieren . Die Geschichten erfinden und erzählen Andere.

ETI1120 schrieb:
Die Frage ist allerdings sollen AMD und Intel deshalb Nvidia den Markt für Gaming GPUs überlassen und sich auf andere Geschäftsgebiete zurückziehen?
Ich denke das wird nicht passieren.
 
Tornavida schrieb:
Naiv da was Anderes hineinzuinterpretieren . Die Geschichten erfinden und erzählen Andere.
Na dann hör doch bitte auf, immer AMD ne 4090-Chipgröße aufschwatzen zu wollen.
Wirds nicht geben, da nimmt man das teure Silizium lieber für Workstation, ... und bei APU´s
ist genausoviel Nachholbedarf
Man sieht ja, das AMD momentan gar nicht hinterherkommt alle Bedürfnisse zu befriedigen.

Und dann kommt PS5pro und XboxZ und Zen5 usw., da gibts schon genug Bedarf der vorangiger ist als
mit geringer Chance auf große Verkaufszahlen unbedingt nen GPU-TopDog bauen zu müssen.

Das die APU´s zusätzlich so gut im Steamdeck und ROG-Ally ankommen, ist schonmal net schlecht.
Das ist ausbaufähig.
Bei reinen Desktop-APU´s ala Strix HALO bin ich mal gespannt. Kommt für meinen Geschmack auch sehr spät.
(aus o.g. Kapazitäts-Gründen ?)
 
  • Gefällt mir
Reaktionen: Slim.Shady und Rockstar85
GerryB schrieb:
Na dann hör doch bitte auf, immer AMD ne 4090-Chipgröße aufschwatzen zu wollen.
Wirds nicht geben
Du bist schon ein unverbesserlicher Märchenonkel :D

Komm mal wieder runter.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
ETI1120 schrieb:
Sobald AMD das eigene Label auf die Produkte klebt ist AMD voll und ganz dafür verantwortlich.

Was da und wie genau es schiefgelaufen ist werden wir ausstehenden wahrscheinlich nie erfahren. Dass ein Zulieferer gepatzt hat ändert nun Mal nichts an der Verantwortung von AMD für ihr Produkt.
Sobald Nvidia also den 12V HP Stecker verbaut, ist Nvidia dafür verantwortlich.. Right?
Danke, mehr wollte ich nicht hören. Damit sollte der Schadensersatz nicht auf die Händler abgewälzt werden, sondern auf Nvidia.

Dein Ganzer Wall of Text war damit für die Katz. Und nein, es ist mitnichten so einfach, wie du implizierst
 
ThePlayer schrieb:
War das echt so wenig. Dachte es wäre mehr gewesen. Bin aber auch von einer Vega56 auf die 5700xt umgestiegen und das waren etwa 30-40% mehr Leistung.
Habe extra nochmals Benchmarks gegoogelt, wenns hoch kommt 15% waren das mehr. Sie war aber trotzdem ein rundes Produkt, weil Preis, Performance und auch Energieaufnahme gestimmt haben.
 
  • Gefällt mir
Reaktionen: ThePlayer
Wenn die "Strix Halo" APU wirklich die Grafik-Leistung einer Geforce 4070 haben sollte, dann sehe ich für die ganze RX8000 Generation kaum eine Existenzberechtigung.
 
DaHell63 schrieb:
in der selben Liga
Wir reden hier immer noch von Out of the Box oder ? kannst dir ja Mal gerne den Computerbase Test nochmal anschauen, dann weißt du vielleicht auch wo von ich rede
 
Chismon schrieb:
Wenn ich an die Treiber-/Stabilitäts-Probleme der RX 5700XT denke, dann war RDNA 1 leider auch alles andere als perfekt, aber sicherlich war die Halbgeneration ordentlich;
Ich habe extra auf die Einschränkung mit den Treibern verzichtet, weil ich die Hardware hervorheben wollte.

Die Treiber und Software bei AMD sind eine eigene Geschichte. Für RDNA musste AMD den Treiber umstellen und zu dieser Zeit hatte AMD deutlich weniger Softwareentwickler als aktuell. Also haben sie es nicht rechtzeitig geschafft alle Ecken und Kanten rauszunehmen. Und wer auf eine Kante getroffen ist, ...

Ich habe in meiner Kiste eine RX 5500 XT drin. Ich habe sie ziemlich schnell nach dem Release gekauft. Ich war angenehm überrascht wie problemlos das mit den Linuxtreibern lief.

Aber es gehört zur Realität, dass es bei AMD ein bisschen mehr hakt und dass Nvidia mehr Softwarefeatures hat.

Wobei das mit dem Haken nicht immer nur an AMD liegt. Die PC-Games werden nun Mal bevorzugt mit Nvidia-Karten entwickelt und getestet. Und das hat eben Auswirkungen.

Außerdem ist es doch so, dass bei Problemen immer zuerst der AMD-Komponente im System die Schuld gegeben wird.

Chismon schrieb:
RDNA 2 war in der Tat eine sehr gut ausgeführte Grafikkartengeneration, auch wenn etwa die RX 6400 und RX 6500XT nicht das Gelbe vom Ei waren, aber das war wohl auch der dGPU Preisexplosion durch den Kryptominingbooms geschuldet.
Das wäre eine passable Entschuldigung. Würde aber zeitlich in den ersten Boom fallen.

Ich kann Begründung von AMD nicht nachvollziehen, dass Navi 24 als Tandem zu Rembrandt konzipiert war. Es war von vorne herein klar, dass es sehr schwer werden wird AMD-Mobil-GPUs bei den Notebookherstellern zu platzieren. Und einen Chip für diese fragliche Anwendung so zu verstümmeln, dass er als GPU auf einer Grafikkarte nur noch ein schlechter Kompromiss ist, ...

Chismon schrieb:
Die Hintergründe sind nicht bekannt und ja, es ist pure Spekulation, die Deinen Ausführungen nach mehr Unfähigkeit seitens AMD/RTG nahelegt als Kompetenz.

AMD/RTG wäre inkompetent, wenn sie beabsichtigt hätten, dass Navi 33 nur 2 % schneller als Navi 23 ist.

Es gibt ausreichend Fakten die Aufzeigen dass RDNA 3 nicht die Erwartungen erfüllt hat, die AMD an RDNA 3 hatte. Also ist klar dass etwas schief gelaufen ist. Shit happens.

Die Spekulation ist nun was genau verursacht, dass RDNA 3 die Taktziele nicht oder nur mit zu hoher Spannung erreicht. Das wird AMD nie rauslassen.

Die zweite Spekulation (meine) ist, dass der Fehler bereits im RTL-Code liegt und nicht im Chip-Design. Es sind alle 4 Chipdesigns von RDNA 3 (Navi 31, Navi 32, Navi 33, Phoenix) betroffen.
Die Chipdesigns haben 3 verschiedene Prozesse und sind auf 2 Nodes. Ich halte da eine gemeinsame Ursache (RTL-Code) für wahrscheinlicher. Natürlich kenne ich als Laie und Außenstehender die Vorgänge nicht, ...

Die dritte Spekulation (meine) ist nun, dass das seltsame Line Up von RDNA 4 nicht die Folge eines weiteren Problems ist, sondern darauf beruht, dass die Fehler von RDNA 3 ursprünglich auch bei RDNA 4 aufgetreten sind. Und ich (Laie) halte die Weiterverwendung von RTL-Code für eine Möglichkeit.

Chismon schrieb:
Das kann sein, dass man RDNA 4 zu einer Notlösung zusammen gestrichen hat, aber dann wäre das für eine PS 5 Pro Konsole (als mutmasslichem Mix aus RDNA 3.5 und 4) evt. auch fragwürdig, auch wenn man natürlich entgegnen kann, dass Konsolen technisch weniger relevant und fordernd sind und es deswegen passt.
Die Konsolen-APUs werden von anderen Teams als die Gaming GPUs entwickelt. Die Konsolen haben andere Zyklen als die Gaming GPUs. Und so wie es verstehe verwenden sie nicht exakt dieselbe IP wie die Gaming GPUs.

RDNA 3.5 enthält offensichtlich den Fix.

Chismon schrieb:
Wenn RDNA 4 so kommt wie im Artikel kolportiert, kann es - wie RDNA 1 und ein mit RDNA 3 Technik mögliches RTX 4090 Pendant laut Statements von AMD/RTG - auch andeuten, dass es sich für AMD/RTG einfach nicht kostentechnisch lohnt im Gegensatz zu einer Halbgeneration (bei einem RTX 4090 Pendant von AMD/RTG wäre wohl auch der Energiebedarf exorbitant ausgefallen und hätte daher wenig Sinn gemacht).
Genau das hat David Wang im Frühjahr 2023 in einem Interview in Japan gesagt. Er hat gesagt, 1000 USD sind das obere Limit für AMD. Das halte ich für eine sehr realistische Einschätzung des Marktes.

AMD ging mit Navi 31 also an die Grenzen dessen was AMD vermarkten kann. Auch wenn alles geklappt hätte, wäre die 4090 vorne gewesen. Aber Navi 31 wäre im Vollausbau nach dem Plan von AMD deutlich über der 4080 gewesen.

Aber Navi 48 liegt weit unter dem 1000 USD Limit.

Chismon schrieb:
Das MCM Design sehe ich auch nicht abgeschafft und schätze, es wird mit RDNA 5 - hoffentlich ausgereifter/vorab getestet und idealer Weise komplexer und leistungsfähiger als bei RDNA 3 - wieder kehren,
Seit ich das erste Mal von den AMD-Patenten zu den GPU-Chiplets gelesen habe, elektrisiert mich das Thema. Ich war mir sicher, dass AMD bei RDNA 3 auf Multi-GCD-Designs geht. So sicher wie ich mir lange Zeit sicher war, dass Zen 4 von MCM auf Fanout wechselt.

Da beides nicht eingetreten ist, ist bei mir nun ein bisschen Realismus eingekehrt. Ich habe einige Statements nochmal in Ruhe gelesen.

Ich halte es für sehr unwahrscheinlich, dass AMD für RDNA 4 ein Multi-GCD-Design geplant hat. Navi 31 hat ca. 300 mm², mit 50 % mehr Fläche hätte ein RDNA 4 Flagschiff 450 mm². Das ist kein Problem. Eine Multichiplet-GPU benötigt mindestens eine Silicon Bridge. Das sehe ich momentan noch nicht für eine 1000 USD Grafikkarte.

Bei RDNA 5 könnte es notwendig werden, aber da kommt es auch darauf an wie die AMD-Prozesse samt DTCO skalieren.

Chismon schrieb:
aber das heisst nicht, dass es Navi 41, 42 und 42 Chips (basierend auf MCM Design) vorher überhaupt gab
Wieso sollte AMD die Vorgehensweise bei den internen Namen ändern? Die eigenen Teams irritieren?

Chismon schrieb:
und diese alle gestrichen wurden, weil AMD/RTGH nicht rechtzeitg gehandelt hat und die gleiche durch die Architektur festgelegte Problematik wie bei RDNA 3 dort nicht mehr beseitigt werden konnte.
Dass AMD nicht rechtzeitig gehandelt hat, habe ich nicht gesagt.

Die Fehlerursachen sind in den Simulationen und Tests, die bei der RTL-Programmierung und später beim Chip Design für RDNA 3 gelaufen sind, nicht aufgefallen. Oder bestenfalls erst viel zu spät im Chip Design von RDNA 3 aufgefallen. So spät, dass der Fehler selbst mit dem Nachzügler Navi 32 nicht behoben werden konnte.

Falls ich recht habe und der Fehler ursprünglich auch RDNA 4 betroffen hat, es es doch keine Überraschung dass der Fehler der bei der Simulation von RDNA 3 nicht aufgefallen ist auch bei der Simulation von RDNA 4 erst Mal nicht auffällt.

Und je später ein Fehler auffällt, desto schwerer wird es ihn zu beheben. Und das gilt ganz besonders für Halbleiter-Chips

Chismon schrieb:
Eben dieses waren die Gründe, wieso - wenn auch von einigen gefordert - es eben keine RDNA 1 High-End Grafikkarten gab, zumal die Felle größtenteils sowieso schon an nVidia verteilt waren (RDNA 1 vergleichsweise später bei den Marktstarts der Kartenmodelle dran war).
Ich denke es gibt einen weiteren ganz profanen Grund.

AMD hat zu dieser Zeit das GPU-Team gesplitted um RDNA und CDNA getrennt zu entwickleln. Es war zu dieser Zeit (2015/2016) schlicht keine Kapazität und kein Geld da um einen großen GPU-Die für RDNA 1 zu entwickeln.

Chismon schrieb:
Wenn AMD/RTG schon soweit geht ein RDNA 3.5 aufzulegen, könnte man auch davon ausgehen, dass man ein MCM Design für RDNA 4 aus dem Boden hätte stampfen können (welches aber zu spät als Alternative zu RTX 5000 auf den Markt gekommen wäre), aber es macht dann wohl eher Sinn RDNA 5 zeitlich vor zu ziehen (mit einem Marktstart bspw., in etwa zum Zeitpunkt eines RTX 5000er Refreshs, den nVidia schon als Konter planen dürfte) und RDNA 4 zu einer Halbgeneration zu machen.
RDNA 3.5 gibt es soweit ich weis nur für die APUs.

Die Geschichte mit dem Vorziehen hatte ich zuerst auch im Kopf, aber vom Timing her bin ich sehr skeptisch.

Chismon schrieb:
Ja, das gilt aber ebenso für nVidia oder Intel, nicht ausschließlich für AMD(/RTG) und dass die Qualitätskontrolle von AMD/RTG (hinsichtlich der Zulieferer) bei den Vapor Chambern versagt hat, will ich auch nicht beschönigen, aber ebenso gilt das auch für nVidia mit dem testen der für sie gefertigten 12VHPWR-Steckeradapater.
Die Linie auf die Nvidia sich zurückzieht ist, dass ein korrekt eingesteckter Stecker keine Probleme macht. So weit ich weiß hat noch niemand gezeigt, dass korrekt eingesteckte Stecker Probleme machen.

Das ist formaljuristisch OK, und deshalb gibt es auch keine Klagen gegen Nvidia. Und darauf reiten ja auch die Nvidia-Fanboys herum.

Sachlich ist es falsch. Ein Stecker den Laien bedienen, muss sicher sein, auch in dem Sinne dass man ihn nicht falsch einstecken kann.

Wenn man die Linie "Anwenderfehler" konsequent weiterdenkt, bedeutet es, dass nur Fachpersonal mit diesen Steckern hantieren darf. Das wäre das Ende des DIY-Marktes. Deswegen hat die PCI-SIG reagiert, und den Stecker korrigiert.

Natürlich hätte Nvidia das Problem aus der Portokasse bereinigen können, aber das hätte IMO als Schuldeingeständnis gewertet werden können und den Klagen erst die Tür geöffnet.

Und Nvidia hatte auch keinen Druck zu reagieren, da die lautstarke Fraktion der Nvidia-Fanboys das ganze als Majestätsbeleidigung aufgefasst hat und ziemlich heftig Position für Nvidia bezogen hat.

Chismon schrieb:
Ja, davon ist wohl auszugehen und es ist wohl auch nicht immer Interesse der Konzerne, in dem Fall AMD/RTG mit RDNA 4, das zu kommunizieren, denn das dürfte rufschädigend und damit kontraproduktiv sein.
Das Platzen der RDNA 3 Hypeblase war rufschädigend genug.

Das eigentliche Problem ist IMO, das es in den USA einige Anwälte dazu animieren könnte eine Sammelklage anzustrengen.

Deshalb habe ich schon im Dezember 2022 gesagt dass an den Gerüchten zu einem Refresh der das Problem behebt, nichts dran ist.

Chismon schrieb:
Es bleibt zu hoffen, dass sie daraus lernen, wenn es wirklich die von RDNA 3 herrührende, nicht mehr zu ändernde Architektur war und nicht vordergründig Kostenkalkulationen/Produktplatzierungsstrategie, aber da das nicht bestätigt ist, würde ich das auch nicht anführen wollen.
Ob ich nun recht habe dass auch RDNA 4 betroffen war oder ob nur RDNA 3 betroffen war spielt keine Rolle. Die Halbleiterunternehmen geben Unsummen dafür aus, schon beim Schaltungsentwurf das Verhalten des fertigen Produktes zu simulieren. Dass diese Sache RDNA 3 so massiv beeinträchtigt hat, hatte ganz gewiss Folgen. Denn AMD ist auf schmerzliche Art und Weise ein Lücke im Chipentwicklungsprozess gestoßen und diese muss geschlossen werden.

Ob es nun eine Fehlerkette von AMD Mitarbeitern war, ob EDA-Tools versagt haben oder eine unglückliche Mischung aus beidem war, IMO werden die EDA-Tools so erweitert, dass dieser Fehler in Zukunft frühzeitig erkannt wird. Falls erforderlich werden auch organisatorische Massnahmen getroffen.

Noch eine Anmerkung: Offensichtlich hat AMD die Radeon Technologies Group umbenannt. Sie heißt nun AMD GPU Technologies and Engineering Group. Chef (Senior Vice President) ist nach wie vor David Wang.
 
ETI1120 schrieb:
Man kann nun lange darüber streiten was peinlicher ist, einen genormten Stecker zu verwenden, der nicht sicher ist oder Produkte zu verkaufen die defekt sind. Es führt zu nichts.

AMD und Nvidia haben sich da nicht mit Ruhm bekleckert. Darüber zu streiten was nun schlimmer war ist Kindergarten. Beides darf nicht passieren.
Ich finde man sollte das nicht so relativieren. Bei AMD oder dem Zulieferer hat jemand in der Produktion Mist gebaut und es ist erst beim Kunden aufgefallen. Das ist schon schlimm genug.
Bei Nvidia wusste man das es zu Problemen kommen wird. Und hat sich gedacht scheiß drauf der dumme Gamer wird fluchen und trotzdem Kaufen.
Und das finde ich viel schlimmer als ein Fehler der sich eingeschlichen hat.
 
Rockstar85 schrieb:
Sobald Nvidia also den 12V HP Stecker verbaut, ist Nvidia dafür verantwortlich.. Right?
Danke, mehr wollte ich nicht hören. Damit sollte der Schadensersatz nicht auf die Händler abgewälzt werden, sondern auf Nvidia.
Was soll dieses kindische Theater?

Ich habe in jedem Post in diesem Thread zu Thema 12VHPWR und Vapor Chamber gesagt, dass sich sowohl AMD als auch Nvidia nicht mit Ruhm bekleckert haben.

Meine sachliche Antwort auf das Thema 12VHPWR findest Du oben.


Es gibt hier eine sehr nervige Fraktion von AMD-Fanboys, die jedes Wort, das kritisch zu AMD ist, als Majestätsbeleidigung auffasst. Sie tun so als würde AMD keine Fehler machen. Sie tun so als wäre jeder der keine AMD-Produkte kauft, verblendet.

Ich fand die Geschichte mit dem 12VHPWR ziemlich überflüssig, weil schon im Sommer 2022 klar war, dass es da ein Problem gibt. Ich fand die Reaktion der Nvidia-Fanboys nur peinlich. Stecker die 600 W führen können, dürfen nicht schworen. Es ist Gott sei dank AFAIK beim Schmoren geblieben.

Aber noch viel peinlicher fand ich das Verhalten vom AMD-Marketing. Ein kurze Klarstellung, dass AMD den 12VHPWR Stecker nicht verwendet hätte genügt. Nein sie mussten über Wochen immer wieder Anspielungen machen. Und die Häme, die da durchgeblitzt ist, fanden die wenigsten angemessen.

Dass dann die Sache mit der Vapor Chamber so prompt auftrat war Pech. Aber es war doch offensichtlich, dass auch Mal was bei AMD schiefgehen wird, also gebe ich, wenn ich auch nur für 5 Cent Verstand habe, ein kurzes Statement zu 12VHPWR und halte ansonsten meine Klappe.

Zurecht ging danach die Sache mit der Vacuum Chamber hoch her. Die Häme kam kübelweise zurück und der Unmut wegen dem komplett versaute Release hat sich auch noch auf AMD abgeladen. Zurecht.

Rockstar85 schrieb:
Dein Ganzer Wall of Text war damit für die Katz. Und nein, es ist mitnichten so einfach, wie du implizierst
Ganz im Gegenteil es ist sehr einfach. AMD hat ein offensichtlich fehlerhaftes Produkt verkauft, das weltweit für Gewährleistungsfälle gesorgt hat.

Wie es AMD mit dem Zulieferer geregelt hat ist ein Problem zwischen den beiden. Es geht die Öffentlichkeit nichts an.
Ergänzung ()

ThePlayer schrieb:
Ich finde man sollte das nicht so relativieren.
Das machst Du.

In dem Du den Fehler bei AMD als weniger schlimm einstufst als das Schmoren falsch eingesteckte 12VHPWR Stecker bei Nvidia, relativierts Du den Fehler bei AMD.

Beides darf nicht passieren. Aber aus unterschiedlichen Gründen.
Ergänzung ()

UrlaubMitStalin schrieb:
Wenn die "Strix Halo" APU wirklich die Grafik-Leistung einer Geforce 4070 haben sollte, dann sehe ich für die ganze RX8000 Generation kaum eine Existenzberechtigung.
Ich denke das ist viel zu hoch gegriffen.

Das Leak vom letztem Wochenende suggeriert deutlich mehr Leistungs als Navi 33.
Aber die RTX4070 ist lt. TPU DB 55 % schneller als die RX 7600 (Navi 33).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
ETI1120 schrieb:
Das machst Du.

In dem Du den Fehler bei AMD als weniger schlimm einstufst als das Schmoren falsch eingesteckte 12VHPWR Stecker bei Nvidia, relativierts Du den Fehler bei AMD.

Beides darf nicht passieren. Aber aus unterschiedlichen Gründen.
Nein tue ich nicht. Ich habe geschrieben das beide Fehler nicht sein dürfen. Aber was Nvidia gemacht hat schlimmer ist. Da man das ganze verkauft trotz des Wissens das es zu Problemen kommen wird. Wäre es Nvidia vorher nicht bewusst gewesen, dann wäre es auf dem gleichen Level wie die Vaporchamber Problematik.
Ich finde das ist schon ein gewaltiger Unterschied wenn man auch noch bedenkt das es zu einem Brand kommen könnte.
 
All the Watts!! übrigens etwas nachgereicht:

Navi 48 soll mit 215 W 50 TFLOPS erreichen.


Angenommen es sind FP32 TFLOPS dann wäre dies knapp unter der 7900XT mit 51.48 TFLOPS lt TPU DB.

Es ist aber offen wie sich das auf die Gaming Leistung überträgen würde.
 
ETI1120 schrieb:
Es gibt hier eine sehr nervige Fraktion von AMD-Fanboys, die jedes Wort, das kritisch zu AMD ist, als Majestätsbeleidigung auffasst. Sie tun so als würde AMD keine Fehler machen. Sie tun so als wäre jeder der keine AMD-Produkte kauft, verblendet.
Das sehe ich weder hier, noch in anderen Threads... Viel mehr passiert das immer wieder in Nvidia Threads, vermutlich um die Leute zu triggern. Schon mal drüber nachgedacht?
Die Einzigen, die seit 10 Jahren immer und immer wieder relativieren, sind die Hardcore NV Fanbois.. Das nahm mit der GTX970 so groteske Züge, dass man sich ernsthaft fragte, ob die Leute dafür Geld bekommen. (Am besten fand ich die Verbrauchsrelativierungen.. Das war Comedy Gold)
Und Nvidias Offizielles Statement zum 12VPHR war am Anfang: "Die User sind zu doof, es gibt keine Probleme"
Igor hatte das netterweise alles mal aufgearbeitet.

Bleib doch einfach beim Thema und dann wird auch keiner meckern :) Und wie du schon sagtest, es ist Marketing... Also beschwer dich doch bitte bei Intels, AMDs oder Nvidias Marketingabteilungen..

Und wenn ich sehe, wie der AMD Hypetrain schon wieder anfängt zu entgleisten, würde ich eher sagen, dass AMD Fans ein wenig Masochistisch sind ^^ Immerhin wird der Zen5 Solide, und ich hoffe Intel kriegt endlich mal den Arsch hoch.


Aber 215W TGB bei Knapp 7900XT Leistung sehe ich bei der Die Größe für realistischer an. Die Frage ist nur, ob diese Leistung vom Treiber auch Nutzbar ist. (Ich tippe: Navi 48 liegt ziemlich exakt auf der 4070S bzw. TI)
Eine 4070Ti oder S macht aber auch nur 270W.. Also sooo ein großer Step in perf/w wird es nicht.. Kann man aber mit Leben, wenn AMD die Preise gescheit anpasst. Ich tippe mal, Nvidia Muss die 5060 dieses mal dann auch etwas besser planen.
 
Zuletzt bearbeitet:
UrlaubMitStalin schrieb:
Wenn die "Strix Halo" APU wirklich die Grafik-Leistung einer Geforce 4070 haben sollte, dann sehe ich für die ganze RX8000 Generation kaum eine Existenzberechtigung.
Die haben auch keine 4070 Leistung sondern 4070 MaxQ Leistung.
 
Rockstar85 schrieb:
Und wenn ich sehe, wie der AMD Hypetrain schon wieder anfängt zu entgleisten, würde ich eher sagen, dass AMD Fans ein wenig Masochistisch sind ^^ Immerhin wird der Zen5 Solide, und ich hoffe Intel kriegt endlich mal den Arsch hoch.
Wie kommst Du auf die Idee dass der AMD Hypetrain anfängt zu entgleisen?

Die Geschichte, dass es kein High End von RDNA 4 gibt, ist ca ein Jahr alt, ich sehe da keinen Hypetrain. Maximal ein Flämmchen das die Hoffnung nährt, dass es nicht ganz so duster wird.

Und der bei Zen 5 läuft noch volle Kraft. Was da Kepler loslaufen hat lassen, kann nicht entgleisen. Es schwebt bereits über den Schienen.

Rockstar85 schrieb:
Aber 215W TGB bei Knapp 7900XT Leistung sehe ich bei der Die Größe für realistischer an.
Soweit ich es verstehe sind es Monolithe, und da finde ich 64 CUs auf 240 mm² sind ganz schön heftig.

Navi 32 sind 1 GCD mit 60 CU auf 200 mm² + 4 x 36 mm² MCD

Es gibt folgeden leicht kryptschen Satz von AllTheWatts!!:
Navi 4 folgt auf Navi 3, indem das alte Design entfernt wird, um die Dichte zu verbessern.

Rockstar85 schrieb:
Also sooo ein großer Step in perf/w wird es nicht..
Wenn man die 7900 XT als Vergleich nimmt, wäre es annehmbar.

Rockstar85 schrieb:
Kann man aber mit Leben, wenn AMD die Preise gescheit anpasst.
Man wird sehen was Nvidia liefert und was Nvidia sehen will.
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und DF86
Wann solls denn die 5060Ti -16GB geben ?
für 500€
mit 4070TiS-Performance?

Aufklärung wohl erst in H2 2025, was NV in dem Segment bieten kann.
während mit N48 ein gutes Angebot schon in H2 2024 verfügbar sein wird
Mehrwert=1 Jahr eher nutzen
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
Wir reden hier immer noch von Out of the Box oder ? kannst dir ja Mal gerne den Computerbase Test nochmal anschauen, dann weißt du vielleicht auch wo von ich rede
Out of the Box. Die AMDler betreiben ihre Karten ja nur so 🤣
https://www.computerbase.de/forum/t...-xt-6900xt-overclocking-undervolting.1983202/
https://www.computerbase.de/forum/t...besser-und-effizienter-als-ihr-denkt.2129358/
https://www.computerbase.de/forum/threads/amd-rx-6900xt-auf-effizienz-getrimmt.2123443/
https://www.computerbase.de/forum/t...-7xxx-x-xt-overclocking-undervolting.2120325/
https://www.computerbase.de/forum/threads/amd-radeon-rx-7800xt-undervolten.2163968/
Sich selbst in die Sig schreiben, dass man seine RX 6800XT im TS auf das Level einer stock RX 6950XT übertaktet hat....alles kein Problem.
Zum Problem wird es ja erst, wenn man eine optimierte Nvidia Karte dagegen setzt. Dann zählt plötzlich nur Out of the Box.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
Zurück
Oben