News Navi 48 mit RDNA 4: Erste GPU für Radeon RX 8000 im Geekbench gesichtet

Ltcrusher schrieb:
@BloodGod ernstzunehmende Konkurrenz ist auch immer eine Sache des jeweiligen Standpunktes.
Richtig. Stimmt den aktuell die Leistung bei VR? Die war ja nicht nur ein bißchen schlechter, die war katastrophal.
Raytracing muss AMD mal eben zwei Generationen aufholen, selbst Intel ist im Vergleich deutlich besser bei Raytracing.
Und solange Upscaling noch nicht in Direct X verankert ist und die Qualität immer noch hinter DLSS her hinkt, bleibt AMD abseits von der puren Render Leistung massiv zurück. Da ist der angemerkte Stromverbrauch nur das i Tüpfelchen.

Nutzt man das alles nicht, mag AMD Alternativen anbieten.
 
  • Gefällt mir
Reaktionen: stevefrogs
Syrato schrieb:
@konkretor hoffentlich etwas gutes!
Schön sparsam mit doppelter 4090 Leistung 🤯...
Ach mir würde mittlerweile sogar eine neue Generation mit ca. 4090 Leistung reichen die allerdings nur halb so viel verbraucht. Da hätte ich mehr von.
 
  • Gefällt mir
Reaktionen: Perdakles
kachiri schrieb:
Und wie viel ist AMD da "vor" NV? Das sind nicht einmal mehr 10%.
Merkste selbst, oder? Vor allem weil Du in #40 genau das Gegenteil behauptet hast.

Schreib doch einfach "oh, hab mich geirrt".

Davon ab gibt's noch einen Haufen andere Gründe, ggf. AMD zu nehmen, für mich z.B. besserer Speicherausbau und einfacheres Handling unter Linux.
 
  • Gefällt mir
Reaktionen: Munkman, MiroPoch, SweetOhm und 6 andere
Wilfriede schrieb:
AMD hatte oft (nicht immer) sehr gute Alternativen. Hat nur fast niemand gekauft.
Im CPU Bereich hat es Jahre gedauert. Erst als man im Bereich "Gaming" und "Singlecore" schneller/günstiger war, hatte Intel kaum noch Vorteile zu bieten. Mit dem X3D war es dann glasklar.

Im GPU Bereich schaut es viel schlechter aus. Gaming und Effizienz liegen bei Nvidia. Features ebenfalls inkl. Kompatibilität mit allen Konkurrenzentwicklungen. Dass AMD dann günstiger angeboten wird, ist also selbstverständlich und als Entschädigung für den Käufer anzusehen - wer nicht alles bieten kann, hat nun mal günstiger zu sein. Es fehlt immer noch der Rabatt, der wirklich zum Kauf verleitet, um Marktanteile zu gewinnen. AMD geht nur soweit runter, dass ein Gleichgewicht herrscht und in einem Gleichgewicht ändert sich nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
Unnu schrieb:
Tjo. Und bringen die dann NVIDIA endlich mal in Bedrängnis?
Ich wage das zu bezweifeln. Leider.
Naja, schau‘n mer mal.
Bei RT bzgl. FPS/€ vielleicht.
Ursprünglich hieß es ja mal, max. 7900GRE - 7900XT Leistung (RR) bei weniger Verbrauch (Watt) und einer RT Leistung von 4070Ti - 4080 bei ca. 599 - 649 €. Für Midrange ausreichend/nicht schlecht, oder ?
Aber wir werden sehen ...
 
DerRico schrieb:
Sehe ich genau so. Der Typ ist ein fieser AMD-Fanboy.
Er hat einen Pro AMD Bias ohne Frage, aber es hält sich in Grenzen, er bedauert oft das Intel jetzt so ab stinkt, auch benutzt er für sein Setup glaub ne 4090 unter anderem. Auch hat er ziemlich harte Worte für das Abschneiden von AMD gefunden, ich z.B. geb MS zumindest ne Teilschuld wenn nicht die Hauptschuld für das Abschneiden (davon nochmal los gelöst ist die Kommunikation darüber). Er forderte da sogar das Leute gefeuert werden.
DerRico schrieb:
wie bei AMD oft - dämliche Leute intern machen einfach Fehler 🤪
Ich denke das ist auch eher so ein Urban Myth, ja AMD macht diese Fehler aber bei Intel und Nvidia werden gleiche Fehler halt oft ignoriert oder weniger übel genommen.

Er lästert btw auch sehr über FSR ab redet davon das AMD 2 Generationen dahinter sei und das FSR3 nicht wirklich gut sei etc... also Fanboy find ich bisschen übertrieben, zumindest für mich als Fanboy ist er teilweise gefühlt schon fast AMD Hater manchmal.

Ich denke manchmal ist es auch einfach überkompensieren da er als solcher Verschrieen ist, ist er manchmal doppelt hart/streng mit AMD um gegen die Anschuldigung an zu reden.
 
  • Gefällt mir
Reaktionen: MiroPoch und SweetOhm
AMD, könnte eine 7900XTX, mit der Hälfte vom Verbrauch, zum halben Preis rausbringen 🤷🏻. Es würde kaum Marktanteil bringen. Da wären zich Jahre nötig, wenn überhaupt. Sie haben höchstens eine Chance, wenn sie die Produktionskosten, extrem senken. Dafür der MCM Ansatz. Siehe Zen. Billiger/ günstiger produzieren, wie die Konkurrenz, skalieren können, usw.. Tja, sowas dauert. Zumal NV, auch nicht dumm ist und es so schleifen lässt, wie Intel. Das AMD, bei dem Budget überhaupt noch eine Rolle spielt, bei GPU's, ist ja schon ein Wunder 🤗. Wird immer rumgeschissen, AMD, kann keine GPU's. Hmm, komisch, XBox, PS, SteamDeck, Ally, Legion, und wie sie alle heißen. Alles AMD GPU. Über die Switch, wird nur rumgelässter, seit erscheinen. Ach nö, die hat ja NV Hardware 😜😝😘🤣🤣
 
  • Gefällt mir
Reaktionen: Bänki0815, Flaschensammler, SweetOhm und 3 andere
GrumpyCat schrieb:
Merkste selbst, oder? Vor allem weil Du in #40 genau das Gegenteil behauptet hast.
Ist schön mit unbestimmten Begriffen. Oder gibt es eine Legaldefinition von "besser"? Zumal der Preisvergleich halt ohnehin immer auch eine Momentaufnahme ist.
Und letztlich: Wenn mein "Preisvorteil" am Ende durch höhere Stromkosten über die Nutzungszeit nahezu aufgefressen wird.
Wenn eine 7600 XT genauso viel Strom frisst wie eine 4070, sagt das schon einiges aus. Letztgenannte ist dabei immerhin 50% schneller...

Ist immer dasselbe. Raster-Leistung und VRAM sind relevant, alles andere nicht. Klar. In allen anderen Disziplinen hat AMD ja (aktuell) das Nachsehen... Sieht man dann natürlich nicht so gern.
Und selbst in der "Hauptdisziplin" Raster-Leistung/Preis ist der Vorsprung gar nicht mehr so riesig, als das man da wirklich von "besser" sprechen kann...
Ergänzung ()

Sternengucker80 schrieb:
Wird immer rumgeschissen, AMD, kann keine GPU's. Hmm, komisch, XBox, PS, SteamDeck, Ally, Legion, und wie sie alle heißen. Alles AMD GPU. Über die Switch, wird nur rumgelässter, seit erscheinen. Ach nö, die hat ja NV Hardware
Frag mal Sony und Microsoft, ob die sich NV für die Konsole überhaupt leisten könnten. Der Chip in der Switch ist btw. asbach-uralt. Der Tegra X1 wird nächstes Jahr 10 und basiert noch auf Maxwell... Der kostet Nintendo quasi nix, während Sony und Microsoft ihre Konsolen quersubventionieren müssen und das Geld eigentlich nur über Spiele und Services reinholen.
 
Knobi Wahn schrieb:
der Preis stimmt ( 500 - 600 EUR) und die Rasterleistung ca. bei einer 4080 liegt und Raytracing bei einer 4070TI (Super?) und der Stromverbrauch im 2 Monitor Betrieb sich in Grenzen hält
Man wird ja noch träumen dürfen :D.

Im Prinzip läuft es technisch wohl auf einen Refresh aktueller RDNA3 Grafikkarten hinaus, vermutlich mit etwas höherer RT-RT Leistung als für einen Refresh üblich und hoffentlich besserer Effizienz, aber Wunder würde ich nicht erwarten und ich persönlich finde RDNA4 eher unspektakulär, insbesondere, wenn RDNA5 schon Ende kommenden Jahres aufschlagen sollte (wie z.T. kolportiert).

Interessant dürfte RDNA4 vordergründig für Leute sein, die evt., noch auf alten Grafikkarten hocken, also RDNA1 oder Pascal- und Turing-dGPU-Besitzer, ab RDNA2 und Ampere Leistungslevel dürfte es aber eher uninteressant für die meisten sein, es sei denn der Mobil dGPU-Bereich würde dadurch etwas aufgemischt werden, aber das dürfte wohl eher hoffnungslos sein, da AMD nVidia bei Notebook-dGPUs fast komplett das Feld überlassen hat seit RDNA3.

Die Konkurrenz/nVidia schläft wohl auch nicht, angeblich soll es mit einer mobilen Blackwell RTX 5060 dGPU mit GDDR7 dann auch RTX 4070 Leistung geben bei erhöhter Effizienz, aber ich rechne damit, dass man weiterhin Käufer mit nur unzureichenden 8 GB GDDR7 verhungern lassen wird in 2025, anstatt mindestens 12 GB zeitgemäßen Speicherausbau zu bieten.
 
Zuletzt bearbeitet:
Dedenne1987 schrieb:
Finds schade, dass sich die Gerüchte bzg keiner HighEnd Karte scheinbar bestätigen.

Sicher die 4090 ist das Nonplusultra aber wer braucht die Leistung einer 4090 wenn, man nicht gerade FPS Jäger ist?
Ich habe die Asrock RX 6900 XT und werde abwarten was die neuen Karten so bringen und dann entscheiden, ob ich mir eine neue AMD hole oder noch warten werde. Bisher sehe ich aber keinen Grund, mir eine neue Karte zu holen, da meine Jetzige Karte noch ausreichen ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
Soll die 8800XT nicht ein sehr kleines Die haben und wenig verbrauchen?

Woran sollte es scheitern dann eine größere 8900XTX rauszuballern die deutlich schneller ist ?
 
Dedenne1987 schrieb:
Finds schade, dass sich die Gerüchte bzg keiner HighEnd Karte scheinbar bestätigen.
Hatte doch noch die Hoffnung, das AMD Nvidia ein wenig Feuer unterm Hintern macht.
Hätte gerne auf eine 5090 geupgradet. Aber da muss schon mindestens 60% mehr leistung rausspingen.

Vielleicht aus diesem Grund wird AMD keine High-End Karte bauen? Weil sie wissen, dass die Leute sowieso nVidia kaufen, sofern AMD nicht die doppelte Leistung zum halben Preis und Verbrauch anbietet?

Ne im Ernst. Ich glaube, +60% in einer Gen sind möglicherweise sogar machbar, aber dann würden wir Kunden ja nur 1x statt 2 bis 4x gemolken werden.

Zum Artikel:
Mal schauen, wo AMD am Ende hingeht. Aktuell fehlt irgendwie die "Produktstruktur". EIn bisschen hier, ein bisschen da, aber gefühlt ist nichts vollständig (Mobile GPU => kaum vorhanden, Desktop GPUs => Lücke unterhalb RX 7600, CPUs: Ein heilloses Durcheinander samt vergeigtem Launch, Neue Laptop-Gen: Lässt auf sich warten, obwohl es gemäss AMD der grösste Launch sein sollte...vom Ghetto der mobilen Gen7/8 reden wir mal nicht, wo von Zen2 bis Zen4 alles drin sein kann und die 8er Gen teilweise langsamer als die 7er Gen ist....). Ich denke, AMD sollte endlich an diesen Themen arbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Dedenne1987 schrieb:
Finds schade, dass sich die Gerüchte bzg keiner HighEnd Karte scheinbar bestätigen.
Hatte doch noch die Hoffnung, das AMD Nvidia ein wenig Feuer unterm Hintern macht.
Hätte gerne auf eine 5090 geupgradet. Aber da muss schon mindestens 60% mehr leistung rausspingen.
Ich nicht.. Eine 8700XT die irgendwo bei einer 4070 steht mit 56 CU wäre schon mal echt gut.

Und hier muss der Preis stimmen, dann hat AMD zumindest in der Mittelklasse was gescheites. Der Großteil wird eh Nvidia kaufen, AMD kann auch die GPU Produktion einstellen, und es würde sich nichts ändern

Eine 8800XT mit 16GB und 200W wäre super.. AMD muss halt gucken, das man eine Nische findet. Eine 56CU Kartte wäre eigentlich eine 7700 Version, da wäre die Leistung einer 8700XT schon echt gut

Navi 44 wird spannend. Ich erhoffe mir bei Bei einer Chipgröße einer 7700XT, Am Ende eine Leistung irgendwo im Bereich einer 4080 läge, wäre das heftig.. Ich Erhoffe mir Konservativ irgend was um 35% Leistungsverbesserung pro CU zu RDNA3.. Schauen wir mal.
 
  • Gefällt mir
Reaktionen: SweetOhm
heroesgaming schrieb:
Dass AMD eine RTX 4090 derart überholen könnte, war gar nicht seine Hoffnung, keine Sorge. Er wollte nur, dass Nvidia sein Flaggschiff entsprechend aufpumpt oder günstiger anbietet :D
Irgendwie ist das auch bei einem Großteil der User hier immer mein Gefühl. Da wird zwar in den entsprechenden AMD Threads geschrieben "Hoffentlich haut AMD mal wieder was Krasses im Highend Segment raus, ich würde mich so freuen!!", aber ich lese da als (gedachten) Nebensatz oft die Hoffnung heraus "Damit Nvidia in Zugzwang gerät und die nächste 5090/6090 GPU mich weniger kostet!"... 🤷‍♂️ 😉
 
  • Gefällt mir
Reaktionen: Munkman, Flaschensammler, Rockstar85 und eine weitere Person
konkretor schrieb:
Beim lesen von 56 Compute Units hab ich gleich Vega 56 vibes, mal sehen was AMD so ausrollt.
Laut Moores Law is Dead (und in der Vergangenheit hat sein AMD leaking ja nicht immer gestimmt):
-499-599$
-Rasterleistung einer 4080 Super
-Raytracing einer 4070 TI Super.

Ich glaube für den Preis könnte AMD das in Masse absetzen. Die Raytracingleistung ist massiv gestiegen, weil das der Fokus für die Playstation 5 Pro war. So wäre die Karte im Rasterberechnen noch hinter einer 7900 XTX , aber im Raytracing endlich einen großen Sprung nach Vorne gekommen.. Wenn der Preis stimmt, ist das durchaus ein sehr massentaugliches Angebot.

Bleibt abzuwarten ob das alles auch so stimmt und kommt. Und auch interessant:
Wie geht Nvidia dann damit um? Haben sie ne Reaktion darauf?..Mehr als eine 4070 GDDR6.. meine ich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666 und SweetOhm
Btw: weiss jemand, wie es bei AMDs Roadmap bei iGPUs aussieht, was kommt nach dem 8700G?

(Ist für mich deutlich interessanter als Monster-Grafikkarten)
 
ElliotAlderson schrieb:
Wenn du X ausblendest, ist Y besser. Ist ja ein Ding!
Schließ RT und die Effizienz halt nicht aus
In den Posting, das ich auch zitiert hatte, ging's explizit nur um Rasterleistung.
 
  • Gefällt mir
Reaktionen: SweetOhm und ElliotAlderson
Ich hoffe auf ne stärkere Gen als die 7000er Reihe. Die war verglichen mit Nvidia nämlich absolut für die Tonne. Raytracing mal außen vor, mehr Verbrauch bei weniger Leistung geht halt nicht, wenn dazu noch der Upscaler "hässlicher" arbeitet als die Nvidia Konkurrenz.

Dabei bin ich mit meiner 6900XT eigentlich zufrieden aber ich seh mich aktuell nicht, nochmal eine AMD Karte zu kaufen. Würde Nvidia mit dem Ram nicht so geizen, hätte AMD wohl so gut wie gar keine Marktanteile.

Am Ende führt das aber dazu, dass dann ne 5080 locker 1500 Euro kosten könnte, von dem Preis einer 5090 will ich nicht mal träumen :D

Also AMD macht was, bei den CPUS klappt es doch auch irgendwie
 
Zurück
Oben