News Radeon RX 7000: Kurz vor GeForce RTX 4000 nennt AMD den RDNA-3-Termin

q3fuba schrieb:
Wird langsam mal Zeit dass AMD mal wieder die Nase weiter vor bekommt, was ja leider bis jetzt nicht so ist und man dadurch DEUTLICH an den Preisen spürt...
Sollen mal "Gas geben" und mit Nvidia und Intel gleichziehen damit die mal Druck bekommen sonst kosten die Grafikkarten von Nvidia in 2 Jahren 10000€!
Das problem ist, das amd die Nase nicht weiter hoch bekommt, wenn die Leute amd nur für günstige nvidia Karten nutzen. Also dennoch bei Nvidia kaufen, auch wenn amd mal gute Produkte hat.

auf deine 3070ti schiel
 
  • Gefällt mir
Reaktionen: Seko, Enyo79, Orok91 und 4 andere
Diese künstliche Spannungskurve, oho. Zen4, Ada und RPL hatten auf verschiedene Weise ihre Enttäuschungsmomente für mich. Ich wünsche mir für 7000 einfach mehr Markt, das formuliert es am besten.

Edith: unnötiges gelöscht
 
Zuletzt bearbeitet:
AMD hat doch mit ihrer Taktik sicher viele Kunden im moment an Nvidia schon verloren.
Wenn die jetzt noch paar entäuschen sinds noch paar weniger.
 
Gerithos schrieb:
Es gibt doch seit gestern bereits leaks von greymon55. Raster 2x gegenüber 6900XT und RT mehr als 2x gegenüber 6900XT. Bei Raster wäre due Karte leicht schneller als ne 4090 und bei rt immerhin stärker als alles von ampere
Je nach Preis genau meine Karte.
 
  • Gefällt mir
Reaktionen: Gerithos, Onkel Föhn, Laphonso und eine weitere Person
JahJah192 schrieb:
Ganz ehrlich ich checks ned wie man sich für 2300€ schon eine Karte kaufen konnte ohne den Rest zu kennen.
Weil die meisten Enthusiasten nicht rational kaufen, sondern nach persönlichen Kriterien sowie Featureset und Gesamtpaket.

Es ist der Gruppe egal, was RDNA3 im Rasterizing abliefert. Selbst wenn die 7900XT - was realistisch ist - die 4090 mit 10% überholt, wird sie die 4090 in der rohen Raytracing Power nicht schlagen.

Der Gedanke, dass AMD den Rückstand mit RDNA3 aufholt gegen Nvidia(die dort allin gehen seit 2018) und die 4090 dann mit der 7900XT in nativen Raytracing fps auf Augenhöhe stellt, ist völlig unrealistisch.
Sie müssen ja erstmal an Ampere vorbei (was zumindest problemlos und deutlich klappen sollte).

Will sagen: Wer die nächsten 2 Jahre die next steps von Grafikrealismus via Raytracing in maximum Settings mit den meisten fps (selbst ohne DLSS Boost) genießen möchte, kauft heute bereits die 4090.
Da muss man nicht mehr den "Rest" kennen, auch wenn die ganz Irren ggf. die 4090Ti noch abwarten.


Für "alle anderen" gilt, NATÜRLICH: Warten auf RDNA3.
Ergänzung ()

GERmaximus schrieb:
Das problem ist, das amd die Nase nicht weiter hoch bekommt, wenn die Leute amd nur für günstige nvidia Karten nutzen. Also dennoch bei Nvidia kaufen, auch wenn amd mal gute Produkte hat.
Der Gag beginnt doch schon vorher. Nvidia interessiert sich nicht für das, was AMD macht.
Die 6900XT war zumindest im Raster in einigen Games schneller als die 3090. Hat Nvidia danach die Preise gesenkt für die 3090? ;)


Die Leute haben hier noch vor 1 Jahr vor Ort im Shop 3070er für 1800 (TAUSENDACHTHUNDERT) Euro gekauft.
Die 6800XT hätte hier viel mehr Sinn gemacht für 500 Euro weniger.

Und nun wirds wieder manche triggern, denn manche glauben immer noch, dass RT und DLSS "Marketinggags" sind.
Wir sind im 5ten Jahr Raytracing und DLSS, in der dritten Generation
"Gute Produkte" sind halt das Gesamtpaket, und wenn AMD das nicht gebacken bekommen sollte, Cyberpunk mit einer RDNA3 GPU , und sei es zumindest die 7900XT in 4K mit Raytracing Psychosettings jenseits der 60 fps zu spielen, erinnere ich daran, warum man in den Signaturen der fps Junkies viel mehr 4090er als 7900XT sieht.

Marketing funktioniert eben auch über Ergebnisse.

Dennoch:
Die RNDA3 werden Monster und die 4080 wird akute Probleme bekommen. Ob das zu mehr 7900XT und 7800XT sales dann führt, werden wir sehen. Das hängt unter anderem auch von DLSS3 ab.
Und wer das lustig findet oder absurd, hat die letzten 4 Jahre gepennt oder nur keinen Bock auf die Realität.

Denn, nochmals, gute Hardware braucht auch die Software, die sie in Szene setzt.
Und hier dominiert Nvidia, seit vielen vielen Jahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sirhaubinger, GERmaximus, Zockmock und 3 andere
Laphonso schrieb:
AMD das nicht gebacken bekommen sollte, Cyberpunk mit einer RDNA3 GPU
Mal ehrlich, wie soll das AMD bei nem nvidia Titel schaffen? Mal abgesehen davon, dass high fps bei cyberpunk einfach nur überbewertet sind, das gsmeplay ist nicht auf high fps ausgerichtet. Und was dlss angeht, fsr 2.0 ist ja bereits sehr gut.
Was die Features angeht, ohne amd gäbe es kein direct X 12, hat sich für AMD auch nicht ausgezahlt
 
Hurricane.de schrieb:
In Spielen, ja. Im Multicore und in der Effizienz sehe ich Zen 4 klar vorne. Und auch in Spielen werden die X3D Varianten von Ryzen 7000 vermutlich mit Raptor Lake den Boden aufwischen.
Wo siehst du denn Intel bei der Effizienz hinten? So wie ich das lese, ist der Intel bei gleicher, gelockter Leistungsaufnahme schneller als AMD.
 
Gerithos schrieb:
Mal ehrlich, wie soll das AMD bei nem nvidia Titel schaffen? Mal abgesehen davon, dass high fps bei cyberpunk einfach nur überbewertet sind, das gsmeplay ist nicht auf high fps ausgerichtet. Und was dlss angeht, fsr 2.0 ist ja bereits sehr gut.
Was verstehst du denn unter "high FPS" ? Cyberpunk braucht als 1st Person Game schon mindestens 60FPS und FSR 2.0 ist bisher leider auch noch nicht drin(am besten kommt direkt 2.1 rein, auch wenn ich nicht glaube dass man selbst damit von Ghosting vershont bleiben wird.)
Allgemein kommt DLSS 2 bzw nun DLSS 3 gefühlt in sehr viel mehr Titeln, die auch tatsächlich eine größere Spielerzahl haben, während FSR öfter in Spiele eingebaut wird die keiner kennt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Laphonso
Apacon schrieb:
Wo siehst du denn Intel bei der Effizienz hinten? So wie ich das lese, ist der Intel bei gleicher, gelockter Leistungsaufnahme schneller als AMD.
Bei MT-Lasten ist Zen4 deutlich effizienter. Intel verbraucht mehr und ist dabei etwas langsamer. wenn man die Leistungsaufnahme bei beiden gleich setzt, wird der Unterschied nur noch größer.
Hier mal aus dem anderen Thread geklaut
RDT_20221020_2127245025378836627915099.png
 
  • Gefällt mir
Reaktionen: daknoll, MiroPoch, msv und 8 andere
Laphonso schrieb:
"Gute Produkte" sind halt das Gesamtpaket, und wenn AMD das nicht gebacken bekommen sollte, Cyberpunk mit einer RDNA3 GPU , und sei es zumindest die 7900XT in 4K mit Raytracing Psychosettings jenseits der 60 fps zu spielen, erinnere ich daran, warum man in den Signaturen der fps Junkies viel mehr 4090er als 7900XT sieht.
Wenn das die Voraussetzung für ein gutes Produkt ist kann man ja nichts anderes kaufen als ne RTX 4090. Der feuchte Traum von Nvidia.

Warum Leute sich anstatt einer 6800 ne RTX 3070 gekauft haben für 500€ mehr will auch nicht in meinen Kopf. Ob ich jetzt mit Raytracing 20 FPS oder 30 FPS habe, es ist beides nicht wirklich spielbar.

Nvidia bekommt es einfach gut hin den Leuten zu vermitteln, das man unbedingt deren exklusive Features braucht. Das Cyberpunk immernoch kein FSR 2.0 bekommen hat liegt sicherlich nicht daran das die Entwickler keine Lust haben das einzubauen.

Die Leute, die einfach nen Pin im Kopp haben und immer das schnellste vom schnellsten wollen kaufen ne RTX 4090. Warum man aber für das selbe Geld lieber ne 3070 kauft anstatt einer 6900 kann man doch nur mit einem gewissen Kult für Team Grün erklären.
 
  • Gefällt mir
Reaktionen: MiroPoch, simosh, Hurricane.de und 4 andere
Apacon schrieb:
Wo siehst du denn Intel bei der Effizienz hinten? So wie ich das lese, ist der Intel bei gleicher, gelockter Leistungsaufnahme schneller als AMD.
Im Multicore zeigt sich hier laut CB Test ganz klar, dass Zen 4 deutlich effizienter ist:

effizienz.png


Bei gleicher Leistungsaufnahme sind die Ryzen 7000 schneller (bspw. 7950X vs. 13900K @142W). Für einen Leistungsgleichstand benötigen die AMD CPUs deutlich weniger Leistung (bspw. 7950X @88W vs. 13900K @125W oder auch 7900X @142W vs 13700K @253W).
 
  • Gefällt mir
Reaktionen: MiroPoch, simosh, Onkel Föhn und 2 andere
Okay, völlig richtig. Ich war bei Spielen und hatte mir die anderen Teile nicht angeschaut.
 
  • Gefällt mir
Reaktionen: simosh, Onkel Föhn und Hurricane.de
Taxxor schrieb:
braucht als 1st Person Game schon mindestens 60FPS
Und genau da ist die krux. Es ist first person, ja, aber das gameplay selbst ist auf weniger fps ausgelegt worden und das wurde auch so kommuniziert. Ich finde das jetzt auf die schnelle nicht, aber ich suche das such nochmal raus. Man merkt es dem Spiel aber auch an, das es kein klassischer shooter ist.
Ergänzung ()

Taxxor schrieb:
Allgemein kommt DLSS 2 bzw nun DLSS 3 gefühlt in sehr viel mehr Titeln, die auch tatsächlich eine größere Spielerzahl haben, während FSR öfter in Spiele eingebaut wird die keiner kennt.
Das heisst aber nicht, dass dlss unbedingt besser als fsr ist, es heisst nur das nvidia mehr "Argumente" bringt, fsr nicht zu implementieren. Und das ist in meinen Augen ein Problem
 
  • Gefällt mir
Reaktionen: MiroPoch, Rawday und Grantelb4rt
Grantelb4rt schrieb:
Nvidia bekommt es einfach gut hin den Leuten zu vermitteln, das man unbedingt deren exklusive Features braucht. Das Cyberpunk immernoch kein FSR 2.0 bekommen hat liegt sicherlich nicht daran das die Entwickler keine Lust haben das einzubauen.

Die Leute, die einfach nen Pin im Kopp haben und immer das schnellste vom schnellsten wollen kaufen ne RTX 4090. Warum man aber für das selbe Geld lieber ne 3070 kauft anstatt einer 6900 kann man doch nur mit einem gewissen Kult für Team Grün erklären.

Bei der 3070 stimme ich Dir zu.
Allen, die Bock auf high fps hatten und nicht so bekloppt sind wie ich (Performance+Features>Preis) und sowieso auf Full HD unterwegs sind, habe ich die letzten 2 Jahre die 6800XT empfohlen, weil sich der Aufpreis zur 3070 (ist eh eine Klasse darunter) 3080, 3080Ti und 3090 nicht lohnt.

Alle, denen Raytracing und DLSS eher egal sind, rate ich zur 6900XT im Abverkauf, eine grandiose High End GPU für weitere Jahre unter 1080p und 1440p.

Aber, Grantelbert:

"Nvidia bekommt es einfach gut hin den Leuten zu vermitteln, das man unbedingt deren exklusive Features braucht."
Ich glaube das ist mittlerweile der große Irrtum bei diesen Aussagen und diesem Glauben.

An meinem Gamingsystem hatte ich genug Kumpels und Kollegen, die doppelrote (AMD für CPU+GPU only) Ideologen waren, für die Nvidia das Ebenbild Satans ist und genau so argumentiert haben:
"Das ist alle Marketingscheiss😠"
"Raytracing ist nur Schickimicki
😠"
"DLSS ist nur verwaschener Kram, der das Bild kaputtmacht
😠"

Die saßen hier mit verschränkten Armen und verkniffenen Blicken.
Und dann direkt mal Metro Exodus ausgepackt, Cyberpunk, Control und Watch Dogs Legion, das waren bisher meine 4 Showcase Titel

Und da kann ich Dir nur sagen, dass diese "exklusiven Features" wirken, wenn man sie denn doch mal live gesehen hat.
"Oh.....ok....🤔"
"Ja...ja, ist ja gut, .....es sieht schon beeindruckend aus
😳"
"Hm. Das ist....sauber und flüssig....ich dachte DLSS sei nur ein Joke...
😲"

Genau. Viele dachten, Raytracing und DLSS sind Jokes, weil der NVidia hatetrain diesen Unfug seit 4 Jahren in die Foren spammed. War DLSS1 tadellos? Nein, nicht im Ansatz. Erst DLSS2 wurde der gamechanger.
Und AMD hatte mit FSR1 ja den eigenen DLSS Moment, also kann AMD auch nicht zaubern.


Um wieder zu den Nvidia Features (Raytracing ist kein Nvidia Feature btw, das hatte ich 1987 bereits auf dem Amiga 500 ) zu kommen:
Die Annahme, dass das nur Blendwerk sei, ist der Irttum.
Denn wenn der Großteil der Enthusiasten also jetzt bereits zum dritten Mal seit Turing und Ampere zu Nvidia greift UND diese Preise zahlt, kann man sich gerne einreden, dass die ja alle "auf das Marketing reingefallen" sind .
Oder doch akzeptieren, dass Nvidia hier die Messlatte so hoch gelegt hat, dass AMD hier (noch?) im Gesamtpaeket nicht mitspringen kann.
Wenn Features und Performance wichtiger sind als der Preis, zahlt man auch jetzt bereits 2000-2500 Euro ohne auf AMD zu warten.

Sollte AMD zaubern können und präsentiert Features, welche die early adopter der 4090 doof aussehen lassen (abseits Rasterisations fps) , applaudiere ich als 2500 f*cking Euro 4090 Strix Käufer gerne und sofort mit und schreibe hier, wie naiv wir waren.

Bis dahin sollten wir festhalten, dass Nvidia die Pionierarbeit übernommen hat und AMD bisher nur reagieren konnte oder musste, siehe Raytracing Cores und FSR.
Zum Glück, ich bin sehr für die Prävalenz von Raytracing GPUs. Dass Nvidia sie so unbezajlbar macht für viele ist der Punkt, der mich eigentlich am meisten nervt.
Sollten sie durch RDNA3 hier am xx70er und xx08er Fundament Marktranteile an AMD verlieren, wäre das endlich mal folgerichtig.

Damit das passiert, muss AMD liefern.
Vor allem Ergebnisse und fps, die sind das beste Marketing :)
Ergänzung ()

Gerithos schrieb:
Das heisst aber nicht, dass dlss unbedingt besser als fsr ist, es heisst nur das nvidia mehr "Argumente" bringt, fsr nicht zu implementieren. Und das ist in meinen Augen ein Problem
Macht AMD doch selbst mit dem Quatsch in Far Cry 6 und Resident Evil (8 war es meine ich), um DLSS zu verhindern.
Da werden zudem Engines im Raytracing kastriert ("tamed raytracing") , damit die AMD Flotte mal nicht so mies dasteht.
Dass das der Weiterentwicklung von Engines und Effekten nicht gut tut, kann man nicht schönreden, ich finde das fatal und denselben failmove.

Und ohne Raytracing haben wir ja manche Titel, in denen die Nvidia GPUs zufällig nicht im Ansatz die bekannte Performance bringen. Das sind die mit AMD Logo im Intro. ;) Borderlands 3 fällt mir da spontan ein.

Davon abgesehen fände ich es gut, wenn alle Titel FSR und DLSS und gerne auch Intels Lösung als Option erhalten. Auch die AMD und Nvidia sponsored Games...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sirhaubinger, simosh, Wintermute und 6 andere
@Laphonso
Was Nvidia so unsympathisch macht, ist, dass sie ihre Features (ausnahmslos?) Nvidia-exklusiv anbieten. AMD hat in den letzten Jahren auch einige Features entwickelt, die dann allerdings Open Source waren. Vor zwei Jahren war der Shitstorm gewaltig, als noch nicht klar war, dass SAM ebenfalls nicht AMD-exklusiv war. Als sich dann herausstellte, dass SAM letztendlich doch mit jeder Hardware genutzt werden kann, wurde es wieder ganz leise.
 
  • Gefällt mir
Reaktionen: simosh, Rawday, Grantelb4rt und eine weitere Person
Ich bin gespannt wie groß der Aufschrei sein wird, wenn die AMD Karten so schnell sind wie die 4090, AMD aber auch was vom Kuchen abhaben will und die Karten für 1.800€+ anbietet. ;)

Ich würde mich auf jeden Fall freuen, wenn AMD aufschließen kann. Konkurrenz ist immer gut, auch wenn ich keine AMD Karte kaufen würde.
 
  • Gefällt mir
Reaktionen: Ragnarök88, simosh und Laphonso
Taxxor schrieb:
Bei MT-Lasten ist Zen4 deutlich effizienter. Intel verbraucht mehr und ist dabei etwas langsamer. wenn man die Leistungsaufnahme bei beiden gleich setzt, wird der Unterschied nur noch größer.
Hier mal aus dem anderen Thread geklaut
Anhang anzeigen 1273034


Ich frag mich wieso du diese Grafik postest wo du doch gestern schon erwiesenermassen mitbekommen hast im 13xxx Thread dass die Grafik falsch ist.?
 
KodeX schrieb:
@Laphonso
Was Nvidia so unsympathisch macht, ist, dass sie ihre Features (ausnahmslos?) Nvidia-exklusiv anbieten.
Das ist korrekt, Nvidias business Logik ist, dass sie als Pioniere mit R&D investiert haben.
Da geht es ja nicht nach Sympathie.

Entscheidend ist, dass man sich das erlauben kann, wenn der verndor locked Krams und die Features funktionieren.
Und so lange auch hier in den Computerbase Tests fast ausnahmslos festgehalten wird
"FSR2 zeigt hier die Stärken, kommt aber nicht ganz an DLSS2 heran", hast Du hier den unique selling point, mit dem das Ganze aufgeht.

(Und sobald FSR mal besser abliefert: Das läuft ja auch auf Nvidia Karten....)

So lange hier in den Computerbase Tests fast ausnahmslos festgehalten wird
"RDNA hat wieder Probleme in den raytracing fps", hast Du hier den nächsten unique selling point, mit dem das Ganze aufgeht.

Emotionslos kann man nur festhalten, dass anscheinend vielen Gamern genau hier die Nvidia Luxuspreisaufschläge wert sind.
Wer ein Zeichen setzten will, kauft dann bitte auch als bisheriger Nvidia GPU User demnächst eine RDNA 3 GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
Laphonso schrieb:
Emotionslos kann man nur festhalten, dass anscheinend vielen Gamern genau hier die Nvidia Luxuspreisaufschläge wert sind.
Aber da wird auch ein Schuh draus. Als die AMD Karten bei dx12 besser liegen, haben die jünger auch nur gerufen "braucht ja eh keiner, es läuft sowieso langsamer als dx11, sinnlos". Von wegen Pioniere, ohne amd wäre dx12 nicht gekommen Dank mantle. Also nein, allein ein Pionier zu sein reicht offensichtlich nicht, da gehört auch einfach ein dickes Maß an Marketing dazu.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Zurück
Oben