Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

Ich find AMD musste seine neuen Features wie z.B AntiLag viel stärker bewerben, wie es nVidia mit Raytracing gemacht hat.
RTX bringt momentan auch nur wenig, aber nVidia hat erfolgreich damit geworben und viele Käufer gewonnen.
Das müsste AMD auch bei z.B AntiLag machen.
Nun sieht es so aus, wie viele hier denken. Neue Grafikkarte, gleichschnell wie die Konkurrenz aber keine Neuerung. Wobei ich finde, das AntiLag eine sehr gute Neuerung ist. Nur eben schlecht rübergebracht.
 
Scheint eine richtig interessante Karte zu werden. Etwas enttäuscht bin ich, dass es (noch) kein Hardware Raytracing geben wird. Da warte ich mit dem Upgrade dann vielleicht doch lieber auf RDNA2.
 
Kandira schrieb:
Ich find AMD musste seine neuen Features wie z.B AntiLag viel stärker bewerben, wie es nVidia mit Raytracing gemacht hat.

Ohne großartig mehr Informationen zu dieser Technik zu haben, ordnet sich das Feature eher in eine ähnliche Kategorie, wie NVidias Fastsync. Klar ist es ein Nice to Have, aber für die wenigsten ein Kaufgrund oder etwas "revolutionäres".

Da lässt sich PCIe 4.0 schon viel besser vermarkten, auch wenn die wenigsten davon irgendeinen Nutzen haben werden. Für OEM Systeme ist es aber durchaus etwas, womit man werben kann.
 
  • Gefällt mir
Reaktionen: cookie_dent
xexex schrieb:
Ohne großartig mehr Informationen zu dieser Technik zu haben, ordnet sich das Feature eher in eine ähnliche Kategorie, wie NVidias Fastsync. Klar ist es ein Nice to Have, aber für die wenigsten ein Kaufgrund oder etwas "revolutionäres".
Das sehe ich anders. Man hat offensichtlich einen starken Nutzen davon. Es verringert den Lag ohne die Qualität zu mindern. Das ist für viele ein sehr starker Kaufgrund. Die Technik dahinter wollen die gar nicht verstehen. Hauptsache es funktioniert.
 
Eli0t schrieb:
Die Kosten für 16/14nm im Vergleich zu 130nm haben sich verdreifacht, die Kosten für 7nm versechsfacht. Neuer Prozess heißt meist schlechte Ausbeute was den Preis noch weiter nach oben treibt... Du kannst Dir das im Netz selbst zusammensuchen, wenn es Dich wirklich interessiert.[...]

Okay, hast du dafür auch Quellen? Ich habe wirklich gesucht, aber keine gefunden. ¯\(ツ)


Eli0t schrieb:
Speicherpreise haben sich verdrei bis vervierfacht. Nur so als Ansatz zum Nachdenken...
Und Du denkst diese Speicherpreise haben keinen Einfluss auf die Speicherpreise auf Grafikkarten und Konsolen? Das macht die Hauptlast für die BOM aus.[...]

Wo haben sich die Speicherpreise denn vervierfacht? Also langfristig und dauerhaft? Die sind doch momentan wieder im quasi freien Fall. Und wie ich schon mal geschrieben habe; die Schwankungen bei den Speicherpreisen haben wenig bis gar nichts mit der dahinterstehenden Technik zu tun. Stichpunkt Schweinezyklus.

Eli0t schrieb:
Ein anderes Beispiel: iPhones. Warum wurden iPhones von Jahr zu Jahr teurer? Gibt's da nen Grund dafür? :D Nach Deiner Logik müßte ein iPhone mittlerweile die Hälfte kosten.[...]

Leseverständnis ist nicht so deins, oder?

Ich habe geschrieben, dass neue Technik die alte zu deren Preis ablöst. Man bekommt also im Idealfall zum selben oder sehr ähnlichen Preis (Inflation) jeweils mit der neuen Generation die neueste Technik zu einem halbwegs festen Preis.
Damit sollte das Flaggschiff immer ähnlich viel kosten, aber technisch besser sein.
Und auch wenn man die Verbesserungen im Alltag nicht immer merkt, neue IPhones haben in der Regel einen besseren SoC, bessere Kamera, mehr RAM, Speicher, ...

Wie gut die IPhone Preise ankommen sieht man auch daran, dass
  • Apple keine Verkaufszahlen mehr nennt
  • Apple seine Abo Services immer mehr pusht

Machen sie bestimmt, weil sie zwar immer noch neue Absatzrekorde einfahren, das aber lieber nur intern kommunizieren.

Eli0t schrieb:
[...]Es gab Zeiten da kosteten Computer 100000DM und Autos waren wesentlich billiger und mittlerweile ist das genau umgekehrt. Warum sind Autos nicht so billig geworden, wenn sonst alles günstiger geworden ist?

Jetzt gibst du dir nicht einmal mehr Mühe. Wann soll denn der Heimcomputer für den durchschnittlichen CB User 100.000DM gekostet haben? Selbst ein Apple II, als einer der ersten halbwegs weit verbreiteten Computer hat "nur" rund 5.000DM gekostet.
 
  • Gefällt mir
Reaktionen: CrustiCroc und Cpt.Willard
Weil ich immer wieder höre Intel wirds richten, wenn sie denn auf dem Markt einschlagen... und auch selbst dachte, dass AMD etwas gerade rücken wird...
...fragt sich keiner warum Intel in einen Markt einsteigen will, der "so arg kalkulieren muss", bei dem man kaum Marge hat?

Wir werden grob verarscht und wenn Intel, die für ihre Samariterpreise bekannt sind (Hahaha.. 😂) wirklich da rein will, dann um noch die letzten dummen Kühe zu melken...
 
  • Gefällt mir
Reaktionen: Revan1710, cookie_dent und v_ossi
Kandira schrieb:
Man hat offensichtlich einen starken Nutzen davon. Es verringert den Lag ohne die Qualität zu mindern.

Nur ist es eben kein exklusives oder besonders spezielles Feature!
"Nvidia says it has an alternative to that too… and has done for over a decade according to Tamasi. That’s the setting ‘maximum pre-rendered frames’ in the GeForce control panel, which controls the size of the Flip Queue. The higher the number here, the higher the lag between your input and the displayed frame, while lower queue lengths result in less lag but increased strain on your CPU. Too much either way and you could be looking at a stuttering mess.
https://www.pcgamesn.com/nvidia/nvidia-anti-lag-sharpening-amd-radeon-alternative

Wie gesagt, es ist vergleichbar mit Fastsync oder bestimmten Settings im Treiber der Konkurrenz.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Dann hast Du aber nicht wirklich verstanden, was RT macht.

Die Technik (also dass ein Licht physikalisch Korrekt auf die Szene einwirkt), hat doch nichts damit zu tun, wie ich eine Szene beleuchte.
Dem Lichttechniker bleibt es doch nachwievor möglich die Szene so auszuleuchten, wie er es für richtig hält.
Der Unterschied ist, dass die Lichter selbst durch RT einfach ohne Zutun "richtig" und "stimmig" aussehen.


Da sie angekündigt haben, dass die Global Illumination und Verschattung damit unterstützt wird, mache ich mir seit Metro Exodus keine Sorgen mehr, dass es grafisch eine merkliche Verbesserung geben wird.

LG
Zero
Achne das ist wohl klar.
Im echten Leben haben wir physikalisch korrektes Licht, oder?

Und wieso wird beim Film dennoch mit Fake-Lights gearbeitet um eine Szene noch besser auszuleuchten? Verstehst du? Lediglich nur echtes Licht willst du nicht. Nicht im Film - nicht im Game. Du willst echtes Licht PLUS Fakes! Und der Lichttechniker kann eben NICHT jede Szene mit "real light raytracing" richtig ausleuchten. In einem Haus/Raum ja, weil wenn da was zu dunkel ist, stellst du halt einfach eine weitere Schreibtischlampe aka Lichtquelle irgendwo auf ... nicht aber Abends im Wald, im Auto nachts auf der Landstraße und auch im Zug willst du keine Neonröhren oben an der Decke anbringen & Co.

Deswegen nimmt man fake-lights für den Film, weil eben ein Vollmond der den Wald bescheint eben nicht reicht, und du dann den Protagonisten nicht sehen könntest, weil finster wie im Bärenarsch. Oder bei einer Autofahrt nachts, würdest du die Straße sicherlich toll mit RT effekten durch die Scheinwerfer des Autos ausgeleuchtet haben, kannst aber NICHT deinen Beifahrer erkennen, weil drehst du den Kopf zur Seite ist da ein schwarzes Loch! Deswegen nimmt man ein logisches fake lights ins Auto mit rein, um diesen Part so aufzuhellen, wie es normalerweise im echten Leben wäre, wo die Straße die Lichtstrahlen und auch wieder zurück werfen ins Innere des Autos. Und dann sorgt das Fake Light im Auto auch dafür, das du das Game besser genießen kannst, denn ist es scheiss wurst egal, ob das alles super korrekt mit RT ausgeleuchtet ist, wenn du den Beifahrer nicht siehst (Mimik, Gestig, Kleidung - nix siehst du - schwarz).

Und das müssen die bei Computerspielen noch lernen!
RT alleine ist bullshit. Die Profis, aus Film und Fernsehen, machen das mit echten und fake lights.
 
  • Gefällt mir
Reaktionen: Blekota und Cpt.Willard
major_tom111 schrieb:
Das ist ein ewiger Kreislauf und solange jährlich neue Games auf den Markt kommen gibt es auch einen Markt für neue Grafikkarten - ganz egal welches Segment oder welche Preisklasse - es gibt immer einen Markt. Mag sein dass der Absatz von 2060 oder 2070 gesättigt ist, aber das ist kein Maßstab für den Zustand des Marktes.

Theoretisch gibt es fast keine Sättigung, da es immer passieren kann das jemanden eine Grafikkarte defekt wird und wenn er genau jetzt so ein Problem hat bekommt er mit der RX 5k Reihe eine aktuelle alternative zu NV.
 
Piecemaker schrieb:
Achne das ist wohl klar.
Im echten Leben haben wir physikalisch korrektes Licht, oder?
Genau

Und wieso wird beim Film dennoch mit Fake-Lights gearbeitet um eine Szene noch besser auszuleuchten?
Du kannst beim Film keine Fake-Lights im herkömmlichen Rasterbasierten Ansatz generieren/einsetzen. Die Lampe möcht ich sehen

Verstehst du? Lediglich nur echtes Licht willst du nicht.
Du hast mich nicht verstanden.
Die Art- Direction und die Lichtstimmung haben nichts mit der Art und Weise der Berechnungstechnik zu tun.

Und der Lichttechniker kann eben NICHT jede Szene mit "real light raytracing" richtig ausleuchten.
Im Gegeteil- Beim Film passiert das automatisch. Er kann eben kein Licht gernerieren, was nicht auf Raytracing basiert.

Und das müssen die bei Computerspielen noch lernen!
RT alleine ist bullshit. Die Profis, aus Film und Fernsehen, machen das mit echten und fake lights.
Gerade bei Computerspielen haben die den Umgang mit Fakelights bis zum Abwinken optimiert.
Und wie gesagt- Du verwechselst Lichtquellen, die natürlich abstrahlen mit Rasterbasierten Fake- Lights, die eben nur sehr begrenzt auf die Umgebung wirken. Die Lichter sind technisch fehlerhaft.

RT alleine ist insofern "Bullshit", als dass wenn kein Licht platziert wird, die Szene dunkel bleibt.
Deswegen braucht es RT und die von Dir genannten Lichtquellen (fake oder real)

Grüße
Zero
 
xexex schrieb:
Nur ist es eben kein exklusives oder besonders spezielles Feature!


Wie gesagt, es ist vergleichbar mit Fastsync oder bestimmten Settings im Treiber der Konkurrenz.

Anscheinend soll das von AMD aber anders, und vor allem besser funktionieren. Hatte hier jemand Mal gezeigt, ich weiß nur nicht mehr wo.
Seis drum. Marketing ist bei AMD nicht die Beste
 
Vitec schrieb:
Theoretisch gibt es fast keine Sättigung, da es immer passieren kann das jemanden eine Grafikkarte defekt wird und wenn er genau jetzt so ein Problem hat bekommt er mit der RX 5k Reihe eine aktuelle alternative zu NV.

Aber bei dieser Alternative stellt sich bei mir noch nicht so recht das "haben will" Gefühl ein.
Preis/Leistung auf NVIDIA Niveau, allerdings ohne die die RT und DLSS Gimmiks bei möglicherweise höherem Stromverbrauch. Dazu noch Blower Lüfter mit mutmaßlich hohem Geräusch und diese Anti Lag Geschichte muss sich erst noch beweisen.
Sieht für mich eher so aus wie ein krampfhafter Versuch etwas auf den Markt zu bringen um den Anschluss nicht zu verpassen. Gleichzeitig will man aber von den hohen Preisen, die NVIDIA mittlerweile verlangt, profitieren.
Soviel AMD auf der CPU Schiene richtig macht, so viel machen sie gerade bei den GPUs falsch.
 
  • Gefällt mir
Reaktionen: xexex
Piecemaker schrieb:
Und wieso wird beim Film dennoch mit Fake-Lights gearbeitet um eine Szene noch besser auszuleuchten? Verstehst du? Lediglich nur echtes Licht willst du nicht. Nicht im Film - nicht im Game. Du willst echtes Licht PLUS Fakes!
Um da auch noch mal gezielt drauf einzugehen, falls du @ZeroZerp mit seiner Antwort noch nicht verstanden haben solltest:

RT, nur bezogen auf Beleuchtung, bedeutet nicht "Keine Fake Lichtquellen" sondern nur "keine Fake Oberflächenreaktionen".

Du kannst auch mit RT in einer Szene beliebig viele Lichtquellen verteilen, die dann alles mögliche ausleuchten, nur musst du dich mit RT eben nicht mehr um jede einzelne Oberfläche kümmern, die auf dieses Licht möglichst realistisch reagieren muss. Du setzt einfach einmal die Quelle und der Rest passiert von alleine.
 
  • Gefällt mir
Reaktionen: .Sentinel.
AMD wird die Preise für die neuen Karten anpassen müssen. Sie werden mindestens 100,- $ runter gehen müssen, damit auch eine angemessene Anzahl verkauft werden kann. Sie haben kein RT und DLSS, aber den gleichen Preis verlangen, ist absurd. Die neuen Features wie Anti Lag müssen sich allerdings erst noch beweisen in Tests und auch wie laut die Karten sind bei den verbauten Radiallüftern. Interessant wird auch der echte Stromverbrauch sein bei den 7nm, bin gespannt... Aber einfach zu teuer.
 
Taxxor schrieb:
Die 2070 ist im CB Test allerdings auch konstant mit über 1700MHz gelaufen, mit dem größeren Die und der "schlechteren" Fertigung.
Du vergleichst mal wieder Äpfel mit Handtaschen. Das sind zwei vollkommen verschiedene Architekturen :rolleyes:
 
@rg88 Das ist mir klar, dennoch zeigt es doch, dass sofern die TBP der 5700XT auch dem realen Verbrauch entspricht, Nvidias Architektur weiterhin effizienter ist, auch gegen einen kleineren Chip in 7nm und eine angeblich auf Effizienz optimierte Architektur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent
rg88 schrieb:
Hat jemand was anderes behauptet?
Nicht direkt, aber du fragtest ja warum ich das selbst bei 180W nicht so gut finden würde, und das ist die Antwort.
Mit einer Fertigung die weitaus weniger Verbrauch verspricht und einer Architektur, die auf gute Effizient optimiert sein soll, würde ich eben erwarten, dass man eine Karte wie die 2070 in Perf/Watt überholen oder mindestens einholen kann.
Das hat die Radeon VII mit UV ja bereits geschafft und bei Navi bekommt man ja durch RDNA taktbereinigt schon mal 25% Performance ohne Mehrverbrauch geschenkt .
Sollten es nur 180W sein, hätte man die 2070 zwar eingeholt, aber wirklich "gut" fände ich das immer noch nicht, das wäre eher das Mindeste was ich erwartet hätte.

Den Takt jetzt so hoch zu treiben, dass der Verbrauch Richtung 220W geht, um die 2070 zu packen, sieht wieder nach Brechstange aus und wirft für mich zumindest kein gutes Licht auf die erste RDNA Generation und dem, was uns dann evtl mit der 5800 erwarten wird.



Um das mal mit den CPUs zu vergleichen, Intels 14nm+++ und die dazugehörige Architektur gelten als sehr gut ausoptimiert und hier wird man mit den 7nm CPUs die Perf/Watt von Intel wohl sehr deutlich schlagen können.

Wäre es so abwegig, zu erwarten, das man das bei den GPUs genau so hinbekommen würde?
 
Zuletzt bearbeitet:
noxon schrieb:
Dummes Zeug. Die Hardwareanforderungen einer Technologie, egal of Raytracing, Rastering oder Softwarerendering haben doch nichts damit zu tun, wann die Hardware dafür auf den Markt kommt.
Es wird immer eine gewisse Menge an Rechenoperationen pro Sekunde benötigt und daran ist nichts zu rütteln. Da ist es selbstverständlich von Nachteil, wenn man mit einer Technologie erst 1-2 Jahre nach der Konkurrenz auf den Markt kommt.
Zum Einen hat man sich schon einen Teil der Kundschaft abwerben lassen und zum Anderen hat man noch nicht so viel Erfahrung in dem Bereich und wird leistungstechnisch bei weitem nicht mithalten können.

Außerdem ist Raytracing sehr wohl spielbar, wie man ja an QuakeRTX sieht oder auch hier an Minecraft.

Ich würde die Technik liebend gerne in allen möglichen Indie-Titeln im Einsatz sehen. Ich preife auf RT in AAA Spielen.
Die simpelsten Sidescroller wären dafür schon super geeignet und dafür reicht die Performance heute schon mehr als aus.

Man stelle sich The Last Night mal mit RT Effekten vor. Wäre doch perfekt.

Bitte das dreiste "Dummes Zeug." unterlassen. Das ist einfach nur unverschämt.


So viel zu Quake ist spielbar damit. Sorry aber ich will kein 20 Jahre altes Spiel mit unter 60 FPS spielen nur weil dabei ein paar unscheinbare Effekte mehr im Spiel sind.

Was ich damit meinte war, dass AMD vielleicht daran werkelt die Hardware so rauszubringen, dass man gleich mindestens 60 FPS hat ohne das Rumstolpern welches nVidia da gerade vollführt nachzuahmen. Das ist aber natürlich nicht vorstellbar für dich...du gehst direkt davon aus, dass AMD genau da anfängt wo RTX jetzt einsteigt.

Du übersiehst dabei aber, dass AMD aus nVidias Fehlern lernen kann.

Aber im Ernst ist Minecraft in dem Video mit diesem MCFly SweetFX Preset versehen? Oder ist das die RTX Implementierung? Weil das sieht grottig aus mit dem Pixelrauschen. Das will ich bei mir niemals auf dem Bildschirm sehen.
 
  • Gefällt mir
Reaktionen: Eli0t und rg88
Cpt.Willard schrieb:
Weil ich immer wieder höre Intel wirds richten, wenn sie denn auf dem Markt einschlagen... und auch selbst dachte, dass AMD etwas gerade rücken wird...
...fragt sich keiner warum Intel in einen Markt einsteigen will, der "so arg kalkulieren muss", bei dem man kaum Marge hat?

Wir werden grob verarscht und wenn Intel, die für ihre Samariterpreise bekannt sind (Hahaha.. 😂) wirklich da rein will, dann um noch die letzten dummen Kühe zu melken...


Würde mich auch nicht wundern, wenn Intel dann mit Features kommt die man nur nutzen kann, wenn man sowohl eine Intel CPU wie auch GPU hat ;)
 
Zurück
Oben