News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

scrafi schrieb:
Krass, hab mich gestern mal ans Undervolting meiner Referenz RX6700XT
sweetspot ist bei ca. 150 - 160 W max. nur die 6700 xt
 
  • Gefällt mir
Reaktionen: simosh und Rockstar85
Chismon schrieb:
Huang meinte doch schon das Moore'sche Gesetz ist tot und daher würden Preissenkungen in Zukunft bei nVidia nicht mehr stattfinden, was natürlich eine selten dämliche Marketing-Aussage für nVidia Produkte ist u d es fragt sich, ob er damit durchkommt.
Ich fürchte ja. Die normalen Marktmechanismen funktionieren schon länger nicht mehr so richtig, nicht nur bei Grafikkarten.
 
  • Gefällt mir
Reaktionen: Laphonso
th3o schrieb:
Aber es stimmt auch dass das Auge mitisst und wenn etwas schön und zeitgemäß aussieht dann trägt das auf jeden Fall zum Spielspaß bei.
Bekommt nicht auch Star Citizen Raytracing? Ich meine da etwas gelesen zu haben. Das Budget dafür sollte da sein :D
 
@th3o

Und du kommst mit dem größtmöglichen schrott und Extremvergleich um die Ecke. Selbst heutige vernünftige Indiegames sehen besser aus als jedes Tripple A game aus 2000er. Selbst Indiegames die auf 16 Bit 8 bit grafik setzen sehen heute technisch idr besser aus als jedes "Originale" game aus den 90er. Und die ganzen Indiegames kosten idr auch keine 60€.
 
Laphonso schrieb:
Dem stimme ich zu, aber statt 680 Euro für eine 6800XT geben die Leute 800 Euro für eine 3080 aus, aufgrund des Featuresets.
Da fiele mir halt nur DLSS und NVenc ein.. Die Game Ready Treiber sind nett, gibts aber auch bei AMD.. hatte wieder einen Treiber nun gehabt, den ich gelöscht habe mittels DDU, weil es mir meine PC-Spiele zerlegt hatte und Artefaktbildung im Startmenü war. Also der Grund ist halt durch die Realität überholt.. (nvidia Gameready)


DLSS3 sehe ich noch lange nicht als Gamechanger. Und ich fände es gut, wenn AMD eine ähnliche Upscaling Technik anbieten wird. Oder aber die Rohleistung ist ausreichen.. Wir sehen es ja zB an schlechten Ports, dass die GPU Leistung auch da dann zweitrangig ist.

Deswegen sehe ich auch die Aussage: "Ich kaufe mir die 4090 wegen Leistung" als zu kurz gegriffen an.
Am ende steht und fällt alles mit der Portierungsfähigkeit der Entwickler und eigentlich müsste da AMD bessere Karten haben.. Naja Eigentlich
 
  • Gefällt mir
Reaktionen: Chismon
HighPerf. Gamer schrieb:
Sorry, aber 256bit Speicherinterface und nur +12% mehr shader als die RTX3080 ist für mich eher eine hypothetische RTX4070 denn eine echte RTX4080.
Die 4090 hat so viele, dass sie nicht mal alle genutzt werden können, vielleicht ist die Auslastung bei der 4080 16GB ja besser. Die Rechenleistung kommt ja nicht nur von der reinen Anzahl, auch wenn die theoretische Rechenleistung der 4080 deutlich hinter der der 4090 liegt.
 
Fresh-D schrieb:
@Taxxor: Bei MF stehen manchmal 2 unterschiedliche Preise, gerade wenn der Artikel im Mindstar angeboten wird. Wahrscheinlich ist das Absicht von MF um mehr Geld zu generieren.
Naja es ist einfach:
Du wirst quasi durch dieses Herabstufen auf MindStar preis indirekt zu einem Schnäppchen gedrängt... MF macht das seit Jahren so und mehrfach wenn man auf bestimmten Seiten ist, gibts dann noch von Amazon ähnliche oder bessere angebote.. Echtzeitmarketing ;)
 
HighPerf. Gamer schrieb:
Woher hast du diese ganzen Informationen ?
Wenn ich es dir sagen würde, dann würde ich meinen Job verlieren.;)
Warte auf den 3ten November und dann schau dir die AMD Folien an.
Nvidias Preise sind nicht von ungefähr - leider.
 
HighPerf. Gamer schrieb:
@th3o

Und du kommst mit dem größtmöglichen schrott und Extremvergleich um die Ecke.
Danke für die schönen Ausdrücke. Mein Kommentar war nicht weniger zugespitzt als deine schwarz-weiß Aussage von wegen Gameplay = alles, Grafik = nichts. Wenn du halt auf der Ebene dein Argument aufbaust, das kann ich auch.
 
@th3o

Du kommst direkt mit Grafik aus der 2000er Mottenkiste. Wie soll man so eine vernünftige Diskussion führen wenn du sofort übertreibst ? Da vergeht mir direkt die Lust auf eine Unterhaltung.

Selbst Schuld.
 
@HighPerf. Gamer
Komisch, man sollte meinen dass die Aussage dass Grafik absolut keine Rolle spielt nicht minder eine Übertreibung ist. Aber klar, nur ich hab übertrieben und du warst sehr vernünftig :)
"Sehr gute Spiele dürfen kacke aussehen"
 
Ayo34 schrieb:
Nicht skeptisch? Einfach glauben? Ich habe bisher nur schlechtes über DLSS3 gesehen + eben die logische Einschränkung, dass es bei Multiplayerspielen oder gar im kompetitiven Bereich überhaupt keinen Sinn macht (erwiesen!).
So wie man über DLSS, DLSS 2 auch nur schlechtes gelesen hat, bis man den Nutzen nicht mehr leugnen konnte. Man hat sogar FSR 1.0 für "gut" befunden, obwohl es meilenweit hinter DLSS 2.0 hinterherhinkte.
Durch Frame Generation kann man CPU Limits bis zu einem bestimmten Grad aufheben, ein extrem mächtiges Tool. Dass sich Bilder durch ~ gleichbleibenden Inputlag nicht flüssiger anfühlen, ist kompletter Unfug.
 
@th3o

Es geht hier um die Spitze des Eisberges mit der Effekthascherei. raytracing macht Cyberpunk 2077 nicht besser. Das Spiel ist dadurch nicht spaßiger. Das ist ein Fakt. Crysis hat damals das Duell mit MW 1 verloren, obwohl es deutlich besser aussah, dummerweise hat das gunplay in COD MW 1 , 10 mal mehr Spaß gemacht und war deswegen auch erfolgreicher. Solche Beispiele gibt es 100 Fach.

Und du kommst mit Vergleichen um die Ecke die so hart sind und so aus der Mottenkiste gegriffen, da macht ne Unterghaltung keinen Sinn mehr.
 
Rockstar85 schrieb:
Und ich fände es gut, wenn AMD eine ähnliche Upscaling Technik anbieten wird. Oder aber die Rohleistung ist ausreichen.. Wir sehen
AMR?
 
Laphonso schrieb:
Rasterisation hat Ihren Zweck erfüllt, das olle prebaked Rendered von künstlichen Effekten ist bald vorbei.
Das dürfte noch ein Weilchen dauern, denn dafür sind sowohl Technik in Engines als auch Chipleistung für RT-Raytracing noch viel zu unausgereift oder schwach (weshalb sich ein Einstieg nur dafür aus meiner Sicht noch gar nicht lohnt z.Z., vielleicht in 2-3 Generationen dann).

Dazu kommt, daß der überwiegende Teil der Gamer auf Einstiegs- und Mittelklasse GPUs aktuell sitzt, damit auf maximal rudimentären RT-Raytracing Fähigkeiten und der rapide Preisanstieg ohne großartigen Mehrwert bei eben diesen GPUs deutet nicht daraufhin, daß sich Gamer teures RT-Raytracing (auf neuestem Stand) in Zukunft kaufen können werden, zumal abseits von AAA Publisher/Entwicklern RT-Raytracing immer noch ziemlich nischig integriert ist.

So gesehen dürfte Rasterisierung (auch wenn man 'mal Richtung VR/Metaverse(-Gaming) denkt, denn da braucht es den Schnickschnack auch noch nicht) ebenso wie Full HD als relevante Auflösungsstufe uns noch sehr lange erhalten bleiben ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Naja es ist einfach:
Du wirst quasi durch dieses Herabstufen auf MindStar preis indirekt zu einem Schnäppchen gedrängt... MF macht das seit Jahren so und mehrfach wenn man auf bestimmten Seiten ist, gibts dann noch von Amazon ähnliche oder bessere angebote.. Echtzeitmarketing ;)
Okay, so habe ich das noch nicht gesehen. Danke für die Einsicht.
Auf anderen Seiten habe ich dank Adblocker dieses Problem noch nicht bemerkt.

Allgemein fühle ich mich durch Angebote wenig "gedrängt", am meisten spart man immer wenn man nichts ausgibt. (100% Rabatt! Nur jetzt. :D)
 
  • Gefällt mir
Reaktionen: iWeaPonZ, MortyMcFly und Rockstar85
Laphonso schrieb:
Sagt wer?

...

Bin mal gespannt bei welchen fps eine 7900XT hier landet in 4 K Psychosettings.
So sieht es eben aus- Egal wie-> Es zählt, was am Bildschirm ankommt.
100 FPS / 4K / Ultra Settings -> 350-360 Watt. Dem gilt es sich zu stellen.

Gerithos schrieb:
Tests zu Requiem, die den input lag kritisieren. Ich bin von DLSS3 nicht überzeugt zum jetzigen Zeitpunkt, dlss2.X generiert genug fps auf potenter Hardware ohne fake Bilder, aber das ist nur eine Meinung unter vielen.
All die, die den Input- Lag kritisieren haben offenbar vor Einführung von Reflex und DLSS nie ein Spiel spielen können.
Im Normalfall liegt der Lag bei DLSS3 Quality +FG unter dem der nativen Auflösung. Sind doch inzwischen genug Messungen dazu im Netz.
Haben sich früher Leute hingestellt, die Maus hin- und hergewackelt und sich beschwert, dass die native Latenz so hoch ist? Könnte mich nicht dran erinnern.
Da gibts tausend andere Dinge, die eine Steuerung "träge" wirken lassen, bevor die technische Latenz zum Tragen kommt.
 
  • Gefällt mir
Reaktionen: Laphonso
@Chismon Wenn Unreal und Unity (da dauerts wohl länger :)) RT bieten, dann kann es bald jedes Indi Game
Der Löwenanteil bleibt natürlich trotzdem Raster, da echtes RT noch Jahre auser Reichweite liegt, und wie du sagst, vom Mainstream ist hier noch nicht mal die Rede
 
  • Gefällt mir
Reaktionen: Rockstar85 und Chismon
Zurück
Oben