News AMD RDNA 4: Radeon RX 9070 XT und RX 9070 kommen im März

fox40phil schrieb:
Boah ich will nicht mehr FSR4 Gedöhns...sondern mehr Leistungs pro Watt! Und allgemein mal mehr Leistung....

AMD bitte einen Preis-Leistungs-Watt Knaller!
Mir gehts genauso, stattdessen bekommen wir Karten mit größerem Fake-/Render-Frame-Verhältnis.

Da mir 60 fps ausreichen, kann ich mit einem Vielfachen an Fake-Frames wahrscheinlich nicht viel anfangen, da man ja auch eine gewisse Basis-Framerate dafür braucht.
 
  • Gefällt mir
Reaktionen: fox40phil, Micha_80 und SP-937-215
  • Gefällt mir
Reaktionen: fox40phil, stevefrogs, b|ank0r und 3 andere
modena.ch schrieb:
Haben sie sicher nicht.

CDNA sind auch Grafikkarten und die verkaufen sich Bombe.

Auch in den Konsolen gibt es AMD Grafikchips, wobei das eher unter der Custom Chip Abteilung läuft.
AMD hat eine Radeonsparte, die Teil der "Gaming"-Abteilung ist, welche in den veröffentlichten Geschäftsargebnissen gesondert geführt wird.

Im letzten veröffentlichten Quartal hat AMD in der "Gaming"-Abteilung, die neben allen Radeon Grafikkarten auch die Lizenzierungen für Konsolen und andere angepasste Produkte umfasst, bei 462 Millionen US Dollar Umsatz (-69% zum Vorjahr) nur noch 12 Million US Dollar Gewinn (-94% zum Vorjahr, 2% Marge) erzielt.

Für mich ist es extrem unwahrscheinlich, dass AMD mit den lizensierten Konsolenprodukten nicht wenigstens 12 Millionen US Dollar verdient hat, was zur in meinen Augen sehr hohen Wahrscheinlichkeit führt, dass AMD im letzten veröffentlichen Quartal mit Grafikkarten Verluste erzielt hat.

Begu schrieb:
Hast Du Deine Glaskugel bei Amazon gekauft? Oder im Fachhandel?
https://ir.amd.com/news-events/pres...-reports-third-quarter-2024-financial-results
Ergänzung ()

Grestorn schrieb:
TAA reduziert keine Details sondern reduziert harte Kontraste an Kanten.
Temporale Matschfilter sind nicht "nativ".
 
  • Gefällt mir
Reaktionen: stevefrogs und CadillacFan77
incurable schrieb:
Temporale Matschfilter sind nicht "nativ".
Ist doch super, dann kann man sich künftig auch die Diskussionen um DLSS/FSR vs "nativ" sparen, weil es in dem Fall sowieso schon lange nur noch selten native Spiele gibt
 
  • Gefällt mir
Reaktionen: FR3DI und Grestorn
DarkStarXxX schrieb:
Natürlich lässt sich AMD das Konsolengeschäft in Zukunft einfach so durch die Lappen gehen...
Lohnt sich das überhaupt oder wären die dafür gebundenen Ressourcen nicht in der Beschleunigerabteilung besser verwendet?
Ergänzung ()

Taxxor schrieb:
kann man sich künftig auch die Diskussionen um DLSS/FSR vs "nativ" sparen
Das konnte man von Tag 1 an, weil schon damals temporale Matschfilter als Vergleichsnorm herhalten mussten.
 
Scheint sich natürlich zu lohnen, weil AMD über Jahre hinweg eine bestimmte Menge an SOC's absetzen kann.
 
incurable schrieb:
Temporale Matschfilter sind nicht "nativ".
Ach, nur pures Rasterizing ohne AA ist "native"? Sammt aller Rasterizing Artefakte.

Und nochmal: TAA reduziert keine Details. Du verwechselst Pixelkanten mit Schärfe. Das spricht nicht für Dich.
 
bigfudge13 schrieb:
Mir gehts genauso, stattdessen bekommen wir Karten mit größerem Fake-/Render-Frame-Verhältnis.
DLSS, XeSS und FSR sind nicht nur FG
 
HAse_ONE schrieb:
Ich versteh auch dieses Argument mit "Bevor der VRAM ausgeht, fehlt eh meist schon die Rohleistung". Das macht keinen Sinn. Bessere Texturen kosten so gut wie keine Leistung, sondern einfach nur mehr VRAM. Und zumindest für mich sind gute Texturen mit das wichtigste bei der Grafik. Zu wenig VRAM hat nur zur Folge, dass ich früher die Texturen runterstellen muss, nur damit Nvidia oder AMD paar $ Pro Karte sparen können, die eh schon schweineteuer sind.
Der V-RAM Bedarf wird von jedem Qualitätsetting erhöht, nicht nur durch die Textursettings.
Beim Beispiel RTX 4070 vs. 7800XT bringt dir der V-RAM bisher kaum nennenswerte Vorteile, schon gar nicht in 1080p oder 1440p, also sollte man die V-RAM Panik definitiv eher auf 8GB und 10GB Karten beschränken, wobei es hierbei auch enorme Unterschiede zwischen den Herstellern geben dürfte.
Dort wo Intel 10GB schon Probleme bereiten, laufen oft 8GB auf einer Nvidia RTX 4060 noch sauber durch.
HAse_ONE schrieb:
Selbst wenn die Rohleistung für ultra Schatten, RT etc. nicht reicht, kann ich mit genug VRAM trotzdem die knackig scharfen Texturen auswählen.
RT, Schatten und solche Optionen kosten auch Speicher, insofern ist das zwar nicht ganz richtig, aber grundsätzlich würde ich dir zustimmen. Das Problem ist halt, dass sobald irgendeiner Karte in maximalen Settings 4K Auflösung usw. mal der V-RAM ausgeht, es sofort heißt, die Karte darf man nicht mehr empfehlen und das obwohl dem Konkurrenzprodukt in den meisten Fällen die Leistung für RT/PT völlig fehlt, aber eine V-ram Knappheit durch kleine Stellschrauben behoben werden kann.

Ich habe das selbst auf meiner RTX 4070 und verkauften RTX 4080 in Indiana Jones beobachtet.
Mehr als 12GB sind in QHD gar nicht nötig, nicht einmal mit PT, da einige Optionen des Spiels Speicher geradezu verschleudern, aber nichts bewirken.
HAse_ONE schrieb:
Warum man nicht einfach mal Kritik an seinem "Lieblingshersteller" hinnehmen kann, ohne gleich immer irgendwelche Situationen und Argumente zu suchen, die Kritik runterzuspielen.
Grestorn hat von Anfang an mit einem Kompromiss argumentiert. Der Kompromiss ist mit einer Radeon Karte viel größer. Kein DLSS, schwächeres RT, kaum nutzbares PT, auch aufgrund fehlendem RR.
Du wirst die Radeon Karte nie so eingestellt bekommen, dass sie das stemmen kann.
HAse_ONE schrieb:
Nochmal, es würde KEINEM EINZIGEM Kunden schaden, wenn die Karten mehr VRAM hätten.
Es würde auch keinem einzigen Kunden schaden, wenn die Radeon ein besseres Featureset, mehr RT Power und überhaupt mit PT in Indiana liefe. Die Diskussion hattest du schon öfter.

Da heißt es dann wieder etwas von "Fanboys" usw. Man kann sich gerne anschauen wo die RTX 3080 heute im Vergleich zur 6800XT bei maximalen Details trotz nur 10GB steht. Wenn Nvidia bei anderen Dingen überlegen ist, wird AMD einen Vorteil für sich beanspruchen müssen. (Speicher)
Der Speicher spielt bei dieser Generation wiederum keine Rolle mehr, da AMD nur bis 16GB geht.

Screenshot 2025-01-23 132400.png

Die meisten User haben bis heute mit der 3080 einfach besser gespielt, trotz 10GB Videospeicher.
Sie liegt 10% über der 6800XT auf dem Niveau einer 6900XT. Bei RT unter Max Settings geht ihr häufiger der Speicher aus, definitiv. Aber man kann dort auch Regler benutzen. Genauso ist RT bei der GeForce nicht sooo wichtig. Kann man abschalten, oder auf niedrig belassen.

HAse_ONE schrieb:
Wieso also muss man als Kunde, der für die Karten viel Geld zahlt, dieses Sparen der Hersteller verteidigen? Ich versteh es einfach nicht sorry...
AMD spart genug um schritthalten zu können. Intel auch. Ich habe keine Lust immer den Herstellern vorzuwerfen sie würden ihre Karten zu teuer anbieten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable und Grestorn
Tja NDA halt wa :D
Erzählen wir nach NDA dann mal^^
 
  • Gefällt mir
Reaktionen: Rockstar85, incurable, b|ank0r und 2 andere
Corpus Delicti schrieb:
Mehr VRam greift immer und überall. Wie viele von den zig-tausend Spielen in freier Wildbahn unterstützen PT (was auch wieder Speicher braucht und die Lage verschlimmert)?
Wie viele Spiele außer eben jenen PT Spielen, die dann auch noch mehr VRAM wegen FG benötigen, gibt es denn, wo 12GB zu knapp wären?
 
  • Gefällt mir
Reaktionen: Holgmann75 und incurable
Dies erinnert mich jetzt leider stark an die zweite Verschiebung von Assassin's Creed Shadows von Ubisoft. Zumindest wenn es um die unglaubwürdige Begründung seitens AMD geht. Ich zweifle nicht an der Qualität des Produktes, sondern an der legeren Art und Weise wie mit den geschürten Erwartungen bei Fans und möglichen Interessenten umgegangen wird.
 
seltsam: ich brauche keine neue Grafikkarte, trotzdem freue ich mich mit entspannter Ruhe auf die Veröffentlichungen von nV und amd. aber vielleicht ist genau das der Grund :smokin:
 
  • Gefällt mir
Reaktionen: Holgmann75
@bigfudge13 ... sondern Fake-Pixel.

Die Argumente sind halt alt.

Irgendwelche möglichst krassen Worte zu verwenden, um seiner Meinung Audruck zu geben, macht das ganze halt nicht wirklich glaubwürdiger.
 
  • Gefällt mir
Reaktionen: FR3DI
HAse_ONE schrieb:
Und wieder wird verteidigt. Die 5080 kostet mindestens 1170€, also ich finde für den Preis kann man schon mehr VRAM erwarten.
Es ist ja nicht so, dass besonders Nvidia am Hungertuch nagt. Die haben eine sehr gute Gewinnmarge.
und genau wegen der Gewinnmarge machen sie es nicht. Denn man braucht doch noch was für die TI/super modelle ;) der platz zwischen 5080 und 5090 ist sehr gross. Da passen locker 2weitere modelle rein.
 
  • Gefällt mir
Reaktionen: incurable und CadillacFan77
Zurück
Oben