News AMD Navi 48: Die erste RDNA-4-GPU ist bestätigt, die Eckdaten noch nicht

Raptor85 schrieb:
Allerdings dauert das schon lange, bis sich das alles amortisiert hat (Anschaffungskosten vs. weniger Energie beim Zocken verballern als zuvor).
Ja das würde ewig dauern. Selbst wenn man 150w weniger braucht als mit der 7900xtx wären das bei ca. 7 Stunden spielen am Tag 1kw das kostet maximal 40 Cent das sind auf ein Jahr hoch gerechnet keine 150 Euro. Da müsste man 4 Jahre oder sogar mehr spielen um den Mehrpreis zu kompensieren.
 
Chismon schrieb:
nur eine lächerlich voreingenommene und offensichtliche Sichtweise eines nVidia-Markenfans, denn Du hast bisher nichts anderes hier im Thread produziert als einseitiges AMD/RTG Bashing und disqualifizierst Dich nur mit solchen typischen, rosinengepickten Aussagen, die an der Realität leider vorbei gehen ;).
Wer im Glashaus sitzt...braucht man nur deine Posthistorie was GPUs betrifft anschauen... :rolleyes::D Gehörst ja auch zu den AMDlern hier, die sofort bei jeder Gelegenheit beim NV Bashing dabei sind und sonst kein gutes Haar an NV lassen.

Brrr schrieb:
Der hohe Marktanteil kommt nicht von nichts.
Nene, das ist weil die Gamer einfach nur verblödet vom NV Marketing sind und AMD nicht so viel Kohle hat. NV ist die Kohle ja zugeflogen und man hat es von den Bäumen gepflückt ,sprich einfach Glück gehabt. Mit besseren Produkten, besserem Marketing und besserer Geschäftsführung hat das Nix zu tun was selbstverständlich auch nix kostet/kosten darf.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Quidproquo77
ThePlayer schrieb:
Es bleibt also spannend welche Gerüchte richtig liegen und was Nonsens ist.
Das ist nun Mal das grundsätzliche Problem bei Gerüchten.

Es fängt ganz oben bei den Namen an. Der Name "Navi 48" ist bestätigt da er in den Sourcen von ROCm aufgetauscht ist.

Alleine die Bezeichnung Navi 48 ist ein deutliches Indiz dafür, dass die Entwicklung von RDNA 4 schiefgelaufen ist. Also kann Navi 48 durchaus ein "Rette Was Möglich Ist"-Chip sein.
Dieses Szenario habe ich versucht in Post https://www.computerbase.de/forum/t...die-eckdaten-noch-nicht.2191218/post-29297535 zu beschreiben. Natürlich reine Spekulation.

Natürlich kann noch eine Navi 49 kommen. Natürlich kann es sein dass AMD RDNA 5 vorzieht. Ich halte beides für unwahrscheinlich.
 
Tornavida schrieb:
Gehörst ja auch zu den AMDlern hier, die sofort bei jeder Gelegenheit beim NV Bashing dabei sind und sonst kein gutes Haar an NV lassen.
Genau, deswegen habe ich auch die RDNA 3 Kartengeneration von AMD/RTG kritisch betrachtet im Thread, aber das scheint Dir entgangen zu sein (tja, wieso wohl nur, das passt wohl nicht in Deine Argumentation und Schublade?).

Dass ich kein gutes Haar an nVidia lasse ist auch Quatsch, denn die RTX 4090 und RTX 4070Ti "Super" halte ich noch für halbwegs runde Ada Lovelace Produkte (den Rest leider nicht mangels Speicher, aufgrund von Preis-Leistung, etc.), auch wenn diese beiden Kartenmodelle preislich natürlich für die große Mehrheit der Kundschaft nicht mehr in Frage kommen.

Wenn bspw. eine RTX 3070, wie von vielen (auch mir) vorher gesagt, relativ schnell am von vornherein mager kalkulierten 8 GB Speicher verhungert und das dann eintritt, dann habe ich das auch nicht zurück zu nehmen bzw. war die Kritik berechtigt.

Auch fand ich die RTX 3060 12 GB ziemlich gelungen (auch wenn diese per Leistungsklasse für RayTracing eigentlich zu schwach ist) und dabei bleibe ich als die m.E immer noch empfehlenswerteste Einsteigerkarte von nVidia und der Steam Statistik nach sehen das auch viele andere so) ebenso wie die etwas stärkere aber auch etwas teurere RX 6700XT.

Ein Eingeständnis der Fehleinschätzung der anderen Seite, die den Speicher für angemessen/perfekt befunden hat, die es dann urplötzlich nicht mehr zu geben scheint, muss ich dann aber auch nicht haben.

Vielleicht solltest Du Dir dann doch die Mühe machen die Gesamtheit meiner Beiträge zu lesen und nicht nur ausgewählte/rosinengepickte Beiträge von mir, die mit Deiner Ansicht nicht konform sind, aber das fällt Dir wohl schwer (wieso nur, weil die Wunschmarke nicht ständig gelobhudelt wird und die leidige Konkurrenz nicht madig geredet wird und das Quasi-Monopol noch nicht groß genug ist?).

Für mich ist das am wichtigsten, was man - egal von welchem Konzern - als Kunde (preis-leistungstechnisch) bekommt und ich bin bei keinem der Unternehmen angestellt/unter Vertrag, Aktionär oder ähnliches, aber ich weiss nicht, ob Du das von Dir behaupten kannst?

Des Weiteren stimmt meine Einschätzung zu dem was aktuell lohnt auch ziemlich mit dem überein, was bspw. vor kurzem in einem PCGH Video wiedergegeben wurde (siehe unten), aber vielleicht sind das ja alles auch nur verkappte AMD/RTG Fans für Dich, wer weiss (weil sie evt. nicht genau auf Deiner Linie liegen und andere Meinungen/Einschätzungen nur schwer toleriert werden können als die eigene z.T. mit hanebüchenen Begründungen unterfütterte)?

Die Märchen, die hier - neben dem zum 12VHPWR-Adapterstecker - zu den RDNA 4 Chips teilweise vorgetragen wurden, sind jedenfalls alles andere als belegt und daher wenig glaubwürdig.


Dass ich mich in meinen Einschätzungen übrigens auch täuschen kann, daraus mache ich auch keinen Hehl, aber andere scheinen sich eher einen Zacken aus der Oberlehrerkrone zu brechen, bevor diese zugeben falsch zu liegen und die eigene Marke weniger strahlend da zu stehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee, Rockstar85 und ThePlayer
gartenriese schrieb:
Verstehe ich nicht, eine 7800XT ist doch genau die schnelle Rasterizerkarte mit limitierten RT-Fähigkeiten, die du suchst. Da geht anteilig so gut wie gar nix für RT drauf beim Chip.
Ist das so? Weißt Du auch, wieviel für RT drauf geht? sowohl 4070 als auch 7800xt?
 
Chismon schrieb:
Ja, wie nVidia beim noch viel peinlicheren 12VHPWR-Adaptersteckerdesaster, wirklich vorbildlich wie das dort gelaufen ist und so richtig ausgegoren ist es z.T. immer noch nicht :rolleyes:.
Man kann nun lange darüber streiten was peinlicher ist, einen genormten Stecker zu verwenden, der nicht sicher ist oder Produkte zu verkaufen die defekt sind. Es führt zu nichts.

AMD und Nvidia haben sich da nicht mit Ruhm bekleckert. Darüber zu streiten was nun schlimmer war ist Kindergarten. Beides darf nicht passieren.

Chismon schrieb:
Das auf die PC-SIG zu schieben (in der nVidia auch Mitglied ist und somit mitverantwortlich und die PC-SIG gibt die Steckerfertigung auch nicht in Auftrag) ist einfach nur eine lächerlich voreingenommene und offensichtliche Sichtweise
Die PCI-SIG hat das Steckerdesign genormt, also ist sie für das Steckerdesign verantwortlich.
Nvidia ist dafür verantwortlich es verwendet zu haben, obwohl es Hinweise für Probleme gab. Außerdem ist Nvidia dafür verantwortlich, dass sie dem Problem nicht durch konstruktive Maßnahmen vorgebeugt haben.
Chismon schrieb:
eines nVidia-Markenfans
Danke.

Dass Du dies so siehst bestätigt mich darin dass, ich nicht blind mit der AMD-Brille durch die Welt renne.

Chismon schrieb:
denn Du hast bisher nichts anderes hier im Thread produziert als einseitiges AMD/RTG Bashing und
Bei RDNA 1 und RDNA 2 hat AMD perfekt abgeliefert. Aber das ist nun Mal Vergangenheit.

Es ist offensichtlich, dass RDNA 3 nicht den Erwartungen von AMD entsprochen hat. Wenn es eine Navi 48 gibt und nichts zu Navi 41, 42 und 43 gibt, dann ist dies ebenfalls ein massiver Hinweis darauf dass bei RDNA 4 etwas schiefgelaufen ist. Man kann nun darüber spekulieren ob beides zusammenhängt oder ob es zwei unabhängige Probleme sind.

Und das zu diskutieren ist AMD Bashing?
Chismon schrieb:
disqualifizierst Dich nur mit solchen typischen, rosinengepickten Aussagen, die an der Realität leider vorbei gehen und einer sachlichen Diskussion nicht förderlich sind ;).
Danke.

Sobald AMD das eigene Label auf die Produkte klebt ist AMD voll und ganz dafür verantwortlich.

Was da und wie genau es schiefgelaufen ist werden wir ausstehenden wahrscheinlich nie erfahren. Dass ein Zulieferer gepatzt hat ändert nun Mal nichts an der Verantwortung von AMD für ihr Produkt.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und bad_sign
Verak Drezzt schrieb:
ja genau, wie würde der Markt wohl aussehen wenn AMD nen Marktanteil von 50% hätte... meinsde da gäbe es keinen Preiskampf, geschweige denn weiterhin VRam Krüppel seitens Nvidia
Da hast du Recht. Aber erstmal braucht es dafür gute Produkte. Wir haben ja gesehen wie der erste Ryzen den Markt aufgewirbelt hat. Plötzlich gab es für unter 400 Euro 8 Kerne wo man bei Intel nur 4 Hochfrequenz Kerne bekam.
RDNA2 war schon richtig Klasse. Leider ist beim RDNA3 Design was in die Hose gegangen. Kommt ja nicht von ungefähr das die Nvidia Karten alle überdimensionierte Kühler haben die locker nochmal 100-200w mehr kühlen könnten. Die Kosten ja sogar mehr als was einfacheres. Nvidia ging davon aus das RDNA3 richtig abgehen wird mit 3Ghz Takt etc. Aber wer weiß was uns in den nächsten 10-18 Monaten bei AMD erwartet. Vielleicht können sie mit RDNA4 und 5 an den Erfolg von RDNA2 anknüpfen. Und die Preise fallen.
 
W4RO_DE schrieb:
Es macht doch in der jetzigen Situation für AMD genauso viel - wenn nicht gar noch mehr Sinn - einen Preiskampf einzugehen.
Ob sich AMD einen Preiskampf gegen Nvidia leisten kann? Nvidia verdient Milliarden pro Jahr, AMD nicht einmal eine.
 
@ThePlayer naja bei Ampere war für den Großteil der 3080(Ti)/3090(Ti) der Stromverbrauch auch kein Problem und was die Rasterleistung angeht lag AMD gleichauf oder gar vor den Nvidia Karten,

bis auf die RT Leistung und dass AMD in dieser Generation nicht an eine 4090 kommt, die eh nur bei den überschaubaren Enthusiasten ankommt, steht AMD mit seinen Karten für das was sie an Marktanteilen haben, gar nicht mal so schlecht die letzten Jahre da, könnte um einiges schlimmer sein

daher verstehe ich dass gebashe von wegen konkurrenzlose Produkte gegenüber Nvidia nicht, wobei der Verbrauchh der 4070Ti/4080 gegenüber der 7900XT/X jetzt auch nicht sonderlich besser ist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
ETI1120 schrieb:
AMD und Nvidia haben sich da nicht mit Ruhm bekleckert.
Ja, das sehe ich auch so, aber das kam bei Dir eher einseitig herüber, für mich ist weder das eine (Vapor Chamber, AMD/RTG) noch das andere (Adapterstecker, nVidia) aus Kunden-/Käufersicht akzeptabel.

Das von einigen bemühte Märchen, dass AMD/RTG oft billige, verbuggte Produkte verkauft und nVidia nur tadellose Premiumprodukte auf dem Markt hat, wollte ich nicht unwidersprochen bestätigt haben.

ETI1120 schrieb:
RDNA 1 und RDNA 2 hat AMD perfekt abgeliefert.

Wenn ich an die Treiber-/Stabilitäts-Probleme der RX 5700XT denke, dann war RDNA 1 leider auch alles andere als perfekt, aber sicherlich war die Halbgeneration ordentlich; RDNA 2 war in der Tat eine sehr gut ausgeführte Grafikkartengeneration, auch wenn etwa die RX 6400 und RX 6500XT nicht das Gelbe vom Ei waren, aber das war wohl auch der dGPU Preisexplosion durch den Kryptominingbooms geschuldet.

ETI1120 schrieb:
Wenn es eine Navi 48 gibt und nichts zu Navi 41, 42 und 43 gibt, dann ist dies ebenfalls ein massiver Hinweis darauf dass bei RDNA 4 etwas schiefgelaufen ist. Man kann nun darüber spekulieren ob beides zusammenhängt oder ob es zwei unabhängige Probleme sind.

Und das zu diskutieren ist AMD Bashing?

Die Hintergründe sind nicht bekannt und ja, es ist pure Spekulation, die Deinen Ausführungen nach mehr Unfähigkeit seitens AMD/RTG nahelegt als Kompetenz.

Das kann sein, dass man RDNA 4 zu einer Notlösung zusammen gestrichen hat, aber dann wäre das für eine PS 5 Pro Konsole (als mutmasslichem Mix aus RDNA 3.5 und 4) evt. auch fragwürdig als schlagkräftige (Teil-)Lösung, auch wenn man natürlich entgegnen kann, dass Konsolen technisch weniger relevant und fordernd sind und es deswegen passt (aber die PS 5 Pro ist ja keine Basiskonsole).

Wenn RDNA 4 so kommt wie im Artikel kolportiert, kann es - wie RDNA 1 bzgl. High-End Karten und ein mit RDNA 3 Technik mögliches RTX 4090 Pendant laut Statements von AMD/RTG - auch andeuten, dass es sich für AMD/RTG einfach nicht kostentechnisch lohnt im Gegensatz zu einer Halbgeneration (bei einem RTX 4090 Pendant von AMD/RTG wäre wohl auch der Energiebedarf exorbitant ausgefallen und hätte daher wenig Sinn gemacht).

Das MCM Design sehe ich auch nicht abgeschafft und schätze, es wird mit RDNA 5 - hoffentlich ausgereifter/vorab getestet und idealer Weise komplexer und leistungsfähiger als bei RDNA 3 - wieder kehren, aber das heisst nicht, dass es Navi 41, 42 und 42 Chips (basierend auf MCM Design) vorher überhaupt gab (mir war nur ein gestrichener High-End Chip für RDNA 4 in Erinnerung den Gerüchten nach) und diese alle gestrichen wurden, weil AMD/RTG nicht rechtzeitg gehandelt hat und die gleiche durch die Architektur festgelegte Problematik wie bei RDNA 3 dort nicht mehr beseitigt werden konnte.

Eben dieses waren die Gründe, wieso - wenn auch von einigen gefordert - es eben keine RDNA 1 High-End Grafikkarten gab, zumal die Felle größtenteils sowieso schon an nVidia verteilt waren (RDNA 1 vergleichsweise später bei den Marktstarts der Kartenmodelle dran war).

Wenn AMD/RTG schon soweit geht ein RDNA 3.5 aufzulegen, könnte man auch davon ausgehen, dass man ein MCM Design für RDNA 4 aus dem Boden hätte stampfen können (welches aber zu spät als Alternative zu RTX 5000 im High End auf den Markt gekommen wäre), aber es macht dann wohl eher Sinn RDNA 5 zeitlich vor zu ziehen (mit einem Marktstart bspw., in etwa zum Zeitpunkt eines RTX 5000er Refreshs, den nVidia schon als Konter planen dürfte) und RDNA 4 zu einer Halbgeneration zu machen.

ETI1120 schrieb:
Sobald AMD das eigene Label auf die Produkte klebt ist AMD voll und ganz dafür verantwortlich.

Ja, das gilt aber ebenso für nVidia oder Intel, nicht ausschließlich für AMD(/RTG) und dass die Qualitätskontrolle von AMD/RTG (hinsichtlich der Zulieferer) bei den Vapor Chambern versagt hat, will ich auch nicht beschönigen, aber ebenso gilt das auch für nVidia mit dem testen der für sie gefertigten 12VHPWR-Steckeradapter.

ETI1120 schrieb:
Was da und wie genau es schiefgelaufen ist werden wir ausstehenden wahrscheinlich nie erfahren.
Ja, davon ist wohl auszugehen und es ist wohl auch nicht immer Interesse der Konzerne, in dem Fall AMD/RTG mit RDNA 4, das zu kommunizieren, denn das dürfte rufschädigend und damit kontraproduktiv sein.

Es bleibt zu hoffen, dass sie daraus lernen, wenn es wirklich die von RDNA 3 herrührende, nicht mehr zu ändernde Architektur war und nicht vordergründig Kostenkalkulationen/Produktplatzierungsstrategie, aber da das nicht ansatzweise bestätigt ist, würde ich das auch nicht ausführen wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
@Tornavida ich sehe die ganze Sache so:

Nvidia hat unter der Führung von Jensen Huang in den letzten 25 Jahren gnadenlos gut performt.

Ich kann es vollkommen nachvollziehen, dass viele Leute bei Grafikkarten blind zu Nvidia greifen. Nvidia Gaming GPUs sind nicht perfekt, aber man kann als Käufer wenig falsch machen.

Die Frage ist allerdings sollen AMD und Intel deshalb Nvidia den Markt für Gaming GPUs überlassen und sich auf andere Geschäftsgebiete zurückziehen?
 
Nooblander schrieb:
Ob es eine Treiberbasierte Lösung bleibt oder eine Spielintegration braucht etc. muss man dann schauen.
Genau das ist der Punkt, im Moment ist es ja leider nicht wirklich vorhanden und nach dem Fiasko in CS2 wäre ich auch erstmal skeptisch. Prinzipiell wäre mir eine treiberbasierte Lösung aber deutlich lieber als eine manuelle Implementation auf der Seite der Spieleentwickler.
Ich hoffe sehr, dass AMD hier nachlegt, da sie im niedrigen Preissegment die viel attraktiveren Grafikkarten für solche Spiele haben und sich somit auch wieder etwas Marktanteil sichern könnten.
 
Bengart schrieb:
Ist das so? Weißt Du auch, wieviel für RT drauf geht? sowohl 4070 als auch 7800xt?
Für die 4070 kann man das Ada Lovelace Whitepaper (Link) nehmen. Wenn du da Figure 5 anguckst, siehst du, dass für die RT Cores und die Tensor Cores ziemlich viel Platz drauf geht. Das ist natürlich nur eine Schematik, aber Nvidia wird das nicht ohne Grund so groß dargestellt haben.

Für die 7800XT hab ich die Folien von der Architekturpräsentation (Link) genommen. Ziemlich weit unten wird das Compute Unit Pair betrachtet und da nehmen der Ray Accelerator und der AI Matrix Accelerator nicht so viel Platz ein, meiner Meinung nach.

Ja, es sind nur Schematiken und keine 1:1 Darstellungen, aber meiner Meinung nach kann man trotzdem grob die Größe ableiten.

Wenn du die Gesamtüberblick bei beiden anguckst, siehst du übrigens, dass der meiste Platz auf den GPUs für Cache drauf geht und das ist tatsächlich so. Bei der Cache-Größe gibt es leider keine so guten Fortschritte wie anderswo.
 
  • Gefällt mir
Reaktionen: Bengart
@MalWiederIch

Hey, sorry für die verspätete Antwort!
Ich nur fürs Gaming!
Videoschnitt und so weiter mache ich nicht, hätte es aber eventuell noch vor.
Nutze sie maximal UV bei 0.875v & bis 2500Mhz. Den 5800X3D ebenfalls bei minus 30.
Das System verbraucht bei lastigen Games nie mehr als 350-400 Watt. Netzteil ist 850er Titanium also auch da habe ich auf möglichst wenig verlustleistung geachtet bei 50% Auslastung.
Spiele jedoch auf einem 65 Zoll LG OLED und der ist auch nicht gerade der sparsamste aber ist jetzt auch nicht die Welt.
Das in allem bin ich mit dem Stromverbrauch sehr zufrieden und zahle im Monat keine 50€ für Strom.
Ich koche zwar öfter und benutze den Herd hin und wieder mal. Benutze aber auch eine Heißluft Friteuse, einen Tefal Kontaktgrill, Senseo Kaffeepad Maschine, der Kühlschrank ist relativ neu.
Ansonsten mache ich selbst den Router vom Strom wenn ich aus dem Haus gehe. Ich der Kühlschrank und der OLED TV bleibt im Stecker.

Effizienz ist mir sehr wichtig, weil ich möchte auf gar keinen Fall zusätzliches Geld für unnötige nicht gebrauchte Energieverschleudern.

Ich bin aber kein Öko, Freak oder sowas. Das ist mir völlig egal und ist sowieso komplett weit hergeholt. Man sollte auf Effizienz und die Umwelt achten, aber viel mehr. Sollte man heutzutage auf seinen Geldbeutel lachten.😁

Ich denke, ich wäre aber auch einer der einen Lamborghini sehr sparsam fährt obwohl er Millionär ist😆
 
usernamehere schrieb:
Genau das ist der Punkt, im Moment ist es ja leider nicht wirklich vorhanden und nach dem Fiasko in CS2 wäre ich auch erstmal skeptisch. Prinzipiell wäre mir eine treiberbasierte Lösung aber deutlich lieber als eine manuelle Implementation auf der Seite der Spieleentwickler.
Ich hoffe sehr, dass AMD hier nachlegt, da sie im niedrigen Preissegment die viel attraktiveren Grafikkarten für solche Spiele haben und sich somit auch wieder etwas Marktanteil sichern könnten.
Ich warte auf diesea Feature persönlich auch am meisten.
Frank Azor hatte vor einem Monaten auf Nachfrage bei X geantwortet das da "soon" was kommt.

Eine Game Implementierung wäre wahrscheinlich nochmal besser aber die Verbreitung würde sehr lange dauern.

Deshalb vermute ich das sie bei der treiberbasierten Lösung bleiben aber wahrscheinlich mit den Anticheat Herstellern und den Game Devs zusammenarbeiten das es nicht als Cheat erkannt wird.

Riva Tuner Statistic Server nutzt ja auch bestimmte Mechanismen um sich zu "verbergen" eventuell sowas in der Richtung.

Ist aber reine Spekulation von Mir.
 
  • Gefällt mir
Reaktionen: usernamehere und Enyo79
Tornavida schrieb:
Dann soll d:heul:och mal AMD eine echte Alternative zu einer 4090 zur Hälfte des Preises raushauen. Glaube da wären nicht nur AMD Fanboys darüber glücklich. Oder wäre es nicht realistischer, dass man dann den Preis eher einer 4090 anpasst so wie aktuell 7900xtx vs 4080S?
Bitte,
erst nachdenken, auf den Kalender schauen und dann über Preise fachsimplen.

Zuerst war die XTX unter 1k€ als die 4080 noch bei 1,3k€ lag und sich schlecht verkaufte.
Das die Not bei NV sooo groß war, gleich die 4080s auf 1,1k€ zu senken, spricht ja wohl Bände.

btw.
Das ne 7900XTX etwas teuerer sein darf als die 4070TiS versteht sich von selbst.
Und die 7900XT stand immer gut ggü. der 4070Ti da.

Speku:
Es gäbe zuwenig Käufer füe ne 2k€-AMD-Graka, ... also was soll das eeeeeewige Vgl. mit ner 4090!?
= nach m.E. vollkommen sinnloses "dicke Hose - Gehabe" von bessersituierten Wichtigtuern
 

Anhänge

  • Verkauf-Tendenz KW12.jpg
    Verkauf-Tendenz KW12.jpg
    54 KB · Aufrufe: 77
Nooblander schrieb:
Eine Game Implementierung wäre wahrscheinlich nochmal besser aber die Verbreitung würde sehr lange dauern.
Und es kommt auch noch auf die Qualität der Implementierung an. OW2 hat bspw. FSR 2.2 und DLSS SR an Board, FSR 2.2 funktioniert zwar optisch, reduziert aber in jedem Szenario die FPS gegenüber der nativen Auflösung (lol) seit der Implementierung vor vielen Jahren. Die DLSS Implementierung funktioniert seit Tag 1 tadellos und wie sie soll, was ich bis heute sehr komisch finde.

Da bringt die beste Software nichts, wenn die Entwickler die Implementierung nicht hinbekommen oder sie nicht vernünftig umsetzen möchten. Deshalb wäre mir die Implementierung von Anti-Lag+ über den Treiber viel lieber, je weniger die Entwickler involviert sein müssen, desto besser ist es.

Das mit den Anti-Cheat-Systemen ist natürlich wieder so eine Sache, eigentlich sollte sowas ja möglich sein. Aber wie wir ja leider in CS2 gesehen haben, ist das wohl nicht so selbstverständlich, wie man sich das als Endverbraucher vorstellt:freak:
 
Brrr schrieb:
Wenn mehr Leute AMD kaufen würde, hätte AMD vielleicht auch mehr Budget für R&D.
Oder du kaufst Nvidia und AMD trifft die nötigen Investment Entscheidungen um durch Druck zum Handeln gedrängt werden. Siehe Zen.

AMD muss durch Produkte überzeugen, aus Mitleid einem Konzern gegenüber kaufen, ist schon ein wenig unwürdig mMn.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, gartenriese, Brrr und eine weitere Person
Brrr schrieb:
Wenn du mit deutlich, 10% meinst, dann ja, ansonsten nicht. Aber sie war vorallem deutlcih effizienter. Wobei die Vegas mit Undervolting gar nicht so schlecht waren.
War das echt so wenig. Dachte es wäre mehr gewesen. Bin aber auch von einer Vega56 auf die 5700xt umgestiegen und das waren etwa 30-40% mehr Leistung.
 
Quidproquo77 schrieb:
Die werden schon richtig erkannt, nur haben sie einfach nicht die nötigen Stückzahlen um über 0,15% zu kommen
Kann ich so nicht bestätigen aus persönlicher Erfahrung mit dem Steam Survey.
Wenn aber 0,15 als Schwellenwert gilt und darunter einfach nicht gelistet wird bzw. in anderen Kategorien zusammengefasst wird, weiß das kaum Jemand und ich finde es verfälscht das Ganze auch zum Teil. Aber sei es drum.
Ist ja auch nicht unbedingt das Thread Thema.

"RX 7000-series GPUs haven't done as well. But again, we have to think there are at least a decent number of RX 7900 XT owners these days, not to mention the RX 7800 XT, RX 7700 XT, and RX 7600. Unfortunately, Valve's sampling and tabulation methods remain, as always, obscure."

https://www.tomshardware.com/video-...40-series-amd-rx-7000-series-still-mostly-mia
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben