- Registriert
- Juli 2021
- Beiträge
- 2.796
Je nach Spiel ist das durchaus möglich. XDtensai_zoo schrieb:Die Leute wollen 4k 120fps für unter 1000€ mit max 200w Verbrauch. Absurd.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Je nach Spiel ist das durchaus möglich. XDtensai_zoo schrieb:Die Leute wollen 4k 120fps für unter 1000€ mit max 200w Verbrauch. Absurd.
Und die verbraucht real gemessen 135W+tensai_zoo schrieb:eine Karte die 110w braucht ist dann halt nur eine 4060.
Hatte eine RX 6900 XT (direkt von AMD) vor meiner RTX 4090, da mir Marke grundsätzlich Latte ist, wenn die Leistung und die Funktion stimmen.TigerherzLXXXVI schrieb:Der Preisunterschied liegt bei ca. 200€, das wären ca. 20% Aufpreis für eine RTX 4080. Das macht die RX 7900 XTX zu einem sehr starken Gegner. Wenn da mal nicht das typische Kaufverhalten von den allermeisten PC-Gamern wäre...
Hier das Gleiche: Früher war die RX 7900 XT noch etwas teurer als die RTX 4070 Ti. Da sie sich mittlerweile preislich angenähert haben, ist die Radeon der etwas bessere Deal. Nicht allein wegen 20GB VRAM, auch die Rasterleistung ist etwas besser. Und Raytracing braucht auch längst nicht jeder Gamer, zumal die Geforce mit 12GB je nach Szenario bereits heute Probleme in dem einen oder anderen Spiel bekommt.
Da muss ich jetzt aber dazwischen grätschen: Nein, nein, nein, nein, nein, nein, nein, nein, nein nein und nochmals nein![wege]mini schrieb:Denn eine Skalierung mit einem Takt von rund 1.000 MHz über dem letztlichen Boost-Takt der im Handel erhältlichen Produkte ist nur mit einer entsprechend langen Grafik-Pipeline möglich – und eine lange Pipeline kostet Latenzen und damit schlussendlich Rechenleistung pro Takt.
Geh mal davon aus das in einem milliardenschweren Unternehmen wie AMD durchaus ein paar Menschen arbeiten die recht genau ausrechnen können welche Verkaufsstrategie am meisten Profit abwirft..Snoopy. schrieb:Sollte das wirklich so sein, ist AMD dämlicher als ich dachte. Die hätten schon sehr früh die 6000er heruntersetzen müssen, um Nvidia unter Druck zu setzen und hätten dann schon längst die neuen Karten auf dem Markt gehabt. Ich verstehe nicht, was bei AMD echt daneben läuft. Manchmal glaube ich, die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
Richtig so seh ich das auch die wollen ihre Teile nur noch so Teuer wie möglich verkaufen ,weil sie verstanden haben das sie eh nicht mehr an Nvidia rankommen..Snoopy. schrieb:die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
RT kann man bei der karte sowieso vergessen und wenn man das restlichen zusatzzeugs auch nicht benötigt, sondern wirklich nur reine spielleistung, dann würde ich eher die 6700XT kaufen[wege]mini schrieb:Die 3060Ti für 299 Euro ist aktuell echt nicht schlecht.
Taurus104 schrieb:Das hat mit Sweetspot wenig zutun. RDNA 3 bzw. Navi 33 nutzt halt auch Teillastbetrieb immer ihr max. mögliches Powerbudget um entsprechende Performance zu erreichen, im Teillast Bereich braucht Ada weniger Strom, das macht die Karten effizient. Aber auch hier hatte AMD bereits nochmal nachgebessert mit dem 22.12.2
AMD muss halt mit dem arbeiten was die neuste Architektur hergibt und versuchen damit konkurrenzfähig zu sein.
https://www.computerbase.de/2022-12...ition-22-12-2-soll-den-stromverbrauch-senken/
Das Thema mit dem hohen Idle Verbrauch wurde doch schon mehrfach besprochen. Es ist kein AMD only Problem. Gibt es auch bei Intels Arc und auch bei Nvidia (4060 mit 52W Powerdraw im Idle lt. Igorlab) Das Ganze ist stark abhängig von der individuellen Monitorkonfiguration. Der 23.7.1 hat hier bekanntermaßen nachgearbeitet für Viele und auch gibt es einen inoffiziellen Workaround mit CRU Tool oder via Treiber mit Custom Resolution via Adrenalin Software.
PCGH schreibt hier auch nicht umsonst: "Nun handelt es sich keineswegs um ein repräsentatives Ergebnis - Display-Geschichten wie diese hängen erfahrungsgemäß sehr mit der Konfiguration zusammen."
Ähnlich wie bei Nvidia, ist auch bei AMD das Hauptaugenmerk schon länger nicht mehr der Consumer Desktop Markt auf den Sie sich konzentrieren und mit dem Sie ihre großen Gewinne erzielen.
10 Monate. Zur alten Generation 2 Jahre und 7 Monate zur RX6800. Im übrigen genauso lange wie zwischen 3070 und 4070.CiX schrieb:Woooooow
Ende August kommt die midrange. Wie lange gibts RDNA 3 nun schon?
AMD 🤦♂️
Wahrscheinlich auch AMD. Ich gehe davon aus, dass die Vermutung stimmt, dass auf der Zielgeraden irgendwas gehörig schief lief. Ich wüsste halt gerne was genau. Ob wir das noch erfahren werden ...?Philste schrieb:Alle sind sie von deutlich höherem Takt und damit höherer Performance ausgegangen.
Eine 7900XT und eine 4070 sind halt auch völlig unterschiedliche Leistungsklassen. Zudem habe ich in meinem Post geschrieben wiso Ada effizienter ist was ich nicht abstreite. Aber AMD bei RX 7000 auch schon nachgebessert hat seit Release. 22.12.2 Teillastbetreib, 23.7.1 Idle Powerdraw. Auch zu Idle Powerdraw stand was im zitierten Text. Den zitierten Text wirklich gelesen? Es ist kein AMD only Problem sondern ein Problem der individuellen Monitorkonfiguration. Schließe an deine 4070 mal einen der neuen Oled 4k 144hz und eine 1080p TN mit 144hz. Du wirst dich wundern was deine 4070 dann plötzlich im Idle saufen kann. 40W+ kein Problem. Musste ich selbst bei einem Bekannten mit 4090 dieser Tage fixen.themk schrieb:Ich verwende die 4070 wie gesagt als Referenz. Die hat in keinem einzigen Testszenario Effizienzprobleme. Sonst hätte ich gerne eine 7900XT mit 20GB gehabt. Aber mit der hat man einfach in jedem Szenario etwas bis extrem höheren Stromverbrauch. Auch bspw. bei Monitoren mit 144Hz. Da kann man leider sagen was man will, es nützt halt einfach nichts. Hätte selbst gerne wieder mal eine AMD drinnen.
Eine 4060ti bietet zur 3060Ti 9%Nobbi56 schrieb:Wahnsinn, dieser technische Fortschritt in > 2 Jahren .
FG ist geil, wenn die Grafikkarte genug Frames gerendert bekommt, damit die Latenz niedrig ist, und gleichzeitig dass das Bild dann auf einem entsprechenden Monitor glatt gezogen wird.Taurus104 schrieb:Und FG wird zuviel Hype und Marketing gemacht.
Hä Nvidia ist auch nicht arg viel schneller :'DCiX schrieb:
Ich kann andere Meinungen tolerieren, akzeptieren muss ich Sie nicht! Weil meine Meinung ebenso valide ist. Also warum nicht einfach auch mal meine Meinung tolerieren?Grundgütiger schrieb:@Taurus104 , akzeptiere doch einfach den Rahmen anderer User.
Si ohne Speicher Typ ist auch herzlich wenig Info.
RTX 4070 mit 504gb/s
RX 6800XT mit 512gb/s
Radeon 7 mit 1024gb/s
Und schon hat man dem 256bit Si Monster die Zähne gezogen.
Und kann sich gleich die Frage stellen warum die high ein RDNA2 Chips nur ein 256bit Si haben?
FG (Frame Generation) und niedrige Latenz in einem Satz?DevPandi schrieb:FG ist geil, wenn die Grafikkarte genug Frames gerendert bekommt, damit die Latenz niedrig ist, und gleichzeitig dass das Bild dann auf einem entsprechenden Monitor glatt gezogen wird.