Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro
finds ja immer wieder witzig wie bei mängeln der AMD Karten die Dinge schön geredet werden, hier der Stromverbrauch. "mach UV, Powertarget einstellen, FPS CAP"
für 900€ will ich das nicht. Da stell ich gar nix ein, das Ding hat out of the box zufriedenstellend zu laufen.
Hatte schonmal ne 300 Watt (AMD) Karte, die r9 390. Es war zum Kotzen. Bude heizt sich auf, und wenn sie gefordert wird gibts immer wieder hitzebedingte abstürze. Dann 350 Watt für die 7900 XTX? ne lass mal. echt nicht. Bei Intel wird (zu Recht) die Brechstange kritisiert, bei AMD wird sie verteidigt, man kann ja UV. hach. Wenn sich die Leute ihrer Doppelmoral wenigstens bewusst wären. Aber was erwarte ich
Der Gegenspieler von NVIDIA kommt mir mit 285 Watt aber auch nciht in den PC. Bin mit meiner 4070 vollends glücklich, und ja, ein Kaufgrund war die konkurrenzlose Leistung im 200Watt Bereich.
Dann noch das Problem der fehlenden interessanten AAA games, was auch meinen letzten Rest an Interesse für eine Grafikkarte dieser Preisklasse verschwinden lässt
War kurz davor, die Karte zu kaufen. Habe mich dann für eine 4070Ti Super entschieden. Komme von der 5700XT welche nach 5 Jahren jetzt doch ausgetauscht werden musste.
Unter anderem hat mich das wohl heftige Spulenfiepen abgeschreckt. Ein Hin und Her Schicken von so teuren Produkten kommt für mich nicht infrage, probieren und wieder verpacken ist für mich Stress pur. Des Weiteren war es die pure Neugier auf die Features von Nvidia, wie läuft DLSS (FG)? Wie sieht Raytracing aus?
Über 1000 € wollte ich auf keinen Fall ausgeben.
Keine Ahnung, ob das an der doch schon recht alten 5700XT liegt, aber bezüglich Bildqualität zwischen DLSS vs. FSR liegen Welten. Diablo 4 z. B. sieht wie ein komplett anderes Spiel aus.
Für MICH die richtige Entscheidung, auch wenn mir bewusst ist, dass es in Bezug auf Preisleistung nicht die vernünftigste Entscheidung war.
@bdb von einer 5 Jahre alten Karte auf eine neue irgendetwas schließen zu wollen ist nicht zielführend.
Bei jeder Neuentwicklung ist es anders.
Bei der 7900xtx hättest du nativ UHD spielen können wo kein Upscaler drankommt.
Zum Preid:
Mir idt keine Grafikkarte der Welt 900€ wert, wenn es um Gaming geht. Meine absolute Grenze ist bei so 500-600. Aber da muss es im Vergleich auch noch ein gutes PL sein.
Aktuell stehen die RX6800 für ca 440€ oder 7800XT für 520€ am Besten da alles in Allem.
Nvidia hat in dieser Range keine stichhaltigen Angebote. 4060 zu langsam, 4070 Ti oder Super, alles zu teuer und/oder zu wenig RAM
Rasterizer-Performance ist natürlich nicht weniger wichtig aber wenn ich die Wahl habe eine gute RT Karte zu kaufen die zudem noch DLSS mit sich bringt (was in jedem Fall besser wie FSR ist), fällt meine Wahl ganz eindeutig auf Nvidia. Man sieht ja das in so ziemlich jedem neuen AAA Spiel auf Upscaler gesetzt wird und RT immer mehr in den Vordergrund rückt. Das ist auch gut so. Nvidia hat schon immer auf Fortschritt gesetzt und andere Hersteller wie AMD ziehen dann später nach.
Raster ist immer noch die Basis für 99% aller Spiele.
Rasterleistung ist das Maß der Dinge für 100% aller VR Titel.
Bis jetzt war es so, das mit jeder neuen NV Gen, NV 1-2 Vorzeigetitel gesponsert haben, welche das max mögliche mit der neuen Gen gezeigt haben (mit der NV Vorgänger Gen aber nur leidlich und die aktuellste AMD Gen war dannauf diesem Level). Ergo hat man für 1-2 Vorzeigetitel eine next Gen von NV benötigt. Soll jeder selber beurteilen, wie wichtig es ihm ist, diese wenigen Titel in max Settings zu fahren.
Ich selber spiele nach wie vor mit einer 6900xt.. Weil mir die N31 zu wenig mehr Wumms im Vergleich zu N21 liefert, um die Ausgabe zu rechtfertigen. Einzig lohnendes Upgrade wäre in meinen Augen eine 4090..aber da gehe ich beim Preis nicht mit. Also abwarten was die nextgen bringt.. Und da ich pragmatisch ( und nicht ideologisch verseucht) bin, nehme ich das, was meinen Bedürfnissen am Ehesten entspricht.
Ausnahmslos alle GPU aus dem Mindstar (selbst eine 4090 mit 1.799€) sind auch am 27.01. um 09.30 noch voll verfügbar. Das lässt nur einen Schluss zu: der Markt ist zu diesen Preisen satt.
Kannst du in den Preis/Leistungsvergleich auch die RTX4090 rein machen? Die RTX4090 gehört mit ihren ebenfalls 24 GB RAM einfach mit in den Vergleich bei der 4K Auflösung...
Weil es die gar nicht zu kaufen gibt? Ok, schon klar, Du hast einen Zahlendreher drin und meinst die 7900XT
Lies die Frage noch mal nach, die da lautet "Welche Grafikkarte würdest Du für 900€ kaufen?" Dann weißt Du auch, warum die 7900XT nicht drin ist.
Und für was Leute heutzutage schon den Begriff "Hetzerei" nutzen, ist bemerkenswert.
Das ist Quatsch, dass AMD immer nur nachzieht...aber sowas von.
Siehe Mantle, siehe HBM, siehe Chiplets bei CPUs/GPUs, oder generell die CPU Sparte (hier ist Intel eher aktuell fleißig am kopieren), siehe DDR5 only bei MB, alleine schon, dass AMD Open Source vorantreibt und nicht nur proprietären Mist macht wovon keiner was hat, siehe Freesync, danach wurde G-Sync plötzlich erst freesync-fähig,
Wo ist NVidias treiberseitige FrameGen für ALLE DX11/12 Games?
etc etc....
Wo bitte ist hier AMD der Nachzügler??
Nur weil man RT nur eine Gen später gebracht hat?
Solche Aussagen wieder...
Die hatte ich sogar zuerst mit eingeplant, aber deren P/L-Verhältnis ist (im Vergleich) so unfassbar schlecht, dass a) alle anderen Grafikkarten dann deutlich näher zusammenrücken, was die Lesbarkeit verschlechtert und b) sie damit ohnehin keine sinnvolle Option ist, trotz aktuell 1.799 Euro im MindStar. ^^
Der Marktpreis der 7900XTX orientiert sich nun ziemlich genau am allgemeinen Grafikkarten-Ranking in der Raytracing-Performance.
Ergo - Rasterizer-Performance ist allem Anschein nach ein zweitrangiges Kriterium für die Käufermasse.
Was zählt sind die Strahlen.
Ist mir auch aufgefallen. Denke aber eher der Grund liegt darin, das mit maximaler Qualität getestet wird. RT hat weiterhin eher eine limitierte Relevanz als Feature für die breite Masse. Was wiederum dazu führt, das man sicher sein kann, bei AMD für den gleichen Preis gleiche RT Leistung zu bekommen und darüber hinaus wesentlich mehr Rasterizingleistung. Schon ein gute Deal, aber dann muss man noch je nach Vorliebe, Stromverbrauch und gefühlte Unterschiede in FSR und DLSS einberechnen. Da ich kein Alan Wake 2 habe, ist bei mir AMD gesetzt.
Die 3090(TI) ist über 3 Jahre alt und last Gen. Die 7900 XTX ist das aktuelle Flagschiff von AMD. Es spricht also nicht für AMD, wenn man nicht mal die last Gen. Karten der Konkurrenz übertreffen kann.
Du hast vollkommen recht das die 3090(ti) nicht der Maßstab sein kann, besonders auch weil ja auch die Nachfolger von Nvidia die Karte deklassieren.
Aber natürlich ist die 7900xtx durchaus für viele die bessere alternative zur 4080 gewesen und jetzt halt sogar zur 4070(ti), einfach weil Preis/Leistung bei dem "Flagship" gut genug ist um sich mit der günstigeren Oberklasse von Nvidia zu messen.
Umkehrt müssen sich aber natürlich RDNA 3 mit RDNA 2 vergleichen lassen, genauso wie Ada, weil RDNA2 Preislich ja durchaus attraktiv geblieben ist und sich dort alte Flaggschiffe für Mid-Range Preise erwerben lassen. Da sieht es dann imho für beide Hersteller nicht so gut in der neuen Mittelklasse aus und erst in der Oberklasse können sie sich wirklich absetzen.
Die das "Super Lineup" ist natürlich keine Reaktion auf Konkurrenzprodukte. Achtung Ironie
Ergänzung ()
CiX schrieb:
Finds ja immer wieder witzig wie bei mängeln der AMD Karten die Dinge schön geredet werden, hier der Stromverbrauch. "mach UV, Powertarget einstellen, FPS CAP"
Finde es eher sehr schade, das aus einfachen Tipps zum effizienteren Betrieb einer Karte, direkt gleich eine XY VS XY Diskussion gemacht wird.
Wenn du mit der 4070 zufrieden bist und die Karten deinen Anforderungen entspricht, top.
Ich bin Out of box mit meiner 7800XT zufrieden für meine Anforderungen.
Ich habe Sie noch etwas optimiert, ja. Aber weil ich Spaß am der Technik habe, nicht weil es nötig gewesen wäre.
Kurze Frage, spielst du mit Gsync und dann ohne FpsCap?
ür 900€ will ich das nicht. Da stell ich gar nix ein, das Ding hat out of the box zufriedenstellend zu laufen.
Hatte schonmal ne 300 Watt (AMD) Karte, die r9 390. Es war zum Kotzen. Bude heizt sich auf, und wenn sie gefordert wird gibts immer wieder hitzebedingte abstürze.
Hatte den Vorgänger, der im Grunde die gleiche Karte war, r9 390, Freund ebenfalls, ich die Nitro mit gutem Kühlkonzept und er ein Referenzdesign. Das Referenz Design war Schrott, laut und heißt. Der Stock Kühler flog direkt runter und ein Aftermarket Kühler kam drauf, Problem gelöst, Karte war fast genauso Leise und Kühl wie meine.
Blieb dann nur noch die Abwärme, da kann man nix machen, außer Fenster auf oder Klimaanlage ein paar Watt mehr verbrauchen lassen oder halt wirklich eine Sparsamere Karte nehmen, wenn das ein Problem ist.
Abstürze sollte es aber nicht geben, sonst taugt die Karte nicht, gab es bei keiner der 290 von denen ich gesprochen hatte, zum einen wären die ohnehin langsamer geworden, hätte sich aber nicht abgeschalten müssen, wenn es zu heiß wurde, zum anderen sollten Karten wo das Kühlkonzept so schlecht ist das sie abstürzen direk zurück an den Hersteller gehen.
Wobei ich zugeben muss, von Asus Karten, die auf AMD GPUs dann einfach den Nvidia Kühler drauf geklatscht haben und dann die Karten ziemlich kaput waren, davon hatte ich auch schon gehört, aber Serien wo ein Partner sein Design versemmelt hat gibt es immer wieder, ganz egal ob mit Nvidia oder AMD GPU.
Die Leute die 900€ und mehr ausgeben, erwarten halt mehr Leistung, auch wenn es natürlich trotzdem Schade ist, das es keine 4090 gibt die direkt mit einem BIOS Profil kommt, das die Karte auf 300W Limitiert, die meisten kaufen sowas halt für maximale Leistung, deswegen ist das ganze UV Zeug noch ein wenig Nische und meist nicht ab Werk dabei. Wobei ein Silent-Bios in dem die Karten nicht ganz so viel Strom ziehen können immer häufiger tatsächlich ab Werk dabei ist.
Ergänzung ()
Mr. Vega schrieb:
Die das "Super Lineup" ist natürlich keine Reaktion auf Konkurrenzprodukte. Achtung Ironie
Die Chips sind dafür auch kleiner geworden und zumindest viele sehen ja auch einen gewissen Preisaufschlag im Zuge der Inflation ein. Sind wahrscheinlich jene, die Aufgrund der Inflation und den Lohnanpassungen mehr Kaufkraft als vor 2017 haben.
Findest du, selbst im Wissen um 50% Aufschlag auf die Wafer kosten, das eine 4060ti für 439€ und mit nur 8GB eine guter Preis und eine gute Karte war?
Mit 16GB für 439€ damals hätte ich sie möglicherweise sogar direkt gekauft! ;-)
Die Beispiele bei der Einstiegsklasse und Unteren Mittelklasse sind zahlreich und die Tatsache das sich die 3070 im Vergleich noch so gut schlägt und auch RDNA2 noch so attraktiv ist, ist halt Teil des Problems. Die 4090 für 1500€ ist da wirklich weniger das Problem gewesen. Da war mit sicherheit auch viel Jammern auf hohem Niveau dabei.
Ergänzung ()
Vitche schrieb:
Die hatte ich sogar zuerst mit eingeplant, aber deren P/L-Verhältnis ist (im Vergleich
hihi, ich glaube ich hatte mich noch vor kurzem Beschwert das man die 4090 nicht ausblenden kann, genau eben wegen der Lesbarkeit.
Wobei da echt ein Toggle zum an und ausmachen einzelner Karten wahrscheinlich am nettesten ist, aber das macht natürlich dann auch wieder noch mehr arbeit.
Spielt für dich und mich keine Rolle, ob da HBM oder GDDR6X drin werkelt und aus wie vielen Chiplets die GPU besteht.
Was eigene Features angeht, ists bei AMD sehr mau und das seit sehr langer Zeit.
danyundsahne schrieb:
Wo bitte ist hier AMD der Nachzügler??
Nur weil man RT nur eine Gen später gebracht hat?
Darum geht's nicht, sondern um die Aussage AMD zieht nur nach. Was einfach nicht stimmt.
Mantle hat den Weg zu Vulkan und Dx12 maßgeblich geebnet...
MrHeisenberg schrieb:
Spielt für dich und mich keine Rolle, ob da HBM oder GDDR6X drin werkelt und aus wie vielen Chiplets die GPU besteht.
Was eigene Features angeht, ists bei AMD sehr mau und das seit sehr langer Zeit.
Weiß ich nicht. Tut aber auch nichts zur Sache. Mantle war gut, aber es ist trotzdem über ein Jahrzehnt her.
Ich lebe im hier und jetzt, was vor 10 Jahren aktuell war, interessiert mich heute nicht mehr.
danyundsahne schrieb:
Siehe oben, mag sein dass NV teils bessere Features hat. Bestreite ich auch nicht.
Mir ging es nicht um besser, sondern darum, dass AMD nichts mehr selbst "erfindet", sondern nur noch nachzieht, um zur Konkurrenz aufzuschließen. Chiplets und HBM sind hier völlig irrelevant für uns. Es ist dir und mir doch egal, wie der Chip aufgebaut ist, uns interessiert die Leistung, der Verbrauch und Preis.
Btw. sitzen auf den RDNA3 Karten auch keine HBM-Chips. Ist also eher kein Argument.