News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

Technisch sehr spannend, was AMD da vor hat.
Wichtiger wäre jedoch, dass sich der Markt wieder stabilisiert und diese Wucherpreise aufhören.
 
Euch allen einmal mehr ein riesiges Dankeschön. Das ist erst die zweite Ausgabe dieser Serie und wir freuen uns sehr, wie ihr das Format annehmt und mit euren Kommentaren mit Leben füllt.

Liebe Grüße Sven
 
  • Gefällt mir
Reaktionen: Colindo, Nordbadener, PietVanOwl und 2 andere
DLSS und FSR nehmen fahrt auf. Wer das Rennen macht ist mir egal. Ich würde mich freuen, wenn solche Features auch mal wieder dafür sorgen, dass nicht immer auf das letzte FPS geschaut wird und man die TDP Schraube hochdreht, sondern heutige Leistung bald mit <200W geliefert wird. Ich habe schon das Gefühl, dass UV das neue OC geworden ist. Bei Autos haben die sparsamen Motoren leider nur dazu geführt, dass die Autos inkl. Motoren immer größer wurden. Der SUV muss nunmal mit 200PS+ und Allrad angeschoben werden.

Vielleicht sollten ab kommenden Jahr Effizienzkronen von der Presse vergeben werden statt Performancekronen. Dann hören vielleicht irgendwann auch so Dinge auf wie beim Alder Lake. Eine CPU die im Sweetspot sehr effizient ist, aber man macht sich das zunichte, nur um auch bei der letzten Anwendung oben zu stehen. IMHO unnötig.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Da sich die Preise kaum normalisieren werden (warum sollte man eine traumhafte Marge verschenken) für mich eine rein akademische Diskussion - Ich gehe nicht davon aus, dass ich in Zukunft nochmal zocken werde wie in meiner Jugend.
 
  • Gefällt mir
Reaktionen: bl!nk und nco2k
Nvidia muss schon die 450 Watt Brechstange rausholen um der 6900XT 2% abzujagen und kostet min. das Doppelte. Abgesehen von Raytracing spricht weder Effizienz noch der Preis für Nvidia.

Daher gehe ich mal davon aus, dass AMD mit der nächsten Generation den großen Wurf schaffen wird.
 
  • Gefällt mir
Reaktionen: Kuestennebel79 und agent-orange
Ich tippe auf einen Vorsprung für AMD, wobei mir die höchsten GPUs aufgrund des Verbrauchs vermutlich egal sein werden und ob sich die Verfügbarkeit bessern wird ist auch sehr ungewiss.

Irgendwie schade, dass man sich nicht mehr so richtig auf HW-Launches freuen kann, Scalper und Miner haben echt einiges versaut.
 
Beg1 schrieb:
Scalper und Miner haben echt einiges versaut.

Machst du dir es nicht ein bisschen zu einfach? Wenn ich mich für eine Gesellschaftsform entscheide, in der das Streben nach Gewinn oberste Priorität besitzt, muss ich halt mal auch ab und an ein Produkt in Kauf nehmen, dass nicht verramscht wird. Auf der anderen Seite wirst du dich doch wohl kaum über Dumpingpreise beklagen. Zudem waren zahlreiche Karten zum Erscheinungstermin zur UVP verfügbar. Ich kann doch nicht ernsthaft erwarten, dass alles immer und überall zum kleinen Preis verfügbar ist.

So unschön die derzeitige Situation auch sein mag, du beklagst die Preisgestaltung eines Produktes, dass nichtsdestotrotz immer noch erhältlich ist und zudem auch noch in die Kategorie Luxus fällt.

Der Thread ist natürlich auch spassig, angesichts der derzeitigen Situation. :D

mit frdl. Gruß
 
Zuletzt bearbeitet:
Denke das rdna 3 flotter sein wird.
Aber persönlich ist es mir egal wer vorne ist, nicht egal ist mir die Verfügbarkeit.
Ich hoffe das die next Gen Karten ordentlich lieferbar sind, und die Preise wieder halbwegs normal werden.
 
Was nützt einem ne super Grafikkarte, wenn die Treiber kacke sind und zudem viele Spiele Nvidia optimiert sind ? 😢
 
Ist mir total egal was am Ende in meinem Rechner werkelt. Hauptsache es gibt eine Karte für max 500-600€ und unter 200W Verbrauch, die meinen Leistungsansprüchen Genüge tut. Gibt es diese nicht (z.B. durch geringe Verfügbarkeiten), so verbleibt meine GTX 1080 halt noch länger im Rechner...
 
  • Gefällt mir
Reaktionen: Forum-Fraggle
Am Ende werden sie gleichaufliegen, weil einfach NVidia irgendeinen Benchmarkprotz in Miniauflage liefert, wenn es so nicht reicht, um dann mit DLSS und ihren Streamer-Tools etc. den "Mehrwert" zu liefern.

AMD hat niemanden, der ihre Tools wirksam "promoted", geschweige denn leicht verständlich erklärt.
Sie werden wohl die Effizienz-Krone gewinne, aber noch sind die Strompreise nicht so schmerzhaft, das jemand aus Energiepreisgründen auf Effizienz setzen würe, das machen nur Lärmlosfreunde und Umweltidealisten.

Und ich werde meine RX480 wohl noch weiter nutzen...obwohl ich inzwischen einen 4k Monitor habe.
Den Samsung U28E590D, gibts inzwischen sehr günstig und hat sogar Freesync, gut um mal reinzugucken, ob man 4k mag und ich bin hingerissen, wie geil und farbenfroh alles aussieht.
Die 60Hz Bildwiederholrate sind passgenau für mein Anwenungsprofil, ich limitier die meisten Spiele mit AMD Chill ohnehin bei 60 FPS.
Die vielen älteren Games, z.B. Skyrim, Outcast SC, GTA IV+V, Civ VI, die ich spiele, sehn in 4k 10bpc schon deutlich besser aus und laufen auch ausreichend schnell.

Daher und dennoch - keine GPU jenseits von 350 Euro!

Aber AMD, Frage:
Kann man mittels AMD FSR eine RX480 8GB Nitro+ OC dazu bringen, das sie Cyberpunk 2077 in 4k, oder wenigsten 2k mit flüssigen >30FPS darstellt?
(Ich habs in 1920+1200 bei 35 bis 50 FPS flüssig gespielt, als es noch nicht verpatcht war, also v1.05/1.06 und hatte tatsächlich 1 Questffehler, 1 Texturfehler, ~10 T-Poser in ~300h Spielzeit)
 
Zuletzt bearbeitet:
Max007 schrieb:
Daher gehe ich mal davon aus, dass AMD mit der nächsten Generation den großen Wurf schaffen wird.
Vor allem wenn man bei Nvidia und Lovelace liest, das die Top Modelle 500W und mehr verbraten sollen, werden sich die Netzteilhersteller entsprechend drüber freuen.
 
Möhrenmensch schrieb:
Ist mir egal. Ich will Effizienz und das Spiel scheint keiner der drei mitzuspielen. <=250W und die Leistung einer 6900/3090, da würde ich schwach.
Zumindest nicht mit out of the box settings. Meine 6800XT liegt mit unter 250W Verbrauch im Schnitt genau da wo du sie gern hättest. Dabei habe ich den Chip um 200MHz als auch Ram um 150MHz übertaktet und liegt damit von der Leistung auf dem Niveau einer 6900XT/3080Ti.

Also mit uv und oc geht dann doch schon einiges.
 
  • Gefällt mir
Reaktionen: Balikon
halbtuer2 schrieb:
Und nur am Rande, ich bin kein Fanboy, aber es gibt da eine Marke mit einem angebissenem Obst, daß
meide ich wie der Teufel das Weihwasser, nicht als Fanboy, sondern aus Prinzip, egal wie gut diese Geräte auch sind.

Warum? Die Lederjacke führt den Laden nicht anders. Nvidia ist bei Grafikkarten was Apple beim Smartphone ist. Ich finde das ziemlich inkonsequent.
 
knoxxi schrieb:
"Keiner der genannten. Für den Mist bin ich zu alt und aus dem FPS rennen ausgestiegen."
Dafür gibt es den Button "Enthalten".
 
DKK007 schrieb:
Solange es keine GPUs zu kaufen gibt, nützen die ganzen schönen Features auch nichts.

Da hat dann AMD die Nase vorn. Kleinere Chips bedeutet auch eine höhere Ausbeute und auch mehr Chips auf einem Wafer. Beim Ryzen war der Overhead zudem bei nur 10% pro Chip bei niedrigeren Kosten. AMD sprach davon, dass ein monolytisches Design 125% gekostet hätte. Zudem werden die gleichen Recheneinheiten auch für kleinere GKs verwendet, was auch mehr flexibilität und ersparnisse in der Entwicklung bedeutet. Beim Ryzen hat man es ja gesehen wie gut es funktionieren kann. Auch wenn AMD die Krone nicht bekommt, werden sie davon profitieren sofern es kein totaler Reinfall wird, da die Produktionskosten erheblich günstiger gegenüber NVidia werden. Und hoffentlich auch wir Kunden.
 
Topflappen schrieb:
Das hätte wie früher erst einmal bei der kleinsten Serie getestet werden sollen, also rein auf Machbarkeit.
Die testen das auf Ihren Profikarten. Das lässt auf Selbstvertrauen schließen. Und Erfahrung haben sie ja auch schon von den CPUs her.
 
Mit dem MCM-Design geht AMD den richtigen Weg. Chips können nicht beliebig groß werden und je größer die rechteckigen Chips sind, desto mehr Verschnitt gibt es auf dem runden Wafer. Und wenn ein großer Chip einen Defekt hat, muss der ganze Chip weggeschmissen werden. Bei 4 kleineren Chips müsste dann nur einer weggeschmissen werden. Das spielt der Verfügbarkeit und den Preisen in die Arme, wobei ich erwarte, dass beides beim Endkunden nicht ankommen werden.

Meine Glaskugel sagt, dass AMD am Anfang Probleme mit der Software haben wird, diese aber im ersten Jahr behoben werden und sie sich dann von Nvidia absetzen werden. Die Krone wird aber keiner auf haben, weil beide Hersteller die Strombrechstange auspacken werden.
 
Zurück
Oben