Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Rockstar85 schrieb:
Aber die 3070Ti hat 599 US-Dollar gekostet
Ich hab die letzte Generation nicht so verfolgt, aber hat man die denn jemals zu den Preisen bekommen?
 
Ich warte nochmal ab mit dem Kauf der XTX, aktuell reicht noch die 6900XT, aber da ich meistens VRchat spiele sind die 16GB "Great Pug mit ~80Usern und mehr ^^" immer mal wieder zu wenig, da würden mir die 24GB der XTX wie gerufen kommen, aber AMD muss nochmal dringend ran was generell VR angeht, es ist zwar gut aber beileibe noch nicht perfekt.
Auch find ich es generell ein wenig unlogisch von AMD, ihre CPUs werden dick für VR auf den ihrer Seite beworben, aber im bereich GPUs habe ich das gefühl das die das nicht wirklich interessiert.
Sieht man wohl auch an fehlendem Support seitens der Varjo Aero und der Arpara und inzwischen auch einigen Pimax Brillen.
 
hat jemand bei Mindfactory schon eine Versand Bestätigung bekommen ? bei mir steht beim Status nur Bezahlt, auf nachfrage wurde nur gesagt das die Ware für den Versand vorbereitet wird.
 
ComputerJunge schrieb:
Hast Du zufälligerweise Affinity Photo?
Japp. So heute mal auch anfangen mit dem Schreiben. XD
Ergänzung ()

n0ti schrieb:
hat jemand bei Mindfactory schon eine Versand Bestätigung bekommen ? bei mir steht beim Status nur Bezahlt, auf nachfrage wurde nur gesagt das die Ware für den Versand vorbereitet wird.
Meine kommt heute. ;)
 
  • Gefällt mir
Reaktionen: n0ti und ComputerJunge
rumpeLson schrieb:
Ja die kam bei mir am Dienstag etwa eine Stunde nach dem ich bestellt hatte.
Na klasse … bei mir nur Vertragsbestätigung …

Na ein Glück hab ich Service Gold mit bestellt
 
Na direkt Dienstag 15 Uhr sofort bezahlt
 
Rockstar85 schrieb:
Igehen wir vom Wahnwitz aus, dass du 365 Tage 5 Stunden 100W Lastunterschied hast.. Dann biste bei 183 Kw/h, bei 50 Cents sind das sicher 110€..
Nur wer Zockt 5Std am Tag und vor allem das 365 Tage?

in EINEM jahr. aber mancher möchte seine karte evtl. länger betreiben

d.h. die 100,- euro mehrkosten kommen so oder so zusammen, bei dem einem früher, bei em anderen später. deswegen ist sind große effizienz unterschiede, vor allem im idle oder bei niedrig-last scn schmerzhaft

im gaming an sich ist irgendwie latte, weil man da ja bei hochpreisiger peripherie ja auch die leistung will diese zu bedienen.

als fazit kann man es dann bestenfalls eigentümlich nennen beim kauf einer GPU sich über hohe preise zu gerieren, wenn dann für die vorgesehene peripherie (kopfhörer, monitore etc) entsprechende preise gezahlt werden (müssen)

oder beim einkauf 100,- zu sparen der dann im täglichen betrieb wieder aufgerieben wird.
 
therealcola schrieb:
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?

Die meisten Luxus Grafikkarten PC "Daddler" hier im Forum spielen wenn es hoch kommt vielleicht mal 2 Stunden in der Woche. Da darf die Kiste auch mal Strom saugen ist doch nich schlimm
Denk schon dass du mit dieser Sichtweise der einzige bist sozusagen, denn auch Nvidia Fanboys haben sich aufgeregt als die 600W in den leaks herumgeisterten. Und zum Glück wurde das nicht Realität. Irgendwann ist auch mal beim Verbrauch eine Toleranzgrenze erreicht, genauso wie bei den Preisen. Nur weil noch gewisse Preise oder Verbräuche zähneknirschend hingenommen werden heißt es nicht dass es immer weiter gehen kann.
Ada Lovelace ist im Vergleich zur 30er Generation krass effizient. Wenn meine 4090 unter Volllast steht verbraucht die meistens immernoch unter 400W (stock) und mit DLSS und maximaler Hz-Zahl des Monitors auch mal nur 240W (MW2 in 4k alles aufgerissen). Meine 'alte' 3090 hatte bei 70% weniger Performance teilweise um die 420W.
 
Melu76 schrieb:
Die 24GB VRAM z.b. sind nicht an gamer addressiert, kein spiel wird das jemals in absehbarer zeit "brauchen"
im gaming und im alltag ist das nur unnützer ballast
Bei vielen Spielen ist nvidia ja dabei. Vor allem bei denen, die grafisch anspruchsvoll sind. Da kann man ja dann auch optimieren. Denke daher auch nicht, das das jetzt so ein Problem sein sollte. Wobei ich eins aus derlei Vorhersagen gelernt habe. Es kommt meistens anders und mehr ist immer Besser beim Soeicher.
 
Ayo34 schrieb:
Trotzdem läuft es im Idle und wenig Last sehr effizient vor sich hin und das sehr sehr flüssig.

Ne eben nicht.... genau das ist ja der Grund, warum heutige Smartphones trotz größerem Akku auch nur 1 bis 2 Tage Akkulaufzeit haben.
Das war damals beim iPhone XR richtig cool. Ein Bildschirm mit geringer Auflösung (die aber trotzdem noch gut aussieht) und schwubs hatte man auch mit einem kleineren Akku plötzlich 2 bis 3 Tage Akkulaufzeit.

Was würde ich dafür geben so einen Bildschirm in den aktuellen Max Modellen zu haben...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: th3o
ComputerJunge schrieb:
:überrascht_smiley: Alles Benchmarkzahlen?
Nein, in dem Fall Datenanalyse auf der Arbeit. Ich muss die Jahresstatistik vorbereiten und muss jetzt sehr viele Daten auswerten, aufbereiten und dann meinem Chef und anschließend der Kommission vorstellen.
 
  • Gefällt mir
Reaktionen: Rockstar85 und ComputerJunge
Gehirnzelle schrieb:
Gamestar live, nimmt 6 spiele oder so, gewichtet sie mit average frames und durch cod ist sie schneller als die 4080, weibei in 4k bei 5 von 6 spielen (wobei N sowieso ein witz ist) die 4080 schneller ist. Die Karte ist solide, hätte mir mehr Wettbewerb gewünscht, hoffte tatsächlich rastering zwischen den nvidas zu liegen. Das thema Priorisierung und präferenzen ist mittlerweile so wichtig. Ich ein klassicher single player typ, der alles gerne maxium out spielt, wie cp2077, guardians, tomb raider, a plague tale, spiderman etc und ich für mich sind mittlerweile dlss und raytracing keine nebenschaukriegsplätze mehr, sonder ein gewichtiges kriterium neben der rohleistung. Schon mit der 3080 hat dlss 2.x eine 4k karte draus gemacht. Ein blick auf die kommenden spiele sprechen auch eine klare sprache. Finde auch alte sestaurierte spiele wie quake 2 rtx witzig (vodoo 3dfx kind halt). Somit finde ich persönlich die abwegung zwischen 1150 und strassenpreis 1300 für eine 4080 relatib einfach. Hoffe in der nächste gen mal wieder wechseln zu können. Meine lieblinge sind immer noch die radeon 5850 und 7970 (wie ein v8 sauger). Brauchen mehr wettbewerb. Die runde geht klar an nvidia, auser man hat feste multiplayer Raster games und braucht reine rohleistung.
Gehirnzelle, ich finde du hast da absolut recht. Wir sind halt 3dfx Kids, die die Anfänge mitbekommen haben. Ach das waren Zeiten

Ich finde auch, dass die Runde klar an Nvidia geht. Wenn bei Nvidia die Preise noch weiter sinken, also für die 4080, und der Unterschied zur XTX vielelicht bei nur noch 150 Euro liegt, dann denke ich, ist der Kauf einer 4080 die bessere Wahl.
 
therealcola schrieb:
Bin ich der einzige der denkt, wenn ich 1k für ne Grafikkarte ausgebe, sind mir die 600 Watt Stromverbrauch auch egal, solange Leistung abgeliefert wird?
Stimme definitiv nicht zu. Bei dem Preis wäre es mir egal, ob sie 350W oder 420W zieht, aber 600W ist ne andere Hausnummer.
Du musst bedenken, dass du bei 600W im Sommer eingehst. Das ist nicht mehr schön.
 
  • Gefällt mir
Reaktionen: Zer0Strat
Zurück
Oben