Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

incurable schrieb:
Was Du möchtest gehört in einen Spieletest, nicht in einen Grafikkartentest.
IMHO gehört es auch in einen Grafikkartentest. Zumindest bei den "kleineren" Modellen. Die werden aber i.d.R. auch konsequent mit Ultra-Presets getestet. Das einzige was man sich spart, sind die Messungen in 4k.
 
[
Apocalypse schrieb:
wie in The Finals
Findest du die RTX Feature Umsetzung in TheFinals tatsächlich "worth it"? Fühlte mich dabei tatsächlich eher an die BFV Umsetzung von damals erinnert.
 
  • Gefällt mir
Reaktionen: JarlBallin
blackiwid schrieb:
Das halte ich für ein Gerücht, es geht hier ja um Desktop Karten, die Zahlen die wir immer sehen beinhalten Notebooks, da davon mehr verkauft wird und da fast 100% Nvidia an ded. verkauft werden, versteckt das den schlechten Verkauf bei Desktop Karten und die meisten die da Nvidia verkauft sind nicht 4070-4090 nicht mal 4060 sondern nur 3060er.

Die 40xx Desktop Karten bleiben liegen wie ein Stein, und die Verkäufe die da noch außerhalb der 4090 gemacht werden, sind fast ausschließlich OEM Verkäufe, wo Leute eh alles egal ist weil sie 0 Ahnung haben.

Es gibt noch ein paar die Nvidia brauchen wegen bestimmten Anwendungen aber reine Gamer aufm Desktop die keine Fertigpcs kaufen, greifen entweder zu RTX 3xxx oder zu AMD.

Draco Nobilis schrieb:
Hm hast du dazu Zahlen? Reiner Anteil NVIDIA war >80%, aber deabei geht man nicht auf die Gen ein.
Steam Survey ist auch immer sehr "grün" auch bei der aktuellen Gen.

Ich gebe zu es ist ansonsten nur meine Wahrnehmung, aber eigentlich ist alles NVIDIA, wie auch Marktanteile zeigen. Kann sein das die 4xxx abseits der AD103 wie ein Stein liegen bleibt, andererseits dafür gibts ja OEM und Notebooks.
Ich habe den Steam-Survey-Verlauf 2023 mal etwas aufgedröselt.

Ampere hat im letzten Jahr 3,61 Prozentpunkte gewonnen, Ada 9,67 Prozentpunkte.
Ratio Ada/Ampere also 2,68:1 zugunsten der neueren Generation:

2023_desktop+laptop.PNG


Kicken wir die Laptop-GPUs raus, hat Ampere im letzten Jahr 4,13 Prozentpunkte gewonnen, Ada 6,54 Prozentpunkte. Ratio Ada/Ampere also immer noch 1,58:1 zugunsten der neueren Generation:

2023_nur_desktop.PNG


RDNA3 hat im selben Zeitraum 0,32 Prozentpunkte gewonnen. Ratio Ada/RDNA3 wäre 12,9:1 zugunsten Nvidia, selbst wenn wir die Ada-Laptop-Chips ignorieren (4,13/0,32):

2023_RDNA.PNG


Allerdings werden einige nicht zugeordnete RDNA3-GPUs noch in den AMD-Radeon-Graphics-Gruppen versteckt sein, diese hatten 2023 einen Zuwachs von 0,86 Prozentpunkten.

Wenn wir jetzt großzügig davon ausgehen, dass diese 0,86 Prozentpunkte komplett RDNA3 sind, ständen also 4,13 Prozentpunkte bei Ada (ohne Laptop-GPUs) 1,18 Prozentpunkten RDNA3 gegenüber.

Ratio Ada/RDNA3 wäre dann 3,5:1 zugunsten Nvidia, selbst wenn wir die Ada-Laptop-Chips ignorieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Quidproquo77, GRB221009A und eine weitere Person
Mr. Vega schrieb:
Findest du die RTX Feature Umsetzung in TheFinals tatsächlich "worth it"? Fühlte mich dabei tatsächlich eher an die BFV Umsetzung von damals erinnert.

Ja total, Global Illumination macht die Beleutung soviel besser, wenn man dann erst mal angefangen hat die Gebäude zu erlegen. Am Anfang sieht man fast keinen Unterschied, weil das backed lighting Model natürlich auch pre-rendered ray tracing verwendet, aber sobald die ersten Mauern und Decken weg sind, etc

Es ist wirklich so viel besser und der Performance Hunger war jetzt iirc auch gar nicht so schlimm.
 
Draco Nobilis schrieb:
RT benötigt auch Speicher, was bedeutet man hat dann die mögliche Situation das AMD plötzlich in RT schneller wird sobald sich dies auswirkt. Das ist historisch exakt so schon passiert
Solange eine 3080 mit 10GB in RT Benchmarks immer noch den gleichen Abstand zu einer 6800XT mit 16GB hat(in 1440p +31% im 6800XT Releasetest, +30% hier im Test), muss man sich mit 12GB noch ne ganze Weile keine Sorgen machen, dass man von einer 16GB Karte überholt wird, die man aktuell um ca 50% übertrifft.

In Alan Wake 2 ist die 10GB 3080 mit Pathtracing gleichauf mit der 24GB 7900XTX.
Ja, 1440p mit DLSS Balanced, also nur knapp über 720P, aber selbst dafür sind beide Karten bereits zu langsam.
Der höhere VRAM der 7800XT wird dir ggü. der 4070S in künftigen RT/PT Games also gar nichts bringen weil die Karte selbst dort wo die 4070S dann wirklich mal wegen zu wenig VRAM einbrechen sollte, generell zu langsam sein wird. Dann ist sie halt nur noch 30-40% statt 50% schneller.

Bei der 4070S kann man dann, wenn es gerade so zu knapp ist, mit einer Reduzierung der Textursettings von Ultra auf Hoch wieder auf den 50% Vorsprung kommen, die 7800XT kann dann zwar die Texturen eine Stufe höher lassen, müsste dafür aber sehr viel mehr andere Settings reduzieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hoschi2k, Cohen, Fallout667 und 4 andere
Apocalypse schrieb:
Und genau in dem Szenario sieht man immer wieder mal, dass Nvidia das bessere RAM Management hat bei gleicher Menge Speicher zu einer AMD Karte oft noch stabilere Frametimes hat.
Ich möchte an dieser Stelle weder das RAM-Management von Nvidia noch AMD wirklich bewerten. Sehe ich mir die Tests an, die explizit sich das Thema VRAM bei Nvidia und AMD angesehen haben, dann agieren beide hier auch unterschiedlich.

Bei Nvidia wird im Zweifel "Details" verworfen, damit der Frame rechtzeitig genug auf das Display kommt, bei AMD wird gnadenlos gewartet. Nvidias Weg sorgt dafür, dass das Spielgefühl noch rund bleibt, AMD erzeugt Mikroruckler bis hin zu störenden Aussetzern.

Nvidia "schummelt" hier dann, um die FPS hochzuhalten, was in Spielen natürlich "besser" ist, AMD wartet gnadenlos und liefert das "richtige" Bild, dafür stottert es. Aus Spielerinnensicht ist Nvidias Weg besser, gehe ich aus technischer Sicht dran, dann versagen beide bei einem VRAM-Mangel gnadenlos.
Quidproquo77 schrieb:
Wieso stemmst du dich eigentlich so häufig gegen klare Fakten, wenn es um AMD geht?
Ach, klare Fakten? Welche klaren Fakten hast du denn an dieser Stelle bisher geliefert? Du hast eine Grafik hier gepostet, die die VRAM-Belegung zwischen einer 12 GB und 16 GB-Karte von Nvidia mit der einer 16 GB-Grafikkarte von AMD zeigt und hast darauf aufbauend hier eine Aussage getroffen, die man anhand nur dieser Daten nicht zuverlässig treffen kann.

Dass Nvidia einen besseren RAM-Kompressionsalgorithmus hat, ist an dieser Stelle auch vollkommen irrelevant (hatte ich in einer Textversion eingebaut, aber gelöscht). Und damit direkt das nächste: Nein, auch mit der von dir gezeigten Option des MSI Afterburner kann man nicht den tatsächlichen VRAM-Verbrauch messen, sondern misst nur den Verbrauch, den eine Thread/Programm anmeldet.

Und damit kommen wir zu meiner ursprünglichen Aussage zurück und hier wäre es gut, wenn du Texte auch im ganzen wirklich lesen würdest - zu der FSR-Diskussion werde ich gleich noch was schreiben: Nur anhand der VRAM-Belegung kann man nicht die Aussage treffen, dass AMD mehr VRAM benötigt oder ein schlechteres VRAM-Mangement hat. Das kann viele Gründe haben. Wie bereits erwähnt, kann es auch sein, dass AMD den VRAM weniger aggressiv aufräumt, wenn genug VRAM da ist, weil Daten ggf. noch mal gebraucht werden.

Jede Person mit rudimentären Entwicklungsfähigkeiten und der Fähigkeit eine Dokumentation zu lesen, kann dir in DirectX 12 und Vulkan ein Programm programmieren, mit dem man den gesamten VRAM und System-RAM belegen kann und anschließend lange Zeit nur mit wenigen MB rechnet, der VRAM aber weiterhin voll belegt bleibt.

Dein Vorwurf ist an dieser Stelle also nichts weiter als eine von dir erfundene Unterstellung, nur damit du dich mit der eigentlichen Kernaussage sowie der Kritik an dem dargebrachten Argument nicht befassen musst. Oder stark vereinfacht ausgedrückt an dieser Stelle: Du hast schlecht argumentiert!

Und damit zu dem - für diese Diskussion entscheidenden Punkt: Ich habe nicht deine Aussage angegriffen, sondern explizit genau zu diesem Zeitpunkt dein EINZIGES Argument. Du hast hier eine Wirkung versucht als Argument anzubringen, ohne zu verstehen, dass die Wirkung viele Ursachen haben kann.

Zum Glück führst du es wenigstens im Nachgang jetzt die VRAM-Kompression als Argument an, also eine Ursache, warum AMD mehr Speicher benötigt als Nvidia.

Und um das ganze jetzt auf die Spitze zutreiben: AMD hatte bei Vega mit HBCC sogar theoretisch einen deutlich besseres VRAM-Management als Nvidia, auch wenn sie mehr Speicher benötigen. Den HBCC haben sie allerdings nicht weiter verfolgt. Nvidias VRAM-Mangement ist dem von AMD aber überlegen und das aus mehreren Gründen: 1. Bessere Kompression. 2. Bei Nvidia fangen die "Probleme" bei knappen VRAM später an. 3. Nvidia weiß PCIe effektiver zu nutzen.

Und damit zur FSR-Diskussion und dem entscheidenden Punkt. Und ich versuche es jetzt noch mal anders: wenn 1000 Journalisten, Foodbloger und Menschen auf der Straße sagen, dass Cola ihnen besser schmeckt, dann bedeutet das nicht, dass das bei mir auch so sein muss, sondern dass mir dann eben Pepsi besser schmeckt.

Ich habe mehrfach in meinen Beiträgen wiederholt, dass ich BEIM SPIELEN, subjektive Unterschiede zwischen DLSS und FSR wahrnehme, diese aber während des Spielens FÜR MICH irrelevant sind. Qualitative Unterschiede zwischen FSR und DLSS nehme ich primär auf Screenshots oder ggf. Videos war, weil ich mich dann auf diese konzentriere.

Am ENDE IST ES FÜR MICH allerdings bei der Frage von DLSS und FSR wesentlich wichtiger, ob die FÜR MICH störenden Artefakte vorhanden sind und ICH REAGIERE MASSIVER AUF GHOSTING! Wenn für dich Ghosting kein Problem ist, dafür flimmernde Kanten, DANN IST DAS SO! Dann ist FÜR DICH DLSS in den meisten Fällen besser und hat natürlich auch die bessere Qualität. NUR MUSS DAS NICHT FÜR MICH GELTEN!

Und genau das ist es, was mich an deinen Beiträgen als auch allgemein an der Diskussion um DLSS und FSR so stört: Es werden irgendwelche Tests und die darauf aufbauenden subjektiven Empfindungen irgendwelcher Fremden hier angeführt und dann wird versucht, die eigene Meinungen allen anderen aufzudrücken. Und genau dagegen wehre ich mich. Dazu spiele ich gerne Advocatus Diaboli, das hält einen geistig fit und bringt einen Perspektivwechsel und ermöglicht es mir auch mal andere Sichtweisen anzunehmen und zu akzeptieren. Das würde einige hier gut tun und dir ebenso.
 
  • Gefällt mir
Reaktionen: drSeehas, Enyo79, JarlBallin und 14 andere
DevPandi schrieb:
Und damit zur FSR-Diskussion und dem entscheidenden Punkt. Und ich versuche es jetzt noch mal anders: wenn 1000 Journalisten, Foodbloger und Menschen auf der Straße sagen, dass Cola ihnen besser schmeckt, dann bedeutet das nicht, dass das bei mir auch so sein muss, sondern dass mir dann eben Pepsi besser schmeckt.
Die Analogie lässt sich auf Technik aber nicht wirklich anwenden, denn die DLSS/FSR Vergleiche sind ja mehr als ein simples „Ich hab’s mir mal angesehen und finde dass X besser aussieht“
Es werden ja haarklein verschiedenste Bereiche überprüft und bewertet, von der generierten Performance über Dinge wie Ghosting, Flimmern, sonstige Artefakte, Bildschärfe, alles verglichen mit der nativen Darstellung.
Und da liegt DLSS halt in 9 von 10 Fällen teils gering und teils klar vor FSR.

Man kann am Ende selbst für sich sagen, dass einem diese Unterschiede nicht auffallen bzw. sie einem egal sind, aber das macht es nicht zu einer einfachen „Geschmacksfrage“ wie beim Cola/Pepsi Beispiel.

Hier war doch letzte oder vorletzte Woche auch jemand, der meinte dass Cyberpunk mit Rastergrafik für ihn zu 99% so gut aussähe wie mit Pathtracing.
Kann man ja selbst gerne finden, aber das lässt sich ja objektiv bewerten und das ist dann nicht einfach nur seine Meinung vs die aller Tester^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Quidproquo77, Innocience und eine weitere Person
Apocalypse schrieb:
Ja total, Global Illumination macht die Beleutung soviel besser,
Portal RTX, Quake 2 RTX, selbst Cyberpunk 2077 mit Path Tracer, hat man sich erst mal an die Beleuchtung und Co durch RT gewöhnt und wie plastisch sich dann auch plötzlich "flache" Texturen anfühlen können, dann will man nicht mehr zurück.

Cyberpunk 2077 ohne Path Tracing? Kommt mir nicht mehr auf de Monitor!
Taxxor schrieb:
muss man sich mit 12GB noch ne ganze Weile keine Sorgen machen, dass man von einer 16GB Karte überholt wird, die man aktuell um ca 50% übertrifft.
Kommt darauf an, wie sich RT in den nächsten Jahren in den Spielen etabliert und wie es mit den Texturen, Anzahl der Polygone pro Modell und anderen Aspekten weitergeht.

Aber ebenso auch, wie sich mit der Zeit Direct Storage und DirectX 12 Sampler-Feedback durchsetzt und wie effektiv in diesem Zusammenhang dann in Spielen die VRAM-Verwaltung ist.

Die RTX 4080 sehe ich in den nächsten Jahren vor keine "Probleme" gestellt, genausowenig die 4070 Ti Super. Bei der 4070, 4070 Super und 4070 Ti bin ich mir da aber nicht ganz so sicher. Aber: Dann muss man halt bestimmte Effekte und Co reduzieren. Musste ich bei der 5700 XT auch, musste ich davor mit der 980 auch oder der 5870 oder damals mit der X1900XT. Irgendwann muss man das immer.
 
  • Gefällt mir
Reaktionen: Fallout667, Quidproquo77, IXI_HADES_IXI und eine weitere Person
DevPandi schrieb:
Portal RTX, Quake 2 RTX, selbst Cyberpunk 2077 mit Path Tracer, hat man sich erst mal an die Beleuchtung und Co durch RT gewöhnt und wie plastisch sich dann auch plötzlich "flache" Texturen anfühlen können, dann will man nicht mehr zurück.

Cyberpunk 2077 ohne Path Tracing? Kommt mir nicht mehr auf de Monitor!
Darum geht's gar nicht, in The Finals hat die Beleuchtung Einfluss aufs Gameplay, den ich kenn mir einen schlecht bedeuteten Raum einfach ein paar Fenster oder auch gleich die Decke wegsprengen und dann ist da nichts mit im Dunkeln hocken.

Wie gesagt, das pre-backed Modell ist eh auch Raytraced, aber sobald Dynamik bei der Umgebung reinkommt … kann man Gameplaytechnisch halt auch einiges mit den Strahlen machen und nicht nur Oberflächen und Beleuchtung realistischer aussehen lassen.

Du hast übrigens Minecraft vergessen, Path Traced Minecraft ist als hätte man Legosteine, super cool, aber fürs Gameplay latte.
 
ayngush schrieb:
Ich spiele BG3 in UHD mit einer 4070. Punkt.
Und jetzt? Ändert nichts an der Aussage. Wer alles in Hoch oder Ultra zocken will, kauft sich keine 4070.
Weil die Leistung dafür nicht reicht. Hab auch nicht behauptet, das kein Spiel in UHD mit ner 4070 gespielt werden kann... natürlich geht das.
 
  • Gefällt mir
Reaktionen: JarlBallin, ThirdLife und MrHeisenberg
Cohen schrieb:
Ratio Ada/RDNA3 wäre dann 3,5:1 zugunsten Nvidia, selbst wenn wir die Ada-Laptop-Chips ignorieren.
Ist schon spät, evtl rechne ich falsch.
Aber ich komme überschlagen auf ~74% Nvidia zu ~12% AMD.
Das wäre 7:1 zugunsten Nvidia.
 
Taxxor schrieb:
Die Analogie lässt sich auf Technik aber nicht wirklich anwenden
Doch, auch in diesem Fall lässt sich die Analogie immer noch darauf anwenden, weil wir Menschen sind und keine Maschinen und weil wir alle eine unterschiedliche Wahrnehmung haben.

Natürlich können wir versuchen, objektive Kriterien zu finden und anhand dieser eine Bewertung vornehmen, am Ende sind es aber immer noch wir als Menschen, die eine Bewertung vornehmen und ab diesem Zeitpunkt wird es subjektiv.

Taxxor schrieb:
aber das macht es nicht zu einer einfachen „Geschmacksfrage“ wie beim Cola/Pepsi Beispiel
Du kannst für ein koffeinhaltiges Erfrischungsgetränk natürlich auch versuchen, objektive Kriterien zu finden und alle Getränke anhand dieser Kriterien bewerten - was ja auch regelmäßig bei Stiftung Warentest und Co gemacht wird.

Am Ende sitzt aber ein Mensch bei der Bewertung, der Versuchen muss, aus all seinen Kriterien eine Wertung zu bilden und ab dann spielt das eigene Empfinden wieder eine Rolle.

Sobald ein Mensch die Bewertung vornimmt, kommt es auf die subjektive Wahrnehmung dieses Menschen an und wie dieser Mensch auf einzelne Sachverhalte reagiert. Und wir als Menschen können unsere eigene Wahrnehmung auch nicht ausblenden.

In meinen Augen einer der größten Fehler, den wir als Menschen machen, ist es, dass wir denken, sobald wir mit Zahlen hantieren, oder wenn wir versuchen "objektive" Kriterien zu benennen, dass wir dann auch wirklich objektiv bewerten. Ich bin mir bewusst, dass wir Menschen sind und dass wir durch unsere Erfahrungen, Empfindungen, aber auch körperlichen Eigenschaften, auf ein und denselben Sachverhalt ganz anders blicken können und auch ganz anders reagieren.

Nehmen wir mal die Bildschärfe als Beispiel: Natürlich kann ich feststellen, ob ein Bild "schärfer" oder "unschärfer" ist. Was ist jetzt aber besser? Du würdest jetzt sagen, dass schärfer besser ist, aber ist das wirklich so? Es gibt den Punkt, an dem ein Bild zu "scharf" werden kann, dann ist plötzlich schärfer, schlechter. Wir bewegen uns bei der Bildschärfe also in einer Spannweite mit zwei Punkten, ab, denen wir ein Bild als zu unscharf oder zu scharf empfinden. Die Bildschärfe kann ich objektiv ermitteln, nur wie der Wert am Ende interpretiert wird, liegt beim Tester.

Ähnliches gilt fürs Kantenflimmer, Ghosting und Co. Es gibt nicht umsonst die Felder der Psycho-Akustik und ebenso auch der Psycho-Optik und man macht sich die Theorien in diesen Bereichen auch an vielen Stellen, auch in der Informatik, zunutze. MP3 wäre da so ein Beispiel. Ebenso bei Algorithmen wie jpeg und com bei denen man sogar mit bestimmten Artefakten "lebt", weil diese in bestimmten Fällen nicht wahrnehmbar sind.
 
  • Gefällt mir
Reaktionen: Enyo79, JarlBallin, Knobi Wahn und 4 andere
qu1gon schrieb:
Wer alles in Hoch oder Ultra zocken will, kauft sich keine 4070.
Ich zock das aber mit max Settings im 60FPS Cap mit 4K Native Auflösung?! Schon 400 Stunden lang...
Und Phantom Liberty ebenfalls, wobei ich da natürlich DLSS an hatte und das normale Ray Tracing, kein Pathtracing. Will nur sagen: Bin nicht bereit 2k nur für eine Grafikkarte auszugeben, zocke aber (Büromonitor sei dank) trotzdem in 4K und möchte möglichst viele Details haben. Passe ich jetzt nicht in dein Weltverschwörungs-Raster? Oder ist die Erklärung "Niemand hat die Absicht ... Quelle: Gott" eben doch nicht so allgemeingültig brauchbar?
 
  • Gefällt mir
Reaktionen: drSeehas
Apocalypse schrieb:
Du hast übrigens Minecraft vergessen, Path Traced Minecraft ist als hätte man Legosteine, super cool, aber fürs Gameplay latte.
Vergessen nicht, absichtlich ausgeblendet eher. Aber Danke für die Erwähnung.
Apocalypse schrieb:
Darum geht's gar nicht, in The Finals hat die Beleuchtung Einfluss aufs Gameplay, den ich kenn mir einen schlecht bedeuteten Raum einfach ein paar Fenster oder auch gleich die Decke wegsprengen und dann ist da nichts mit im Dunkeln hocken.
Da möchte ich aber widersprechen: Sowohl in Cyberpunk, Quake 2 RTX und selbst in Minecraft RTX oder Portal RTX hat die Beleuchtung einen Einfluss auf das Gameplay und das nicht zu knapp.

Minecraft hast du wie in The Finals die Möglichkeit - wenn auch anders - mit dem Licht zu spielen und es hat sowohl auf dich als auch auf die Umgebung einen direkten Einfluss. Gerade die RTX-Version zeigt das sogar relativ gut. Die Beleuchtung ist hier im Spielgeschehen auch eingebunden.

Ähnlich verhält es sich mit allen anderen Spielen: Portal RTX kann die Beleuchtung bei manchen Rätseln helfen, aber auch Fallen verstecken - warum war die Ecke so dunkel... gnagh so viele Tode im Giftwasser! Oder in Cyberpunk, in dem plötzlich Gegener eben nicht mehr durch die "normale" Beleuchtung quasi ständig zu sehen waren. Ganze Abschnitte in Cyberpunk 2077 können plötzlich richtig fies werden, weil man dank PathTracing die Gegener erst sehr viel später sieht.
 
  • Gefällt mir
Reaktionen: IXI_HADES_IXI und Apocalypse
kachiri schrieb:
IMHO gehört es auch in einen Grafikkartentest.
Das "Optimieren" durch Reduktion der Einstellungen und berechneten Auflösung ist für jedes Spiel spezifisch, daher gehört es in meinen Augen auch in diese Artikel.

Die Grafikkartenartikel auf der anderen Seite zeigen, welche Leistung die verschiedene Produkte im direkten Vergleich haben, so dass man von den wenigen im Spieletest "optimierten" Karten auf die breite Datenbasis aus den Grafikkartentests schließen kann.
 
Mr. Vega schrieb:
@qu1gon
Warum sollte man 120-150 Euro mehr ausgegeben, wenn für einen Raytracing und Softwarefeatures max nice to have aber eben kein must have sind?
Die 8-10% mehr Rasterleistung rechtfertigen dann den Aufpreis nicht. Zudem rechnen wir hier mit der UVP der FE, die Custommodelle sieht man ja bereits wo die Reise preislich hingeht.

Meine RX7800XT Powercolor Red Devil auf Stock Setting bei 57 Grad Chip und 76 Grad Hotspot. Die Lüfter drehen dabei unter Gaminglast mit 900-1000 RPM.
Mit UV auf 1090mv Chip komme ich auf 52 Grad Chip und 71 Grad Hotspot. Die Lüfter drehen dann bei 800 RPM. Kann deine Aussage also nicht bestätigen.
Du hast glaub nicht ganz verstanden... ich habe nicht gesagt, für dich oder für den usw... ist die oder die Graka die richtige oder kaufe dir die oder die Graka.
Es geht darum, was bekommt man. Und wenn das mehr als bei der Konkurrenz ist und meistens auch besser,
sprich mehr Leistung im RT und bei Dingen wie streaming durch die leistungsfähigeren CUDA Kerne oder die bessere Skalierungstechnik usw. usw. dann ist der höhere Preis auch gerechtfertigt - ob genau du das benötigst etc.. ist in dem Fall irrelevant. Man bekommt in quasi allen Belangen das bessere Produkt und
hier schon fast nahe der Prefektion - 16GB VRAM hätte die Karte perfekt abgerundet, so "nahezu perfekt"
weil die 12GB absolut ausreichend sind für WQHD. Auch in nächster Zeit.

Undervolting geht auch bei AMD ist aber kein Argument das zählt, den das kann man dann auch mit NVIDIA und an die Effizienz kommt AMD nunmal nicht heran - egal wie du es drehst oder wendest.

Ist lustig das du nur Temps und Lautstärke erwähnst... was ist mit Leistungsverslust im Vergleich,
da ist die 4000er Reihe auch besser als AMD. Also undervolting an sich können beide aber zu welchem Preis
bzw. mit welchen Nachteilen im Vergleich.... ^^
Wenn, dann mus man das vergleichen mit Werten von einer 4070 und dann kannst gegenüberstellen und sagen, kuck mal hier... aber 57 Grad und 70 Grad Hotspot undervoltet erscheint mir jetzt nicht der Burner.
Die 4070 S hier erreicht ja schon 75 Grad und wenn man dann noch ne Custom Karte mit drei Lüftern nimmt,
kommt die ohne Undervolting also Out of the Box schon auf eine 20 Grad (o. noch weniger) kühlere HOTSpot Temperatur. Wenn dann erst noch undervolting kommt, gute Nacht^^

Noch was, ich bin kein FanBoy eines Lagers, im Gegenteil ich wünsche mir nichts mehr, als echte Konkurrenz
auf Augenhöhe am besten. Also AMD noch näher an NVIDIA und INTEL wünsche ich nur das beste auf dem Weg in den Markt... Gute Konkurrenz ist für uns Kunden das beste was passieren kann.

Mann mus aber ehrlich sein und differenziert herangehen.
Du kannst dir Geld sparen weil du gewisse Features nicht brauchst oder keinen Wert drauf legst - kannst du machen aber es ist falsch DESWEGEN zu sagen, das ist die bessere Karte. Für DICH evtl. die bessere WAHL aber die bessere Karte, sicher nicht.

Warum verkauft AMD meistens ne Graka bisher, nur weil se etwas mehr Rasterizingperformance hat und
weil der Preis etwas günstiger ist. VRAM lasse ich absichtlich weg, weil wie ich schon erläutert habe,
durch das bessere VRAM-Management auch 12GB bei NVIDIA halt ausreichen.
Man muss aber die anderen Dinge mit einbeziehen und wenn Grün bei RT mit AMD den Boden aufwischt,
muss man das anerkennen, die Leistung ist da, bekommt man mit. You get what you pay for.
Und ich zahle, lieber noch nen Hunni oder so drauf, für ne rundum gelungene Graka.
Wenn ich schon hinderte Euros ausgebe, dann spare noch nen Monat und lege die 100 € drauf.
 
Nvidia: Was darf es sein, Müll oder überteuert ? Noch eine überteuerte Grafikkarte von Nvidia, die auch noch zu spät kommt. Wer braucht schon eine WQHD Grafikkarte für 660€ ? In 10 Monaten kommt schon die 5070.
 
  • Gefällt mir
Reaktionen: JarlBallin und DaCrazyP
Mich wundert die doch relativ große Preisspanne bei den diversen Partner-Karten. Dass die 4070 Super teuer wird, war ja zu erwarten. Aber gerade Nvidia ist ja für sehr strikte Vorgaben bekannt, also kann der Unterschied bei den Modellen wohl nicht so groß sein, wie es der Preis suggeriert.
 
Ich finde gut dass die normale 4070 jz günstige wird. Ist so gesehn ein allrounder bis wqhd.
 
Zurück
Oben