Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

C4rp3di3m schrieb:
Lieber Herr Heisenberg, die Gesetze der Physik sind im ganzen Universum gleich auch für dich, man kann mit solchen Features einiges tun und das Bestreitet niemand.

Aber etwas Erschaffen was physikalisch nicht vorhanden ist, wäre ein Perpetuum mobile.
DLSS Performance verhält sich wie DLSS Quality, aber auf etwas geringerem Niveau. Das Bild ist leicht unschärfer (bleibt aber schärfer als die native Auflösung), die Bildunruhe nimmt etwas zu und bei der Geometrie lassen sich mehr Kanten erkennen.
Quelle: https://www.computerbase.de/2020-07/death-stranding-benchmark-test/3/

Vor allem in den Details zeigt sich der Unterschied in der nativen Auflösung und mit DLSS 2.0. Kleine Schriften und Symbole gewinnen mit DLSS 2.0 deutlich an Schärfe. Anhand der Pinwand wird dies besonders deutlich.
Quelle mit Bildern, damit du es sogar selbst vergleichen kannst: https://www.hardwareluxx.de/index.p...st-dlss-2-0-in-control-und-mechwarrior-5.html

Und das ist nur DLSS2.0, wir sind bei 3.x.
Wie haben die das nur gemacht?! :freak:

Ich bin hiermit auch raus, sorry für den OT, aber diese Nativ-Warrior nerven.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, AI94, Gortha und 2 andere
Gortha schrieb:
Sehr wohl geht das. 16nm vs 5nm. Damals bei 16nm waren die Kosten wesentlich geringer.
Außerdem hat man bei 5nm und den viel mehr Transitoren mehr Forschungs und Entwicklungskosten.

Äußert sich bei CPUs aber quasi überhaupt nicht. Günstige 12nm Ryzen 1600 UVP liegt gleichauf mit Straßenpreisen für den 5nm 7600.

CPU-Leistung gibt es so günstig wie nie zuvor, bei GPUs zahlt man den Gheyming-Aufschlag.

Das Argument greift einfach nicht, wenn durch die kleinere Fertigung auch die tatsächliche Chipfläche reduziert wird. Das ist ja u.a. der Sinn eines Shrinks, die Reduzierung der Kosten.
 
  • Gefällt mir
Reaktionen: DefconDev
lynx007 schrieb:
Ja, Sie haben Sich über den Tisch ziehen lassen. Das funktioniert bei Kindern sehr gut. Deshalb will man ja auch die Werbung bei Kindern, zu recht, einschränken. Spätestens wen man selber für sein Geld arbeiten muss, gibt man sich mit sich speziel mit faulen Angeboten aber nicht zufrieden. Man kauft dann halt lieber gar keinen Lutscher, als einen abgelaufenen, der schon schimmelt und nicht schmeckt....

Und diese Meinung haben ja nicht nur Konsumenten.
Nexus sagt, "wartet wen ihr könnt"

Auch Linus bringt es auf den Punkt und lässt sich von nVidia nicht erpressen:

Und auch Hardware unboxed sagt das Angebot ist Scheiße!


Nochmal, sie scheinen es nicht zu verstehen, es geht nicht um 4070, 4080 usw.... Es geht nur darum das 4060 kein gutes Produkt ist.... zu teuer, und an stellen kastriert, die selbst AMD zu einer besseren Alternative machen. Das frustriert die Leute, das es für sie keinen "akzeptrablen" Lutscher gibt. Nicht das es einen Lutscher gibt der besser schmeckt, sondern weil die bezahlbaren leider alle scheiße schmecken!? Jetzt angekommen?
Anhang anzeigen 1371129

Anhang anzeigen 1371128
Bevor du Anderen Verständnisschwierigkeiten unterstellst und weiter heisse Luft verbreitest ist es eher so
was bei dir und Deinesgleichen nicht ankommt , dass du für den Lutscher, der dir schmeckt halt mehr zahlen musst heute wie für vieles Andere auch. Wenn ein Lutscher nicht schmeckt, dann schmeckt Der zudem auch nicht besser wenn er günstiger ist. Also wen interessiert es was der Lutscher kostet wenn der eh nicht deinem Geschmack entspricht.
Entweder sparst du für den Lutscher den du willst oder kaufst dir einen ausgelutschten Lutscher wo noch was dran ist, der dir vielleicht aber besser schmeckt.:daumen:

Edit:

"Es geht darum das der neue 3er, eckige Reifen, kein Klima und billigstes Intereur bekommen hat, damit man doch bitte den Lambo kauft... , zum Nachteil derer, die sich kienen Lambo leisten können oder wollen."


Irgendwie bezeichnend ; stell dir vor ,früher ist die ganze Familie mit dem VW Käfer ,wenn du weisst was das ist, quer durch Europa in den Sommerurlaub gefahren und hatte auch ihren Spass.

Klar, für Leute von heute geht heutzutage unter einem 3er BMW nix , der übrigens selbst als 316d mit guter Ausstattung heute soviel kostet wie ein M3 vor nicht all zu langer Zeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: conglom-o
@Tornavida
UNd was bei Ihresgleichen nicht ankommt, niemand muss etwas kaufen. Niemand zwingt Sie dazu.

Mann muss nicht sparen oder etwas gebrauchtetes kaufen. Man kann es machen. Oder man investiert sein Geld in einfach etwas viel besseres, was glücklich macht und einen weniger ärgert. Wen es keine Lutscher mehr gitbt, es gibt ja auch Kaugummis oder Nüsse. Wen die nicht mein Geld wollen, dann kann man die auch nicht zwingen meines zu nehmen. :daumen:


Es ist für einen PC Gamer trotzdem schade, den die Situation wird nicht besser, wen jeder auf Konsole wechselt, oder ganz das zocken aufhört. Und darüber darf auch jeder seinen Unmut äußern. Das ist nicht einfahc mit "gibt mehr Geld" aus getan. Die Leute wollen zu recht nur einfach gute Produkte, die es in jeder Preisklasse haben dürfen. Und da ist halt gerade nvidia scheiße, aber auch nur weil Sie es sich halt erlauben dürfen, wie man hier sehr gut sieht.


1688040546619.png


 
Zuletzt bearbeitet:
Dann hast gute Augen ich sehe in schrägen in den meisten neuen Spielen kein Alaising
Ich hab nen 23,8 zoll display (605mm) mit FHD das sind genau 94 dpi
quasi Windows standard dpi von 96

Spiele allerdings sind oft in 720p bis 1080p hin designt
Bei 720p ist es möglich alaising zu sehen aber eher unwahrscheinlich. nativ 1080p wirst kaum bis kein alaising bemerken.
Für die nicht verstehen was alasing ist das ist technisch bedingt
LCD und somit alle Bildschirme können nur vierecke darstellen auf kleinster ebene was dann 0,26mm bei meine Monitor ist und windows standard bei 0,24mm
Dementsprechend je nach auflösung skaliert 720p ist um 50% größer also 0,39mm
Das kann man erkennen bei sehr guten Augen 0,26mm ist sehr schwer zu erkennen.
Insbesondere das dafür 45° dafür im Sicht Feld sein muss oder sehr flache Winkel wie 15° oder 10°
Kreise mit kleinen radius wären auch möglich das man alaising sieht.
Die meisten verwechseln Textur flickern mit alaising das eine hat mit dem anderen nix zutun das lässt sich mit af beheben.
Darum nutze ich wenn möglich nur af ohne msaa bzw taa.
Anisotropic Filter lässt sich in den meisten spielen erzwingen ist aber anfällig für Fehler. Insbesondere wennd as Spiel eine eigene filter verwendet.
 
  • Gefällt mir
Reaktionen: Viper2000
Holgmann75 schrieb:
Dann spielst du wohl andere Spiele...
Ich habe von Nvidia Grafikkarten gesprochen und nicht AMD ! Amd Grafikkarten sind ziemlich Vram hungrig und ab und zu kommt bei 8GB zu probleme. Ich habe selbst mit einer RX6600XT bei Forza Horizon 5 erlebt.
Aber mit Nvidia ist es anderes. Mit meiner RTX 3060 und 4060Ti habe ich nie gesehen das FH5 mit Max Details mehr als 6GB Vram benötigt. Auch bei Control nicht. Bisher habe ich nie gesehen das ein spiel mehr als 7GB Vram füllt. Ich checke immer mit MSI Afterburner.
Was der Typ auf youtube erzählt, ist reine quatsch. er mischt alles zusammen und schmeißt in einem topf.
Das in paar Jahren 8GB Grafikkarten unbrauchbar werden, glaube ich nicht. Die meisten Spiele Entwickler sind mit Grafikkarten hersteller in kontakt und programmieren die spiele so das die einwandfrei funktionieren.
Ich finde RTX 4060/4060Ti mit 8GB sind vollkommen in ordnung für FHD Auflösung.
Was ich etwas schade finde ist 128Bit speicher bandbreite und 8 Lane PCI-E.
 
  • Gefällt mir
Reaktionen: lynx007
@Wolfgang
Wie immer herzlichen Dank für diesen ausführlichen Artikel.

Die Karte überrascht, ernüchtert und enttäuscht zugleich - je nach dem, wo man die Messlatte anlegt.

Überrascht bin ich von der doch recht hohen Leistung mit DLSS + FG, die ich so nicht einmal erwartet hätte. Ernüchert bin ich beim Strombedarf, denn der war von vorne herein klar und die Ada Lovelace-Karten sind allgemein positiv zu bewerten, was die Performance pro Watt (Rohleistung - bei DLSS/FG noch mehr) betrifft.

Enttäuscht hingegen bin ich vom Gesamtkonstrukt - also rohe Leistung, Ausstattung (VRAM/Speicherbandbreite/PCIe-Interface) und Kaufpreis. Gemessen an einer gleichteuren 3060 Ti zahlt man hier im Endeffekt lediglich für "Treiberfeatures" (DLSS3/FG), denn schneller in Rohleistung ist sie ja ganz offensichtlich nicht - im Gegenteil, sie liegt ein gutes Stück messbar und je nach Szenario auch spürbar zurück.

Genau das ist ja auch die Hauptkritik, die von den bereits verlinkten Youtube-Kanälen, namentlich Linus, Steve aka GamersNexus und Hardware Unboxed ausgeht.

Klar, knapp über 300 Euro sind keine Unsumme und nichts, weshalb man ins Armenhaus gehen muss. In Zeiten, in denen Full HD einfach "die" Auflösung ist und DLSS(3), FSR, XeSS eben nicht in jedem Spiel integriert sind und auch nicht nachgepatcht werden, ist es aber traurig, dass man selbst für 300+ Euro bei nVidia keine Grafikkarte bekommt, mit der man bedenkenlos ohne an den Grafiksettings Hand anzulegen, ein Spiel spielen kann. Wir reden hier von 60 FPS, das ist wahrlich keine Zauberei und auch ganz bestimmt nicht zu hoch gegriffen.

Gestern habe ich mit einem Bekannten, der über einen neuen 1440p-Gaming-PC nachdenkt, auch über die passende Grafiklösung sinniert und auf dem Papier standen sich RX 6800 XT und RTX 4070 gegenüber. 16 GB VRAM vs. 12 GB VRAM zum einen, zum anderen natürlich das durchaus bessere Featureset bei nVidia plus die wirklich gute Leistungseffizienz - beides zum Preis von ca. 600 Euro. Das ist schon ne Menge Holz für ne Grafikkarte, die nichtmal für 4K UHD gedacht ist.

Der nächst-logische Schritt auf der nVidia-Seite wäre dann die 4080 (die 4070 Ti hat ja auch "nur" 12 GB VRAM). Hier hat man dann neben dem bereits erwähnten Featureset auch endlich die zukunftssicheren 16 GB VRAM - für sage und schreibe 1099 Euro (mindestens, günstigstes gelistetes Modell). 1100 Euro! Und dann sind wir ja bekanntlich immer noch nicht am Ende der nVidia-Fahnenstange angelangt.

Man kann sagen, was man will, da steckt eine ordentliche Portion geplante Obsoleszenz dahinter. Jeder, der sich jetzt eine Ada Lovelace-Grafikkarte mit "nur" 12 oder gar nur 8 GB VRAM kauft, in seinen gespielten Spielen von der GPU-Performance her aber problemlos damit auskommt, der wird zweifellos in zwei, drei, vier Jahren vermehrt auf Probleme stoßen - und zwar so sehr, dass das Reduzieren der Grafikdetails irgendwann keinen Sinn und/oder einfach keinen Spaß mehr bereitet, selbst wenn die GPU (ob mit oder ohne DLSS sei dahingestellt) fürs eigentliche Rendern des Spiels noch ausreichend wäre.

Nur deshalb jedoch zur vierstellig bepreisten RTX 4080 zu greifen, kann aber auch keine Lösung sein.

Vielleicht ist es sogesehen wirklich besser, immer nur das zu kaufen, was man Stand jetzt wirklich braucht - und dann beißt man in den sauren Apfel und kauft in spätestens 3 Jahren einfach wieder die nächste Budget-Lösung. Ich weiß es nicht, was hier "richtig oder falsch" ist, das kann auch niemand pauschal beantworten.

Persönlich versuche ich natürlich auch mit etwas Weitsicht zu kaufen und kaufe mir stets Hardware mit dem Hintergrund der Upgradeability und Nutzbarkeit auch noch in vielen Jahren... und was tue ich dann, wenn die vielen Jahre vorbei sind? Richtig, statt vereinzelt Upgrades durchzuführen, sehe ich mich dann doch immer wieder dabei, nahezu alle relevanten Teile am PC auszutauschen.

Mein PC ist also wie eine Versicherung: ich zahle einen gewissen Betrag um für alle Fälle gewappnet zu sein, nur um dann (zum Glück) zu sehen, dass der Fall der Fälle sowieso nie eintritt :D

Gortha schrieb:
@CB

Ich hätte anstelle vom "Performance" DLSS2 Profil lieber mal das "Balanced" Profil getestet gesehen. Oder eben beide.
Es werden doch Performance und Quality durchgeführt - also beide Enden der Fahnenstange letztlich. Balanced kannst du, da es von der Auflösung her rechnerisch exakt in der Mitte der beiden Presets liegt, ganz einfach errechnen.

syfsyn schrieb:
Dlss und fsr Nutzt man nur wenn man MUSS
Sprich dxr
Nativ ist immer zu bevorzuge OHNE TAA MSAA
Es geht hier um Schärfe des Bildes
Kantenglättung macht bei ner pixeldichte erst ab 82dpi sinn Was 32 zoll FHD wäre.
FHD mit 92dpi bis 96dpi 24 - 22,5zoll will ich den sehen der da in schrägen Stufen sieht
Ja das gibt es aber da muss man schon arg zurück auf 2006 da die interne Auflösung bei 576p war/4:3
Ach herrjeh, welch wahnsinnige Verallgemeinerung.

Selbstverständlich siehst du Pixelabstufungen, wenn du bei einem 22" FHD-Monitor ohne Kantenglättung arbeitest. Wenn da die Stromtrasse durch die Luft hängt, schwarz und kräftig, dahinter aber der strahlend blaue Himmel leuchtet, dann hast du wunderbare Sägezähne. Du tust ja gerade so, als würdest du erst seit gestern Videospiele spielen, dabei sollte man eigentlich meinen, dass du dich auskennst.

Dann jedoch deine Aussage bezüglich "2006" ... was war denn da 576p? Was hat denn die Standard-PAL-Auflösung jetzt hier auf einmal verloren? Klar, auch auf PCs kann man (mit etwas Trickserei) 720x576 Pixel fahren, aber wieso will man das? Das wollte man auch 2006 schon nicht und davor schon dreimal nicht.

Gängige Auflösungen waren immer
in 4:3
  • 320x200 (frühes DOS/VESA)
  • 320x240 (Hochzeit der DOS-Spiele)
  • 512x384 (Poor man's DLSS der frühen Windows 9x-Zeit)
  • 640x400 (Eher selten, DOS)
  • 640x480 ("High Def"-Zeit unter DOS, gängig in Windows 95)
  • 800x600 (selten und von wenigen Spielen unter DOS genutzt, gängig in Win9x)
  • 1024x768 (noch seltener unter DOS genutzt, gängig in Win9x)
  • 1280x960 (Zu Win98-Zeiten gehobener Standard, Gaming nur mit High End-Hardware)
  • 1600x1200 (das 4K UHD der Early 2000-Zeit)
  • 2048x1536 (Overkill)

in 5:4
- 1280x1024 (thats it - alles andere war eher ungewöhnlich im frühen TFT-Zeitalter)

in 16:9
- ... you get the idea, jetzt sind wir eh schon in der neueren Zeit angelangt.

All das übrigens aus dem Kopf - wieso? Weil ich den Sh*ce lange und exzessiv genug schon mitgemacht habe und auch immer noch betreibe (besonders die 4:3-Geschichten mit nativer Hardware).

Long story short: 2006 waren eher die hohen 4:3-Auflösungen, die genannte 5:4-Auflösungen oder sogar schon 16:9 bzw. damals eher noch 16:10 (1920x1200) gängig. Ich weiß es noch wie heute, dass ich 2006 Oblivion in 1600x1200 gespielt habe.

Native Auflösung + gängige Kantenglättung (TAA, MSAA, FXAA etc.) sind IMMER zu bevorzugen anstatt komplett native Auflösung oder gar Spiele-internes Upsampling (Prozentuale Renderauflösung verstellen).

Zu guter Letzt noch dein Spruch betreffend DLSS (bzw. FSR/XeSS, ich setze das jetzt mal gleich).
Man nutzt dieses Feature nicht, wenn man "muss", sondern dann, wenn man es "will" - und nicht zwingend in Full HD, aber aller spätestens in WQHD, also 2560x1440 ist es eigentlich nicht nur ratsam, sondern fast schon PFLICHT, DLSS hinzuzuschalten! Nicht nur hat auch ComputerBase bereits mehrfach in Tests bewiesen und es deutlich benannt, dass DLSS oftmals nicht nur gleichwertige, sonder gar bessere Ergebnisse als interne Kantenglättung liefert, es spart auch noch Strom, produziert weniger Abwärme UND sorgt für einen rundum leiseren Betrieb bei höherer Performance. Was will man denn bitte noch?!

Bei FSR & XeSS muss man nochmal unterscheiden, hier fallen die Ergebnisse leider von Spiel zu spiel doch stark unterschiedlich aus.
 
  • Gefällt mir
Reaktionen: Viper2000, Monarch2, lalalol und 2 andere
Zimmbo schrieb:
@Wolfgang
Stimmen die Werte von der 4070? Erscheint mir etwas komisch, das die 4070 in Full HD nicht einmal 50 Watt braucht, um dann bei doppelter Auflösung 200 Watt, also das vierfache zu ziehen? Wohlgemerkt FPS-limitiert.
Die Werte sind bei der 4070, jedoch treffen da wohl ein paar Dinge in dem Testszenario zu, die so normalerweise auch bei einer RTX 4070 nicht passieren. Das ist etwas unglücklich, ist in dem Szenario aber so.

Gortha schrieb:
@CB

Ich hätte anstelle vom "Performance" DLSS2 Profil lieber mal das "Balanced" Profil getestet gesehen. Oder eben beide.
Man kann nicht immer alles testen, der Aufwand isst so schon massiv. Mit Quality und Performance haben wir die beiden "Extremen" getestet, balanced ist eben ungefähr mitten drin.
C4rp3di3m schrieb:
🤣mach sich die Welt, wie sie ihm gefällt.

Lieber Herr Heisenberg, die Gesetze der Physik sind im ganzen Universum gleich auch für dich, man kann mit solchen Features einiges tun und das Bestreitet niemand.
Aber etwas Erschaffen was physikalisch nicht vorhanden ist, wäre ein Perpetuum mobile.

Es gibt auch Leute die hören keinen Unterschied zwischen FLAC/CD und MP3.

mfg
Du verstehst temporales Upsampling nicht.
Im Endeffekt stehen mit DLSS 2 und FSR 2 sogar mehr Pixel als mit der nativen Auflösung für einen Frame zur Verfügung, da die Informationen der Pixel aus vorherigen Frames miteinbezogen werden. Darum sehen DLSS 2 und FSR 2 bei gleicher Renderauflösung auch eigentlich immer besser aus als mit TAA und gegenüber nativer Auflösung gerade in Ultra HD auch immer mal wieder (und mittlerweile fast schon öfter als eben nicht besser).
 
  • Gefällt mir
Reaktionen: AI94, msv, Viper2000 und 6 andere
Die Ergebnisse der RTX 2060 in The Witcher mit und ohne RT sind korrigiert. Die Benchmarks der RTX 3060 waren korrekt, die der RTX 2060 aber aus irgendwelchen Gründen zu hoch. Die Benchmarks sind korrigiert und der Text in zwei Stellen entsprechend angepasst.
 
  • Gefällt mir
Reaktionen: Tommy_H, Perdakles, Jan und eine weitere Person
4nanai schrieb:
Äußert sich bei CPUs aber quasi überhaupt nicht. Günstige 12nm Ryzen 1600 UVP liegt gleichauf mit Straßenpreisen für den 5nm 7600.
Im R5 7600 steckt ja auch nur ein kleiner teildeaktivierter 70mm^2 N5 Die und ein 125mm^2 N6 IO Die.
Dazu entfallen Kosten für den Speicher (17 Gbps Chips sind eine Ecke günstiger als 18er GDDR6, aber trotzdem ist man da bei ~40 USD für 8GB ), PCB, VRMs, ...

CPUs waren und sind für die DIE Fläche immer schon recht teuer gewesen, daher schlägt dies dort deutlich weniger durch.

Für die ~20.000 - 25.000 USD pro Wafer die NVIDIA wohl nach den Preiserhöhungen für ihren 4N Node bezahlt bekam man zum Pascal launch schon verdammt viel Wafer Fläche (~4.000 - 5.000 USD pro Wafer). Zum Vergleich ist N6 immernoch bei rund ~8.000-9.000 USD. Über Samsungs Preise habe ich leider keinen Überblick, allerdings sind die wohl deutlich günstiger.
 
  • Gefällt mir
Reaktionen: Gortha und DJMadMax
Gute Einstiegskarte nur leider zum Preiß einer Mittelklasse mehr gibt es nicht zu sagen
verschwendete Zeit sich darüber Gedanken zu machen...
 
Wolfgang schrieb:
Die Werte sind bei der 4070, jedoch treffen da wohl ein paar Dinge in dem Testszenario zu, die so normalerweise auch bei einer RTX 4070 nicht passieren. Das ist etwas unglücklich, ist in dem Szenario aber so.
Das ist mir auch aufgefallen, aber spontan musste ich da an unsere Diskussion bezüglich der Leistungsaufnahme der RTX 3060 Ti bei 144 FPS-Limit denken - du erinnerst dich sicherlich. Ich merke (sowohl bei deinen Artikeln, als auch bei eigenen Tests) immer mehr, wie komplex und teilweise leider auch unzuverlässig (im Rahmen, zum Glück) es ist, den Energiebedarf einzelner Komponenten bei einzelnen Aufgaben und Teillasten zu ermitteln.

Letztlich bleibt da weiterhin ein großes Dankeschön meinerseits an dich und all die Redaktionskollegen, denn in nahezu jedem Techniktest muss man, wenn manchmal auch nur im Detail, Ausreißer bei Messungen akzeptieren und versuchen, der breiten Leserschaft möglichst transparent und sinnhaftig darzulegen.

Das ist bestimmt nicht einfach und ihr verdient dafür meinen ungeteilten Respekt.

@ThirdLife
Die Vinyldisukssion führt hier zu nichts und wurde (nicht nur im Internet) schon tausendfach geführt. Der Ausgang ist immer gleich: der Techniknerd beruft sich auf genau die Aspekte der Datenträger, die du genannt hast, der Purist beruft sich auf den vollanalogen Signalweg und seine 20.000 Euro Lautsprecherkabel mit linksrum gerührten Kupferatomen, ich verlasse mich hingegen gerne auf mein Gehör.

Damit's hier nicht zu sehr offtopic wird, können wir (selbstverständlich sachlich und immer auf das persönliche Empfinden hin bezogen) das Thema Vinyl vs. digital vs. unterschiedliche Masterings (auch innerhalb der Trägermedien) gerne im passenden Unterforum weiterführen:
https://www.computerbase.de/forum/threads/der-plattenspieler-und-vinylthread.2112965/
(dort ist auch ein waschechter Vinylcutter unterwegs :) )

EDIT:
Tornavida schrieb:
nein, damit sich das auch auf dem 10 Euro Küchenradio " voll fett" anhört
syfsyn schrieb:
ja das mastern von Cd ist echt schlecht alles auf eine Lautstärke
Es gibt Ausnahmen, ich habe sehr gut gemasterte CDs (die dennoch nicht gegen die Vinylversionen ankommen). So, genug offtopic ^^ Der Thread für dieses Thema ist verlinkt, gerne dort weiter :)
 
Arne schrieb:
Jedem steht es frei, sein Geld zum Fenster rauszuwerfen, aber warum kritisiert man Leute die das nicht tun?
Nee, genau umgekehrt wird ein Schuh draus: In sämtlichen Foren wird Käufern einer 4080 oder 4090 vorgeworfen, sie seinen Schuld an den hohen Preisen. Wenn die komplett verzichtet hätten, wäre ja schließlich alles viel billiger. Bla bla bla. Kannst du ja selber alles lesen.

Besagten Käufern hingegen geht es vollkommen am Allerwertesten vorbei, was andere kaufen oder nicht kaufen; ich zumindest habe noch keinen erlebt, der jemanden dafür kritisiert, nur eine 4060 oder überhaupt keine Karte zu kaufen.
 
Die Qualität der Kabel ist nur bei Isolierung und länge entscheidend besseren klang gibt es nicht das wusste ich schon 1990
Was am ende wichtig ist für guten klang ist der Lautsprecher und ein EQ
Der Datenträger spielt eien untergeordnete rolle beim klang das wichtigste ist der mix nach dem Mastern
Wenn der cd Produzent dass falsch in die presse einstellt kommt loudness war raus.
Aber heute wird kaum noch physisch cd verkauft wenn sind das labels.
Die meisten veröffentlichen online.
 
In meinem Rechner werkelt bis heute eine 1060 weil ich bei der 20er Generation noch nicht wechseln wollte, es die 30er Generation jahrelang nicht oder nur für Mondpreise gab und sie wird wohl auch weiterhin ihren Dienst verrichten müssen weil jetzt, 7 Jahre später (!), für 80 Euro mehr fast die identische Menge an VRAM verbaut wird, welcher auch noch mit einem schlechteren Speicherinterface angebunden ist. Einfach unvorstellbar.

Hoffe noch auf AMD und die 7700/77800 Karten, aber allem Anschein will AMD keine Gelegenheit und Chance die ihnen Nvidia auf dem Silbertablett serviert nutzen. Ein Trauerspiel.
 
  • Gefällt mir
Reaktionen: DJMadMax, TSB, lynx007 und eine weitere Person
Cohen schrieb:
Da freuen sich doch die Grünen, wenn du nicht mehr so oft Ressourcen verschwendest, die für die Herstellung und den Transport von Grafikkarten benötigt werden und dass du dir einen Neukauf dreimal überlegst.

The less you buy, the more you save nature. ;-)
Alle freuen sich, weil alle davon profitieren! Vielleicht abgesehen von den gierigen Herstellern.

Aber solche Grafikkarten sind einfach nur Crap - sie funktionieren hier und jetzt, aber werden in kalkulierter Zeitspanne unbrauchbar, weil ihnen zu wenig Leistung und/oder Speicher mitgegeben wird. Und das für 300€, dafür gabs mal gute, sinnvolle, langlebigere Mittel-/Oberklasse.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Monarch2
DJMadMax schrieb:
Zu guter Letzt noch dein Spruch betreffend DLSS (bzw. FSR/XeSS, ich setze das jetzt mal gleich).
Man nutzt dieses Feature nicht, wenn man "muss", sondern dann, wenn man es "will" - und nicht zwingend in Full HD, aber aller spätestens in WQHD, also 2560x1440 ist es eigentlich nicht nur ratsam, sondern fast schon PFLICHT, DLSS hinzuzuschalten! Nicht nur hat auch ComputerBase bereits mehrfach in Tests bewiesen und es deutlich benannt, dass DLSS oftmals nicht nur gleichwertige, sonder gar bessere Ergebnisse als interne Kantenglättung liefert, es spart auch noch Strom, produziert weniger Abwärme UND sorgt für einen rundum leiseren Betrieb bei höherer Performance. Was will man denn bitte noch?!
Das zwingend hättest Du fett machen müssen.

Hier wird von manchen DLSS beworben und dann als Beispiel WQHD oder 4K aufgeführt, dass passt aber nicht zu der getesteten Full HD-Karte.
Da hat man schon das Gefühl, das manche eher die Dividende ihrer Aktien verteidigen als objektiv zu sein.

Mich würde mal ein Test über die Bildqualität in Full HD mit DLSS 3 und FG im Vergleich zu den höheren Auflösungen interessieren bzw. ob das auch besser aussieht wie es bei WQHD der Fall ist.
DLSS 2 konnte mich bisher in Full HD nicht überzeugen.
 
  • Gefällt mir
Reaktionen: DJMadMax und Holgmann75
Lars_SHG schrieb:
  • weil man andere Prioritäten hat
  • weil man nicht mehr die Zeit hat
  • weil man auch nicht mehr die gleichen Interessen wie früher hat
  • weil Frau / Familie auch bespaßt werden will
könnte noch so weiter schreiben, ehrlich gesagt ist es aber so, dass man wenn man älter wird nicht mehr den Spaß so empfindet wie als junger Mensch. Ich habe als Jugendlicher extrem viel gezockt, heute quasi mal eine Stunde, oder mal ein Tag Siedlern im Urlaub.
Es fehlt die Zeit, die Lust und ehrlich gesagt komme ich mir auch manchmal blöd vor, vor dem Computer ein Spiel zu spielen.

BQ PB 500DX, BQ Pure Power 12M 850W, Intel 13600K, BQ Dark Rock 4, MSI Pro Z790-P, 32 GB DDR5-6000, RTX 4070 Palit Dual
 
Wolfgang schrieb:
[...]
Du verstehst temporales Upsampling nicht.
Im Endeffekt stehen mit DLSS 2 und FSR 2 sogar mehr Pixel als mit der nativen Auflösung für einen Frame zur Verfügung, da die Informationen der Pixel aus vorherigen Frames miteinbezogen werden. Darum sehen DLSS 2 und FSR 2 bei gleicher Renderauflösung auch eigentlich immer besser aus als mit TAA und gegenüber nativer Auflösung gerade in Ultra HD auch immer mal wieder (und mittlerweile fast schon öfter als eben nicht besser).
Kann ich nicht bestätigen, zumindest was FSR 2 angeht. Diablo 4 sieht nativ besser aus als mit eingeschaltetem FSR 2, und ich spreche aus eigener Erfahrung (also nicht irgendwo angelesen). Da meine Karte mit dem Erreichen einer akzeptablen Framerate auch bei nativer Auflösung keine Probleme hat, ist das meine Grafikeinstellung, und die empfehle ich auch für andere (bei gleichen Voraussetzungen).
Wie das in anderen Spielen aussieht, habe ich jetzt nicht weiter ausprobiert.
 
Zurück
Oben