killerpixel schrieb:
Bei Entwicklern, die sich für die Performance der Games nicht auf Upscaling und vor allem Fake-Frame Slop verlassen können. Dann bräuchten wir den ganzen Scheiß auch gar nicht.
Die Argumentation kannst du genauso auf neue Fertigungsprozesse und Grafikgenerationen ummünzen.
Denn hätte man die nicht gehabt, weil bei 100nm Schluss gewesen, hätten sich die Entwickler ja mehr Mühe geben und einfach 10 Jahre lang optimiert...
Nein ganz im Ernst. Ich kann es immer noch nicht glauben mit welch einer Arroganz Entwicklern immer dasselbe vorgeworfen wird, obwohl absolut keine Expertise vorhanden ist. Einfach eine Frechheit.
killerpixel schrieb:
Das wird absolut widerliches Spielen mit Input Lag des Todes und man wird in neuen Titeln keine Wahl haben, weil die alle wie Dreck laufen.
Der Input Lag ist auch nicht schlechter wie man früher gespielt hat. Aber früher war ja alles besser.
Dann spiel mal bitte ein Spiel von damals. Hoher Inputlag, Flimmer-Grafik, Verwaschene Texturen, Bildstabilität des Grauens im Gegensatz zu heutigen Techniken wie die DLSS Transformer Models. Das einzig widerliche ist deine Technikverdrossenheit.
RaptorTP schrieb:
Kleinere, dünnere, fragilere PINs können logischerweise nicht das doppelte mitmachen. Ganz einfach.
Dann zeige mir bitte die entsprechenden Messungen die deine Theorie belegen. (Die gibt es nicht)
Tatsache ist, das kann man durch eine höhere Qualität der Steckverbindung sehr wohl, wenn Weiblein und Männlein eine stabile und mit ausgleichendem Druck/Fläche versehene Kontaktfläche aufweisen, welche bei den alten Steckern viel größer aber viel weniger genau war.
RaptorTP schrieb:
kA wie man diesen Kernschrott supporten kann. Ein absolutes Trauerspiel.
Ich supporte das nicht, ich reagiere nur allergisch, wenn jemand mit Erfindungen um sich wirft und dann auf Nachfrage nie etwas konkretes liefert.
RaptorTP schrieb:
5070 Ti mit 16GB und 2x 8pin würde ich feiern. Aber Nvidia ist halt Nvidia.
Spielt absolut keine Rolle. Spar dir deine Verschwörungstheorien.