jk1895
Banned
- Registriert
- Juni 2013
- Beiträge
- 1.337
Ja, ne, ist klar. Ich habe mich schon gewundert wo dieses ausgelutschte "Argument" bleibt. 🤣Maxxx800 schrieb:Viele nutzen GPUs nicht nur zum Zocken
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ja, ne, ist klar. Ich habe mich schon gewundert wo dieses ausgelutschte "Argument" bleibt. 🤣Maxxx800 schrieb:Viele nutzen GPUs nicht nur zum Zocken
Wär schon sinnvoll. Bei mir hat übrigens auf einem Laptop mal ein brandneues Win10 im Edge mit Vega 8 bei Youtube geruckelt. Kann also am Browser liegen.Wolfgang schrieb:Mhm. Wenn etwas Zeit ist, muss ich mir das dann wohl nochmal angucken.
S.Kara schrieb:Und was will man sehen wenn man sich einen Benchmark zu einem Spiel ansieht? Die Rohleistung oder die Leistung in dem Spiel?
.Sentinel. schrieb:DLSS gehört zur Rohleistung der Karte, weil dafür eine zusätzlich in Hardware gegossene Einheit vorhanden ist, die das berechnet.
Weil es bis jetzt immer so war bei den Diskussionen. Sobald einem die Argumente ausgehen wird gesagt, dass voll viele am Rendern sind, hoch komplexe und komplizierte Berechnung daheim anstellen. Darum ist AMD immer die bessere Wahl, auch wenn man nur alle 10 Jahre mal etwas Größeres packen will und es dann statt 10 Minuten eben nur 5 Minuten dauert. So auch jetzt, unbedingt auf PCIe Gen. 4 pochen, weil Gen. 3 viel zu langsam ist für die Vielen, die nicht nur zocken.Maxxx800 schrieb:@jk1895 was ist da ausgelutscht? Es ist eine Tatsache.
jk1895 schrieb:...So auch jetzt, unbedingt auf PCIe Gen. 4 pochen, weil Gen. 3 viel zu langsam ist für die Vielen, die nicht nur zocken....
Objektiv getestet, würde man mit PCIE 4.0 testen, da kommender, neuer Standard. Stellen wir uns mal eine andere Situation vor:gunmarine schrieb:Hauptsache AMDbase ist glücklich, dass 1 Intel wieder weniger in einem System rumgeiert. Für einen objektiven Test zur Leistungsfähigkeit der Karten muss einfach ein 9900 K(S)/10900K mit wenigstens 3200er RAM als Basis genommen werden. Und wegen PCI-E 4.0 könnt ihr immer noch seperat testen wie groß der Unterschied tatsächlich ist.
Ist der Vertrag mit Intel und Nvidia ausgelaufen ?gunmarine schrieb:Hauptsache AMDbase ist glücklich,
Ein GPU Benchmark sollte man möglichst fern eines CPU Limits durchführen da sind die paar Prozent Differenz beider Platformen doch ziemlich egal. Ohnehin sind die absolut erzielten Frames peng, der relative vergleich ist das interessante.jk1895 schrieb:Darum bin ich der Ansicht, dass ein bis zum Anschlag übertaktetes 10900k-System meine, weil sinnvollere, Wahl wäre für Grafikkarten-Benchmarks.
Ich denke die Frage kann man sich mit Zen3 dann sparen.DriveByFM schrieb:@GERmaximus
Jo, danke. Hatte ich wirklich überlesen. 😂
Die Frage ist nur was bringt mehr, AMD mit PCIE4.0 oder ne Intel CPU mit PCIE3.0.
Bin echt gespannt was dabei rauskommt.
schnellste CPU
PCIe 4.0
KlaraElfer schrieb:Der 3900x OC dürfte aber die CPU aus dem Testsetup sein, wo auch der RAM optimiert ist.
Der OC 10900K läuft mit 2933 oder?
Eine coole Technik in der Testmethodik zu etablieren ist also gefährlich?Glyphus schrieb:DLSS ist eine coole Technik .. Aber am Ende als eines der deutschen Tech-Leitmedien, diese dann doch etwas tendenziöse Testmethodik zu etablieren halte ich für gefährlich.
Technologien kommen und gehen.... Manche etablieren sich (Software PhysX) und manche überholen sich aufgrund der Hardwareentwicklung zu unified shadern selbst (Hardware Physx).Wie war dein Standpunkt zu PhysiX? Sollte auch immer damit gebencht werden obwohl es bei ATI nur Legacy lief und die FPS stark einseitig zu Gunsten eines Herstellers verzerrt hat?
Wird sie auch nicht- Sondern durch ein neues Featureset auf einer dedizierten Einheit, die mal eben eine zusätzliche Rechen- Peak- Performance von 312 TFLOPs FP16 und Teilmengen zur Verfügung stellt.Der Begriff der Rohleistung ist hierbei (auch von mir) nur äußerst schwammig gewählt. Die Leistung einer Turing/ Ampere GPU wird ja nicht magisch durch DLSS erhöht.
Aha- Und jetzt? Muss man jetzt dann auch alle Rastereffekte der Grafikkarten deaktivieren, weil sie ja "nur" darauf basieren einfaches und schlechtes Ausgangsmaterial mit "Tricks" in irgendwas präsentables zu verwandeln?Man schafft es eben "nur" durch Verringerung der Auflösung und geschicktes sampling die Ausbeute (FPS) und damit ja die Effizienz der vorhandenen Rohleistung zu erhöhen.
War vielleicht etwas harsch geschrieben von mir. Ich habe nichts dagegen auch etwas unbekanntere Titel zu benchen und bei der Anzahl fällt ein einzelner Titel ja auch nicht so ins Gewicht. Trotzdem fällt Trackmania auf weil es wirklich kein weit verbreitetes Spiel ist, die Engine nichts besonderes kann und eben eindeutig auf Nvidia optimiert wurde.Wolfgang schrieb:Mhm, Trackmania scheint ja richtig beliebt zu sein hier
Naja, vielleicht hat das Spiel dann nur einen eher kurzen Auftritt und fliegt bei der nächsten Überarbeitung wieder raus.
jk1895 schrieb:Ja, ne, ist klar. Ich habe mich schon gewundert wo dieses ausgelutschte "Argument" bleibt. 🤣
Colindo schrieb:Immerhin 13,5% "andere Auflösungen", von denen die meisten UWQHD haben werden. .
Anhang anzeigen 964887