• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Gr33nHulk schrieb:
kein Day 1 Patch oder letzte Anpassungen
Oh doch der ist schon live. Nur die Review Keys vor dem 5-Tage Early Access hatten den Patch nicht.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Lamaan schrieb:
Interressant ist auch, wenn AMD schlecht abschneidet ist es AMDs Schuld
Weil in diesem Fall alle Beteiligten offen zugeben, dass unredliche Praktiken seitens AMD genutzt werden, was eine neue Stufe darstellt. Als AMD Besitzer sollte man es auf keine Fall wollen, dass sich Hersteller einkaufen bzw. rein-investieren müssen. Diese Millardenschlacht kann AMD gegen Nvidia gar nicht gewinnen. Ich kann mir auch nicht vorstellen, dass jemand mit einer AMD GPU gerne in der der Zukunft nur 3 von 10 Spielen normal spielen kann, weil die anderen Teile Nvidia "Investitionen" sind.
 
  • Gefällt mir
Reaktionen: CableGuy82
cyberpirate schrieb:
Also entweder hat CB und viel andre da eine Brille nötig oder manch einer spinnt einfach?
Ganz ehrlich die Screenshots in dem Test sind für mich alles andere als "grafisch ein überdurchschnittliches Spiel". ich lese das immer wieder nur warum sehen die Videos und Screenshots immer so scheiße aus
 
Weltenspinner schrieb:
Öhm, nicht wirklich.
AMD 7900 XTX
128.53 TFLOPS (FP16), 64.27 TFLOPS (FP32), 4.02 TFLOPS (FP64)
nVidia 4090
85.03 TFLOPS (FP16), 85.03 TFLOPS (FP32), 1.33 TFLOPS (FP64)
Du weißt schon das die meisten Spiele FP32 nutzen oder?
 
  • Gefällt mir
Reaktionen: MrHeisenberg, MeisterOek, xXBobbyXx und eine weitere Person
Bulletchief schrieb:
Mit Verlaub, aber man muss kein nvidia Fanboy sein, um bei dem Leistungsverhältnis zwischen 7900xtx und 4090 ein Problem zu sehen...
Konsumenten zu schaden ist gut, solange es [das andere Lager] trifft.

So oder so ähnlich könnte man viele Kommentare hier zusammenfassen.
 
  • Gefällt mir
Reaktionen: CableGuy82
Pandora schrieb:
Also soll AMD die eigenen Karten pushen, NV ausbremsen, aber für die eigenen CPUs vergessen sie diese "Optimierungen" dann ?
Das macht das ganze für mich irgendwo total unglaubwürdig, zumal es solche Performanceunterschiede bzw. Probleme eines Herstellers zu Release auch schon bei anderen Spielen gab.
CPU Optimierung ist Zeitaufwendiger, vielleicht keine Zeit gehabt. :D
 
CMozzarella schrieb:
kein komplett unspielbares Desaster wie Last of us ist.
The Last of Us war nicht unspielbar, es brauchte nur ganz zuerst abartig viel RAM sowohl von der Grafikkarte und auch vom System.
Habe das Spiel nach Erscheinen innerhalb 3 Tagen ohne Probleme durchgespielt und mich natürlich später über jeden Patch gefreut.

Und hier zum Thema Rollenspiele: Rollenspiele, ist das nicht per se langweilig?
Den Interessierten wünsche ich trotzdem viel Vergnügen.
 
Da hat AMD ja ganze Arbeit geleistet, um Nvidia-Nutzer möglichst schlecht dastehen zu lassen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, HansDetflefAndi und SirNiffler
also die grafik sieht aus als wäre es vor fallout 4 entwickelt. ich würde sogar sagen No mans sky sieht besser aus
 
GeleeBlau schrieb:
Weil in diesem Fall alle Beteiligten offen zugeben, dass unredliche Praktiken seitens AMD genutzt werden, was eine neue Stufe darstellt. Als AMD Besitzer sollte man es auf keine Fall wollen, dass sich Hersteller einkaufen bzw. rein-investieren müssen. Diese Millardenschlacht kann AMD gegen Nvidia gar nicht gewinnen. Ich kann mir auch nicht vorstellen, dass jemand mit einer AMD GPU gerne in der der Zukunft nur 3 von 10 Spielen normal spielen kann, weil die anderen Teile Nvidia "Investitionen" sind.
Also es wurde ganz sicher nicht gesagt, dass unredliche Praktiken verwandt wurden.
Es wurde gesagt das Geld geflossen ist.
Das Gleiche was bei jeder Entwicklung passiert.

Außerdem habe ich gute Gründe zu glauben, dass es in Zukunft öfter vorkommt, dass Nvidia seine treue Anhängerschaft im Regen stehen lässt.
Nvidia ist ein Börsennotiertes Unternehmen und sie haben schon oft bewiesen, Gewinn geht über alles.
Dafür haben sie sogar Apple verprellt.
Wenn jetzt woanders mehr Geld zu holen ist, wäre es das beste für alle, außer Nvidia, wenn man es schnell zu Kenntnis nimmt und entsprechend reagiert.
Damit kann man zukünftige Enttäuschungen vermeiden.
 
Ich werde mir dieses Spiel nicht kaufen.

Ich kann jetzt raten wo die 6800 non XT ist. Zwischen 6700XT und 6800XT sind 47 Prozent Unterschied.

Ich habe immer das Händchen Hardware zu kaufen, die nie in Benchmarks drin ist, und falls Sie drin ist, leider immer mit Raytracing

--

Man sieht halt wie grottenschlecht die NVIDIA und INTEL Hardware und Treiber als Paket sind.
Sieht man auch bei Intel - wie bei techpowerup gejammert wird, weil die INTEL Grafikkarten unbrauchbar sind.

Ich will Grafikkarten als Hardware mit open Source Treiber, die ohne Herumfrickeln und Pfuschen vom Hersteller sofort die Leistung bringen in jeglicher Anwendung, egal vom Betriebssystem.
 
Zuletzt bearbeitet:
Nah an der 6800XT jedenfalls näher als an der 6700 (XT)
 
Linmoum schrieb:
AMD CPUs, die bei der Performance Intel massiv hinterherhängen.
Seltsame Aussage in einem Spielebenchmarkartikel. Lese ich sonst Benchmarks aus einem Paralleluniversum und X3D-CPUs von AMD dominieren in der Spieleleistung in Wirklichkeit gar nicht?
 
GeleeBlau schrieb:
Auch das durch die Bank weg fast schon mit Absicht die GPU Power mancher Hersteller gebremst wird (Intel ARC läuft gleich gar nicht). Kann mir beim besten Willen auch keinen Reim daraus machen. 90% aller User bei Steam nutzen nun mal Nvidia. Wieso sollte man die alle mit Absicht vergraulen? Warum kann man nicht für alle 3 Hersteller einfach sauber optimieren?
Warum wohl? Nennt man Marketing. Und die meisten Konsolen nutzen AMD!
 
@cyberpirate du bist nicht der Nabel der Welt. Wenn du es nicht nutzten möchtest gut, wenn andere dies tun wollen, schön!

Es geht darum, entweder man haut Keines rein, oder Alle!
 
Zuletzt bearbeitet:
cruscz schrieb:
Seltsame Aussage in einem Spielebenchmarkartikel. Lese ich sonst Benchmarks aus einem Paralleluniversum und X3D-CPUs von AMD dominieren in der Spieleleistung in Wirklichkeit gar nicht?
sry, darauf etwas Ironie.
Sicher ist es so, dass Intel schneller sparsamer und günstiger als alle X3Ds ist.
Ironie aus
 
@cruscz
Also mir ist bis jetzt ein deutscher, großer CPU Benchmark zu Starfield bekannt. Der von PCGH. Dort wird ein 7800X3D selbst von einem 13600k abgehängt. Die fps sind trotzdem unter aller Sau, denn laut höchsten recommended specs soll ja ein 3300X/10600k völlig ausreichend sein. Das ist offensichtlich nicht der Fall
 
Naja die Engine ist uralt was erwartet man genau wie COD naja die UE5 ist jetzt auch nicht wirklich der Bringer echt traurig was dort am PC Markt so passiert.

Aber auch dort ist der Kunde selbst schuld wie so oft.
 
0mega schrieb:
Fakt ist, und das ist meine Kritik am Artikel, dass es sehr eindeutig nicht unter Optimierung fällt, sondern mit an Sicherheit grenzender Wahrscheinlichkeit völlige Absicht ist - auch dadurch belegt, dass Modder innerhalb eines Tages DLSS support einbauen.
Der "baut" kein DLSS ein, der ersetzt das Plugin von FSR mit DLSS. Das sind 2 paar Schuhe. Das Tool dafür ist dasselbe, der er schon für zig andere Spiele nutzte, da müssen allerhöchstens nur ein paar Zeilen Code umgeschrieben werden für Starfield.

AMD will ja auch Treiberseitig!!! FSR3 und Antilag+ in allen Spielen einbauen, bis Q1/24.
 
  • Gefällt mir
Reaktionen: MeisterOek
Zurück
Oben