Pro_Bro
Commander
- Registriert
- Okt. 2001
- Beiträge
- 3.012
Ja mein Fehler, für die wäre es (vielleicht) eine bessere Option ja.Mimir schrieb:Doch, für AMD und Intel user auf jeden Fall.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ja mein Fehler, für die wäre es (vielleicht) eine bessere Option ja.Mimir schrieb:Doch, für AMD und Intel user auf jeden Fall.
Die Intel-Karten haben sehr viel Rohleistung, deshalb schneiden sie durchaus solide ab, besonders bei aktuellen Spielen.H6-Mobs schrieb:Dann erkläre uns bitte, warum Intel Grafikkarten auch so gut performen.
Wenn man mit Verschwörungen anfängt, dann sollte man auch seinen Verstand einsetzen und zu Ende denken.
Ganz ehrlich ich war bei Win 11 Auto HDR am Anfang auch skeptisch, aber es sieht bei vielen Spielen nicht verkehrt aus. Ich hatte sogar einige Titel, da war Auto HDR angenehmer als das im Spiel integrierte.BloodGod schrieb:Auto HDR?
5800x3d 32gb ram und ne rx6800 ist jetzt keine Kartoffel. Abgesehen davon zeigt der benchmark doch was los ist. rtx 3060ti gleichschnell wie ne rx6800xt.MrHeisenberg schrieb:Die Engine ist nicht Müll und eigentlich liefen alle Spiele bisher ganz gut. Ark 2 läuft bspw. besser als der erste Teil und sieht dabei auch noch fantastisch aus. Lords of the Fallen, Robocop, Tekken 8 und Remnant 2 laufen auch sauber.
Wenn du natürlich auf einer Kartoffel spielst und ein Grafikfeuerwerk bei 144 FPS+ erwartest, bist du das Problem und nicht die Engine.
Das ist allerdings nicht korrekt. Das letzte Werk von Don't Nod ist gerade mal ein paar Monate alt und war Jusant, ebenfalls ein UE5 Spiel, das dagegen schon Nanite und Lumen nutzte, mit super atmosphärischer Grafik.Der optische Fortschritt gegenüber Don't Nods letztem Werk Tell Me Why ist entsprechend groß
Na ja, ist halt eben Leistung auf Konsolen-Niveau.tusen_takk schrieb:Wunderbar, meine 6700 XT ganz unten zu sehen. 🏮
EXAKT das gleiche habe ich mir auch gerade gedacht! SIeht alles gleich ÖDE aus. Total langweiligApocalypse schrieb:Ich weiß nicht was es ist mit der UE5, aber die Spiele sehen "alle" aus als kämen sie aus dem gleichen Asset Shop ;-)
"Alle" wohlgemerkt und nicht alle.
Und was hat dieser Benchmark mit den restlichen Spielen zutun?Rainbowprincess schrieb:5800x3d 32gb ram und ne rx6800 ist jetzt keine Kartoffel. Abgesehen davon zeigt der benchmark doch was los ist. rtx 3060ti gleichschnell wie ne rx6800xt.
Einfach 10% von der TI S abziehen.Dirk aus F. schrieb:Schade, dass die 4070ti rausgefallen ist.....
Hmm, woran das wohl genau liegt?FabianX2 schrieb:Scheiden die AMD Karten bei anderen UE5 Titeln auch so schlecht ab?
Gibt es dafür auch Quellen? Unreal Spiele laufen auf AMD Karten sehr gut.duskstalker schrieb:ja, das ist tatsächlich so. nvidia hat sich vor einiger zeit dick mit partnerschaften bei EPIC eingekauft und die unreal engine ist seitdem mehr oder weniger die hausengine von nvidia.
Im Computerbase Parcour sind 9 Unreal Spiele enthalten. Das Performancerating mit nur Unreal Spielen sieht in WQHD so aus. Ganz wenige Ausnahmespiele? Kann nicht korrekt sein.duskstalker schrieb:nvidia ist locker seit 10 jahren in der unreal engine ungeschlagen. nur ganz wenige ausnahmespiele laufen auf radeonkarten vergleichbar gut.
Die 4070 Super hat die gleiche Bandbreite wie die RTX 4070 Ti, insofern ist dein Argument unzutreffend.blackiwid schrieb:Zumal Nvidia auch gerne mit RAM Speed zu kämpfen hat, gerade die 4070 super ist da ein Rohrkrepierer.
Nvidia kann offenbar besser mit der Bandbreite haushalten.blackiwid schrieb:Btw selbst die 4080 super hat nur 736gb das ist selbst weniger als die 7900xt hat aber die immer noch deutlich billigere XTX hat 960GB/S.
Wundert mich nicht, da es die beliebteste Engine am Markt ist und Entwickler zufrieden sind.Rainbowprincess schrieb:keiner will halt so recht einsehen, dass die engine eigentlich Müll ist.
Bei Immortals of Aveum war das nicht der Fall, im Gegenteil, laut Steam Rezensionen soll Nvidia sogar häufig crashen, während ich mit meiner alten 6900XT absolut keine Probleme hatte.FabianX2 schrieb:Scheiden die AMD Karten bei anderen UE5 Titeln auch so schlecht ab?
remnant 2 läuft hier auch nicht "gut". Schafft in 2560*1440 keine 60fps auf einer 6800xtMrHeisenberg schrieb:Und was hat dieser Benchmark mit den restlichen Spielen zutun?
Und deswegen interessiert mich nicht ein einziges davon. Da spiele ich lieber meine "grottenhässlichen" Morrowinds und Gothic 1s. Da darf mein Hirn wie beim Buchlesen noch ein wenig mitarbeiten und sich die vielen Tiefen und Schichten "hinter" der Welt vorstellen.Apocalypse schrieb:Ich weiß nicht was es ist mit der UE5, aber die Spiele sehen "alle" aus als kämen sie aus dem gleichen Asset Shop ;-)
"Alle" wohlgemerkt und nicht alle.
Lesen und verstehen - es ging um die generelle Performance - selbst auf AMD ist die voll i.O. - das bedeutet nicht dass der Unterschied zwischen AMD und nVidia in Ordnung ist.Rainbowprincess schrieb:deswegen ist eine rtx3060ti so schnell wie eine rx6800xt
WQHD/Midrange-Karte von 2020. Da sollte man schon erwarten, dass man jetzt ein paar Regler bedienen muss für Spiele aus 2023/24.Rainbowprincess schrieb:Egal welches Spiel, eine rx6800xt schafft in 1440p nie die 60fps.
Dein Bewertungsmaßstab ist aber wenig nachvollziehbar, denn die Spiele mit anderen Engines bieten auch nicht mehr FPS. Wer in 4K nativ immer mehr als 60 FPS möchte bekommt diese oft nur mit Upscaling, selbst auf einer 4090. Die Entwickler pumpen die freigeschaufelte Leistung in die Grafikqualität und damit kann deine Bewertung so nicht funktionieren. Die FPS Höhe muss in Relation zur Grafikqualität stehen.Rainbowprincess schrieb:unterm strich sehe ich also hier durch die bank weg die selbe ranzige Leistung dieser engine. Egal welches Spiel, eine rx6800xt schafft in 1440p nie die 60fps.
Wenn dem so wäre, dann müssten die 4070er aber massiv auf Speicher OC ansprechen, was nicht der Fall ist. Hatte eine Asus Dual hier, die ging ohne Probleme auf +2000Mhtz beim Speicher, was in über 600 GB/s die Sekunde mündet, ergo rund 20% mehr Bandbreite! Das bringt nur stellenweise ein bisschen was. Die 4070Ti Super hat auch eine wesentlich höhere Bandbreite und wie hoch ist der Geschwindigkeitsunterschied? Skaliert viel mehr mit den Recheneinheiten. Die Bandbreite spielt eher eine untergeordnete Rolle und die Größe des L2 Caches ist wichtiger.blackiwid schrieb:gerade die 4070 super ist da ein Rohrkrepierer. Die 4070 Super hat nur 504 GB/s Bandbreite die 7900xt hat 800GB/s und selbst die 7800xt hat 624 GB/s.