• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Borderlands 3 im Test: Claptrap läuft zum Start noch nicht ganz rund

sialickiz schrieb:
Nehmen wir mal Crysis 3 ! Jeder der sich für eine Vega entscheidet, wird denken das die GPU nicht das geringste Problem hat mit dem Spiel.

Die wahrheit sieht aber anders aus :
https://pclab.pl/art76453-5.html (The Root of All Evil)

Es ist praktisch unspielbar auf Vega
Die ungeschönte Wahrheit bzw. die Fakten und das vermisse ich hier bei CB, ganz ehrlich ! Sorry, aber mich überzeugen eure Benchmarks einfach nicht, zu unkritisch und unglaubwürdig ! Das sind meine beobachtungen hier.

Das ist wie bereits erwähnt lediglich meine Meinung.
wolfgang@
Ja, man sollte auch im Overhead benchen und nicht nur im GPU-Limit. Das steht bei den problemen die AMD im CPU-Limit hat doch ausser frage, siehe Crysis 3 (root of all evil)
Vorbildlich das man zwei unterschiedliche szenen gebencht hat und nichts beschönigt bzw. schönredet
Ich liebe solche seiten, aber so ehrlich sind leider die wenigsten.

....solche extremen patzer leistet sich Nvidia nie. Das ist nunmal Fakt !

Zu den Frametimes!
Ob neu oder alt spielt keine rolle :
https://pcper.com/2019/01/nvidia-geforce-rtx-2060-review-part-one-initial-testing/4/
https://pcper.com/2019/07/nvidia-geforce-rtx-2060-and-2070-super-review/

GTX1080FE zeigt in den meisten Spielen wie zb. Shadow of the Tomb Raider deutlich bessere resultate als RX64 ASUS STRIX Gaming.

...deswegen habe ich das auf CB angesprochen !
Ich kenne ca. fünfzehn Tests die Frametimes-messungen durchführen und rx64 verliert in allen tests in den grossteil aller spiele, oftmals sehr deutlich.
 
Zuletzt bearbeitet:
Der Test war gut aber der thread macht traurig. Ich glaube ich bin zu alt.
 
  • Gefällt mir
Reaktionen: mealtman, Stuxi, HardRockDude und eine weitere Person
@sialickiz

pcper - mach dich nicht lächerlich.

google mal ryan shrout - du wirst rausfinden, dass der jetzt bei intel arbeitet, nachdem er schon eine gute weile die whitepaper für intel geschrieben hat, während er noch chef bei pcper war. der typ hat so viel dreck am stecken, was journalistische arbeit angeht, du kannst alles, was der in der hand hatte, sofort in die tonne kloppen, da bezahlte werbung. hier gabs auch einige enthüllungen von einem dafür bekannten tech youtuber.

wenn du hier anhand von zahlen argumentieren willst, dann nimm die von hw unboxed / techspot, optimalerweise mit spielen, die nicht aus 2015 sind, und artikeln, die ebenfalls nicht aus 2015 sind.

hier wurden 4 grafikkarten getestet - jeweils 2 current gen und 2 last gen.

vega 64 vs 1080 und 5700 xt vs rtx 2070. jeweils der gegner im selben preis und performance segment.

die 2070 super hat den tu104 und ist quasi eine 2080 und daher auch ein gutes stück teurer. die karte, die die 2070 ersetzt, ist die 2060 super - die dinger sind quasi identisch. so gesehen steht nvidia mit der 2070 statt der 2060 super noch besser da, weil die nämlich 3,4,5% schneller ist.

ich bin immer direkt dabei, wenns darum geht, hier die methodik zu kritisieren - aber die vorwürfe von wegen "amd-base" weil wolfgang die 2070 statt 2070 super bencht sind absolut hanebüchen. nvidia hat 4 grafikkarten, die preislich um die 5700 XT herumschwirren - und die 2070 super ist dabei von allen am weitesten weg und die 2070, ups ich meinte natürlich 2060 super - so heißt die ja jetzt, oder? - ist halt am nächsten dran. der kampf in dem segment findet zwischen navi 10 und tu 106 statt.

dich stört doch nur, dass die 5700 xt oben in der tabelle ist, solange die anderen gpus noch nicht gebencht wurden :evillol:
 
  • Gefällt mir
Reaktionen: Iapetus, failXontour, Casillas und 4 andere
sialickiz schrieb:
Das neuste Spiel wo das problem sich sehr stark bemekrbar macht in vielen szenen ist Beyond Two Souls,
Der einzige Benchmark den ich gefunden habe, ist der hier:
821176


Also ich würde mal sagen das Spiel ist schlicht und einfach grottig portiert mit einer Vega64 auf dem Niveau einer 750Ti. Da würde ich eher mal Richtung Nvidia schauen, wer denn an dem Port von technischer Seite aus beteiligt war. Denn diese Werte sind nicht mal mehr mit einseitiger Optimierung zu erklären.

Das gleiche bei deinem Crysis 3 Beispiel, wir erinnern uns doch nur zu gerne an Crysis 2 zurück, wo Nvidia überall versteckte Tesselation eingebaut hat, nur damit die AMD Karten ohne ersichtlichen Grund in manchen Gebieten total einbrechen. Würde mich nicht wundern, wenn das hier ein ähnlicher Fall ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iapetus, mealtman, Celinna und 2 andere
Ich kenne ca. fünfzehn Tests die Frametimes-messungen durchführen und RX64 verliert in allen tests in den grossteil aller spiele gegen GTX1080, oftmals sehr deutlich. Es würde den thread sprengen und deswegen werde ich die vielen seiten nicht verlinken, findet ihr schon alles selbst wenn es euch interessiert.
 
@sialickiz könntest du bitte deinen Account löschen? Du bist anscheinend nur auf Stunk aus und so wie ich das von dir lese, bist du kein CB Fan also wäre es evt. besser, wenn du die auf den anderen ca. fünfzehn Seiten tummelst, die es "RICHTIG" messen.
 
  • Gefällt mir
Reaktionen: Iapetus, mealtman, Celinna und 5 andere
Taxxor schrieb:
Der einzige Benchmark den ich gefunden habe, ist der hier:
Anhang anzeigen 821176

Also ich würde mal sagen das Spiel ist schlicht und einfach grottig portiert mit einer Vega64 auf dem Niveau einer 750Ti. Da würde ich eher mal Richtung Nvidia schauen, wer denn an dem Port von technischer Seite aus beteiligt war. Denn diese Werte sind nicht mal mehr mit einseitiger Optimierung zu erklären.

Das gleiche bei deinem Crysis 3 Beispiel, wir erinnern uns doch nur zu gerne an Crysis 2 zurück, wo Nvidia überall versteckte Tesselation eingebaut hat, nur damit die AMD Karten ohne ersichtlichen Grund in manchen Gebieten total einbrechen. Würde mich nicht wundern, wenn das hier ein ähnlicher Fall ist.

Beyond nutzt Vulkan und Gameworks ist für das Spiel ein fremdwort.
Crysis 3 war AMD Evolved bzw. für AMD optimiert.
https://www.computerbase.de/forum/t...rt-noch-nicht-ganz-rund.1893701/post-23117487

Hitman Absolution, Sleeping Dogs, AVP, Grid Autosport und viele weitere Titel waren auch AMD evolved und trotzdem hat rx64 nicht den hauch einer chance gegen GTX1080.
Wie erklärst du dir das ? Es liegt nicht an NV sondern meistens an GCN, überleg mal kurz wie alt die Architektur ist.
Ihr könnt doch nicht ständig wenn AMD verliert mit dem Finger auf andere zeigen. Das ist unheimlich naiv und kindisch, wirklich.



821179



821180


821181


https://www.tweakpc.de/hardware/tes...ounders_edition/benchmarks.php?benchmark=grid


Hitman Absoultion

COD MW Remastered ist zb. sehr neutral, trotzdem gibt es diese starken Ausreißer auch hier.


RX480 ist eigentlich immer on par mit der konkurrenkarte GTX1060 und dann kommt eine neuer Abschnitt und AMD bricht komplett ein.
GTX1060 ist hier um fast 100% schneller, 60FPS unterschied !!

Die szene wurde nie gebencht und die meisten denken das beide GPU´s gleich schnell sind in diesem Spiel. Nein, nicht der fall, ganz im gegenteil !
Das geht mir bei AMD tierisch auf die nerven weil ich einfach konstanz vermisse. Es ist mir aber auch klar das man von GCN nicht mehr allzu viel erwarten sollte ! GCN ist alt.
Das hat mit Gameworks und NVIDIA nichts zu tun und ich finde es immer schade das viele direkt die schuld bei nvidia suchen oder bei den entwicklern.
Nein, dass stimmt nicht und einige sollten es versuchen endlich zu begreifen.

Eigentlich müsste man jedes Spiel komplett durchspielen und erst dann die benchmark-szene auswählen. Das ist aber extrem zeitaufwendig und deswegen macht das keiner. Ich habe dafür selbstverständlich Verständnis.

Es gibt aber seiten die zwei komplett verschiedene szenen benchen, manchmal sogar drei.
Das ist wie ich finde sehr lobenswert.

AMD und NVIDIA bauen tolle karten aber ständig irgendwelche ausreden wenn es auf karte A bzw. B nicht rund läuft etc., nicht schön

Ein bisschen mehr objektivität und neutralität würde dem Forum hier echt gut tun.
 
Zuletzt bearbeitet:
sialickiz schrieb:
Beyond nutzt Vulkan und Gameworks ist für das Spiel ein fremdwort.
Und diese Werte erklärst du dir mit einem Problem im Overhead? Wo sogar ein Ryzen 3 1200 noch die 60fps bei den ganzen Nvidia Karten schafft, ohne irgendwie zu limitiern und sich auch bei den AMD Karten zwischen dem 1200 und den 9900K OC nichts verändert.
 
  • Gefällt mir
Reaktionen: Thraker
Eventer schrieb:
Auf Konsole scheint die Technik auch noch nicht wirklich rund zu laufen
Da ist abber leider auch ganz normal.
 
sialickiz schrieb:
Hitman Absolution, Sleeping Dogs, AVP, Grid Autosport und viele weitere Titel waren auch AMD evolved und trotzdem hat rx64 nicht den hauch einer chance gegen GTX1080.
Wie erklärst du dir das ? Es liegt nicht an NV sondern meistens an GCN, überleg mal kurz wie alt die Architektur ist.
Ihr könnt doch nicht ständig wenn AMD verliert mit dem Finger auf andere zeigen. Das ist unheimlich naiv und kindisch, wirklich.
Und wie erklärst du dir, dass es trotzdem viele Spiele gibt, wo die GCN Karten gleichstark sind oder auch mal stärker als der Nvidia Gegenpart? Das sind alles Fälle, wo ordentlich für beide Seiten optimiert wurde.
Dort wo es nicht so ist, lässt es sich auf die Engine und die Entwickler zurückführen, die eben nicht für GCN optimiert haben. Was man ihnen beim Marktanteil der GCN Karten aber halt auch nicht wirklich verübeln kann.
 
Taxxor schrieb:
Dort wo es nicht so ist, lässt es sich auf die Engine und die Entwickler zurückführen, die eben nicht für GCN optimiert haben.

Wenn ein spiel Architektur A stark bevorzugt , dann kannst du optimieren bis du schwarz wirst ! Architektur B bleibt langsamer.
 
Halbwegs moderne Engines laufen in dem oben verlinkten Test ganz normal.(habe jetzt nur in 1440p geschaut)

Division, RoTR@DX12, Hitman 2016@DX12, Dirt, Wildlands, F1 2015, DeusEx, For Honor, FCPrimal etc.
Ich habe das Gefühl sialickiz ist etwas "Farbenblind". Er sollte mal bitte wie jeder Andere die Blider nur als Anhang posten. Das zumüllen des Threads mit BIG-Pic´s ist net schön.
Deswegen sind seine Argumente net automatisch besser.(weil größer)

Und ne 3dC-ExcelTabelle wo alle Schrotttester(x) gleich zählen für den Durchschnitt ist wohl ganz offensischtlich witzlos.
(x) Treiber+Hardware+ ...Szene =CPU-Limit+Partikellimit+ Tesselation etc.; Ref vs. Custom; FE vs. Ref etc.
Wer bezahlt = bestimmt das Ergebnis.
Ungefähr genauso sinnvoll wie Superposition 4k optimized mit 32 Lichtquellen als defered.
Man kann net wg. einer Szene mit Limit sagen, das AMD net nutzbar wäre, lässt sich bei den Gamesettings leicht ändern.
Oder man nimmt einfach mal TrixxBoost mit 85%, das bringt bei den meisten Games ca. 30% mehr Fps.(in 4k)
Habs mal mit im MemoryTweak-Thread als nützliches Tool zum Probieren erwähnt.
News - AMD Memory Tweak: Speicher-Timings auf AMD Radeon in Windows anpassen| Seite 9 | ComputerBase Forum
Das ist nützlich für Spiele ohne interne Auflösungsskalierung.

Für B3 am besten das Startvideo umbenennen/löschen:
https://www.overclock3d.net/news/so..._spashs_screens_-_reduce_initial_load_times/1

Nach m.E. macht Wolfgang einen guten Job, weiter so.

btw.
Gaming Evolved muss net automatisch ATI-favored sein.
AMD unterstützt auch manchmal Devs hinsichtlich der CPU. (Multithreaded)
 
Zuletzt bearbeitet:
sialickiz schrieb:
Wenn ein spiel Architektur A stark bevorzugt , dann kannst du optimieren bis du schwarz wirst ! Architektur B bleibt langsamer.
Wenn es das Spiel selbst ist, dann liegt es klar an der Optimierung.

Wenn es die Engine des Spiels ist, dann kann das schon sein, wobei BL3 ja hier gerade die Ausnahme dieser Regel zeigt. Die Unreal Engine läuft normalerweise schlecht mit GCN Karten, hier ist es aber sehr ausgeglichen.
Was zeigt dass selbst eine für GCN suboptimale Engine mit ordentlicher Optimierung trotzdem gut laufen kann.
 
Habe nun etwa 6 Stunden gespielt. Läuft wunderbar rund, bisher ist mir kein Bug aufgefallen. Ich spiele mit DirectX 11 in Full HD und habe durchweg 60 fps. Es macht verdammt viel Spaß und hat das Gameplay im Vergleich zu Borderlands 2 an vielen Stellen sichtbar und sinnvoll verbessert, ohne die Kernelemente zu verändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaRealDeal, just_fre@kin und Bummi
Läuft bei mir genau so wie es soll, meist zwischen 80 und 100 FPS alle Regler auf rechts und WQHD.
 
Moin.

Ich habe volles Verständnis dafür, wenn Leute Bugs und schlechte Performance kritisieren. Aber die Cel Shading-Optik, die sicher nicht jedermanns Sache ist, gehört einfach zum Stil des Spiels. Es ist eben nicht fotorealistisch, und will es auch nicht sein. Wenn man dies nicht mag, lässt man das Spiel halt im "Regal". Easy.

Ich habe btw nichts gg Epic, auch wenn der Store lange nicht in der Steam-Liga spielt. Ich habe die nächsten Monate einfach keine Zeit, deshalb werde ich im Q1 wohl auf Dampf zuschlagen.

Viel Spaß allen Release-Käufern. :)
 
  • Gefällt mir
Reaktionen: HageBen und Darken00
duskstalker schrieb:
ich bin immer direkt dabei, wenns darum geht, hier die methodik zu kritisieren - aber die vorwürfe von wegen "amd-base" weil wolfgang die 2070 statt 2070 super bencht sind absolut hanebüchen

Da machst du es dir aber sehr einfach!

Das Wolfgang eine rote Brille angezogen ist etwas tiefgründiger und leider nicht zu übersehen..... Ich fasse es mal kurz zusammen...…
821215


Es gab zum Releasetag der 2070S und 2060S Karten nicht einmal eine Notiz! Dafür gab es einen Artikel über zum August angekündigten AMD Partnerkarten.

Seit dem ist folgendes passiert...
https://www.computerbase.de/2019-08/sapphire-radeon-rx-5700-xt-pulse-test/
https://www.computerbase.de/2019-09/xfx-radeon-rx-5700-xt-raw2-test/
https://www.computerbase.de/2019-09/xfx-thicc2-raw2-ultra-specs/
https://www.computerbase.de/2019-08/msi-radeon-rx-5700-xt-gaming-foto/
https://www.computerbase.de/2019-08/radeon-rx-5700-xt-185-watt-custom-vergleich/
https://www.computerbase.de/2019-08/sapphire-radeon-rx-5700-pulse-handel/
https://www.computerbase.de/2019-08/powercolor-radeon-rx-5700-test/
https://www.computerbase.de/2019-08/powercolor-radeon-rx-5700-xt-red-devil-test/
https://www.computerbase.de/2019-08/xfx-radeon-rx-5700-xt-thicc2-test/
https://www.computerbase.de/2019-08/radeon-rx-5700-xt-custom-vorschau/
https://www.computerbase.de/2019-09/asrock-rx-5700-xt-taichi-x-8g-oc-plus/
https://www.computerbase.de/2019-09/msi-radeon-rx-5700-xt-gaming-x-test/
https://www.computerbase.de/2019-09/amd-radeon-rx-5700-xt-sapphire-nitro-im-handel/
https://www.computerbase.de/2019-08/asus-radeon-rx-5700-xt-strix-test/
https://www.computerbase.de/2019-08/radeon-rx-5700-xt-asus-rog-strix-oc-tuf-gaming-x3/
https://www.computerbase.de/2019-08/radeon-rx-5700-xt-custom-design/
https://www.computerbase.de/2019-07/asrock-rx-5700-xt-challenger-custom-navi/
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-custom-designs-msi/
https://www.computerbase.de/2019-05/amd-navi-custom-rx-5700-august/
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/
https://www.computerbase.de/2019-07/amd-radeon-rx-5700-xt-preise-gesenkt/

In der selben Zeit hat man es "geschafft" die jeweilige FE zu "testen" und einen Test von eigentlich zwei uninteressanten Partnerkarten zu machen.
https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/
https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/
https://www.computerbase.de/2019-07/gigabyte-geforce-rtx-2070-super-gaming-oc-test/
https://www.computerbase.de/2019-07/geforce-rtx-2060-super-gigabyte-gaming-oc-palit-js/

Nicht AMDbase? Erzähle bitte keinen Schwachsinn!

Willst du irgendwelche Informationen, Vergleiche oder Tests zu den aktuellen Nvidia Karten musst du auf andere Magazine ausweichen oder versuchen in alten Tests zu RTX2070 (bei 2060S) oder RTX2080 (zu RTX2070S) zu wühlen und daraus Rückschlüsse zu ziehen, in der Hoffnung das man an dem Kühlsystem nichts verändert hat.

Solche Tests wie der zu Borderlands bringen das Fass dann endgültig zum überlaufen. Die Konkurrenz zu einer 5700XT ist die 2070S und nicht die 2070 und die Konkurrenz zu einer 5700 ist die 2060S und ja genau deshalb weil Nvidia es so sagt und die Karte so positioniert und nicht weil sie gerade preisgleich oder nicht sind.

Wenn NVidia meint mit 80% Marktanteil und RTX ist deren Karte nun mal mehr Wert als der AMD Gegenpart, dann ist dem so. Letztlich kann der Kunde selbst entscheiden, ob er diesen Aufpreis bereit zu bezahlen ist. In jedem Test aber bereits ein Jahr alte und nicht mehr hergestellte Karten von Nvidia zum Vergleich zu nehmen, ist aber weit von jeglicher Neutralität zu sehen und genau diese erwarte ich von einem Magazin und keine versuchte Marktbeeinflussung.

Wenn Kollege RYZ3N die Seite mit Berichten über sein "Lieblingskind" überschüttet, dann ist dem so, von ihm erwarte ist keine Neutralität. Dummerweise halte ihn mittlerweile weit neutraler als Wolfgang, mal abgesehen davon, das sein Schwerpunkt nun mal AMD Berichterstattung ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ctrl
Ich denke für mich wird das Spiel auch eher vom Grabbeltisch interessant.

Aber wir haben in diesem Thread mehr über die Ignorefunktion gelernt, als über BL3, finde ich. Manchmal sollte von dieser Gebrauch gemacht werden, das könnt viele "Diskussionen" erübrigen.

Danke für den Test, wie immer!
 
  • Gefällt mir
Reaktionen: max0x und elkechen
Zurück
Oben