News Thief im Grafikkarten- und Prozessor-Test

Naja, man sollte vielleicht nicht nur Texturqualität betrachten, sondern auch die Frage, ob der Spieler unbedingt sowas wie SSAA braucht oder ob er, wie ich, mit schnödem Sparsed grid Multi Sampling und schnöder 8x AF zufrieden ist. Wenn man mal von sehr sehr wenigen Ausnahmen absieht (und Starcraft 2 ist nach meinem Empfinden keine, solange man nicht nen völlig überladenen Tank-Rush mit tausend Einheiten versucht), reicht mein Athlon II x4 640 (3 GHz K10 ohne L3-Cache) mit 8 GiB RAM und einer billigen Radeon HD 5770 1 GiB Karte locker aus. Ich habs mit Thief noch nicht probiert, aber Dishonored ist jetzt technisch nicht so viel schlechter und da hab ich nicht eine Szene mit merkbarem Framedrop erlebt.

Nach dem, was man im Artikel so liest, scheint der Athlon II x4 mit 3 GHz ja auch für Thief voll auszureichen.

P.S.
Mein Monitor hat eine Auflösung von 1680*1050 - weiß nicht, wie sehr das jetzt Füllrate spart, aber mehr Füllrate als ne 5770 haben aktuelle Mid-Range-Karten ja, wenn man sich die Listen bei Wikipedia mal so ansieht, auch nicht. Die Oberklasse hat doppelt so viel Füllrate, hatte sie in der Radeon HD 5000 Serie aber auch schon.
 
Zuletzt bearbeitet:
Ich gehe nur von NV high End aus, bei AMD bekommt man ja schon seit 6900 ausreichend Vram mit ohne einen Cent extra bezahlen zu müssen. Des weiteren sind die kleinen Versionen ja nicht so auf mehr Vram angewiesen, weil die Rohleistung fehlt. Ich hoffe Maxwell bekommt wie klein Kepler dann eine preiswerte Vram Option wie die 4GB 680. Zur Zeit sieht es bei NV im High End echt übel aus.

Und den Vram Krüppel Status bekommen nur Karten die ohne Mods schon überlaufen, guggst du hier, alles schon 1000 mal durch: https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/

Einer 780 TI 3GB wird wohl nächstes Jahr der Vram ausgehen oder eben in 2, einer 290X 4GB nicht. Wartet mal ab, wer da zuletzt lacht. Es werden wieder AMD Käufer sein. Die können Thief mit ihren 2GB HD 6900er ohne Vram Nachladeruckler aufdrehen, die lachen euch aus weil sie zusätzlich noch weniger dafür bezahlt haben.

Als nächstes gibts aber 680 2GB v. 7970 3GB. Und ich kann euch heute schon sagen wer da als Sieger hervorgeht. Und wieder haben AMD Käufer zusätzlich weniger dafür bezahlen müssen, mehr zu bekommen. In dem Fall mit Mantle und DX 11.x ne ganze Hausnummer.

Edit: Computerbase News ist raus, hier geht weiter mit Mantle v. DX; AMD v. NV: https://www.computerbase.de/news/grafikkarten/microsoft-will-directx-deutlich-beschleunigen.44061/
 
Zuletzt bearbeitet:
mcsteph schrieb:
CB hat genau die gewählt wo Nvidia bes. gut da steht.
Ah ja, genau. Das das einfach ziemlich gängige Standardeinstellungen sind klann natürlich nicht sein.

Und nicht so ein Blödsinn mit "TI MAX".
CB ist ja auch der Meinung ein Schalter umlegen ist das Gleiche wie in einer Software rumfummeln;-)
1. Wo schreiben sie das?
2. In Software gehts schneller als in Hardware. Der Schalter ist ja nicht mal an der Slotblende. In der Zeit bekomm ich noch die Software installiert. ;)
Ergänzung ()

Morrich schrieb:
Die AMD Karten haben überhaupt nicht das Nachsehen gegenüber NVidia. Man darf die Karten nicht einfach nur so vergleichen, sondern muss da eben auch die anderen Parameter wie bspw. den Preis mit betrachten.
Kann es sein dass du das irgendwie falsch verstehst? Hier wird nicht gesagt, die Nvidia-Karten wären alle besser sondern nur, dass sie im Vergleich zum Rating hinter Nvidia abfallen.
Die 280X ist im Schnitt so schnell wie ne GTX770. Hier aber etwas lansgamer.

Der Preis hat hier rein gar nichts zu suchen. Das ist ne rein technische Betrachtung und keine Kaufempfehlung.
 
Kasmopaya schrieb:
...
Und den Vram Krüppel Status bekommen nur Karten die ohne Mods schon überlaufen, guggst du hier, alles schon 1000 mal durch: https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
...
Ohne Mod auch bei schnödem 4x MultiSampling? Ich tu mich grad schwer, den 28 seitigen Sammelthread danach zu durchforsten - im Eröffnungspost ist jedenfalls von sowas nicht die Rede, aber von "8xAA" und vom Leistungsfresser schlechthin "SSAA"
 
....i5-2500k@4.4Ghz....4 Kerne
- wenn ich 2 Kerne raus nehme ändert es nichts an den fps ! (weder im Benchmark noch ingame)
- mit 1 Kern laggt es in jedem fps bereich
 
Zuletzt bearbeitet: (was bleibt ist die Warheit....)
interner Benchmark, 1080p alles max, 2600k @4.5Ghz, GTX 580:

SSAA aus:
avg.: 52.7
max.: 75.5

SSAA low:
avg.: 44.1
max.: 67.8

SSAA high:
avg.: 36.7
max.: 56.6

optisch kein großer Unterschied zwischen SSAA low/high zu sehen. min. Werte leider unbrauchbar vom Benchmark, vielleicht patchen sie es ja wie bei Tomb Raider nach.
 
Zuletzt bearbeitet:
Kartenlehrling schrieb:
Ja bitte,
besorgt euch ein i3-4330 und nimmt ihn in euere Test immer mit rein,
ich glaube das dieser 105€ 2/4 Intel CPU viel zu wenig Beachtung bekommt.


Ich zitiere mich mal selber ....
schon beeindruckend wie sehr so ein 105€ 2/4 Intel CPU eine AMD FX 9590 5,0ghz !! schlecht aussehen läst.


http--www.gamegpu.ru-images-stories-Test_GPU-Action-Thief_-test-proz.jpg
 
Hm eigentlich sollte SSAO stimmen, Screen Space Ambient Occlusion. Wir wäre es neu, dass man SSAA auf Low und High stellen kann. SSAA wäre ja normalerweise 2x, 4x usw...just my 2 cent.

Edit:
Just blAzE.´ schrieb:
CPU: Q9450@3.6GHz

Average FPS = 38.5.
Max FPS = 68.5.

Da ist mein System doch schon gut am ende. Der Prozessor scheint mir vollkommen überfordert mit dem Spiel, trotz der guten 1 GHz übertaktung.
Vielen Dank für den Anhaltspunkt, weiß ich ja schon, worauf ich mich einstellen kann. Wobei ichs immer noch kaum glauben kann/will, wenns heißt, das Thief kaum Anforderungen an die CPU stellt.

@Kartenlehrling: Die Werte kommen mir schon fast gewürfelt vor, oder wieso kann sich ein 2500K bzw. 4670K von einem 2600K und 4770K absetzen? Hieße ja schon fast, dass sich hier HTT wiedermal negativ auswirkt, was ja ein Wiedersprich zu einer auf Multithreading optimierten Engine steht.
Ich fänds schade, sollten die FX hier wirklich so schlecht abschneiden, aber vllt ists ja genau deshalb ein Mantle Spiel.
 
Zuletzt bearbeitet:
Die CPU-skallierung von CB benchmark zeigt es doch auch, 4x echte Core sind am besten und reichen eigentlich schon.

Die Werte kommen mir schon fast gewürfelt vor,
oder wieso kann sich ein 2500K bzw. 4670K von einem 2600K und 4770K absetzen?
Das könnten auch Messfehler sein, aber grob sieht man trotzdem was zählt.



r4yn3 schrieb:
Hm eigentlich sollte SSAO stimmen, Screen Space Ambient Occlusion.
Mir wäre es neu, dass man SSAA auf Low und High stellen kann.
SSAA wäre ja normalerweise 2x, 4x usw...just my 2 cent.
Settings_02.png
 
Zuletzt bearbeitet:
Ja stimmt schon, verwundert mich dennoch. Vllt nimmt Eidos Montreal dazu mal Stellung, bzw wird da was gepatcht. Wäre schon bedenklich wenn mit den ersten Bulldozer FX das Spiel quasi unspielbar wäre.

@Kartenlehrling: Vielen Dank für die Info :)
 
Zuletzt bearbeitet:
Mal ne doofe Frage aber wofür steht bei den Prozessortests dieses 2K, 3K, 4K? Die Auflösung ja eher nicht und was anderes fällt mir da nicht ein. Außer RAM vielleicht... Entschuldigt bitte meine Unwissenheit.
 
Steht doch da .... die Russische GameGPU.ru Seite und
bevor noch einer sagt das man dieser Seite nicht glauben kann techspot.com kommt aufs gleiche Ergebnis.
 
Zuletzt bearbeitet:
Ich sag ja nicht dass man dem Test nicht glauben kann, jedoch steht er im ziemlichen Wiederspruch vom PCGH Test: http://www.pcgameshardware.de/Thief...ehen-Sie-ohne-Ruckler-auf-Diebestour-1110793/
Ob da der integrierte Benchmark wirklich so viel mehr auf die CPU schlägt? Fragt sich halt dann auch, ob die interne Benchmarkszene repräsentativ fürs Spiel ist, oder nicht.
Ebenso bei Techspot. Bei PCGH wird geschrieben, selbst ein Phenom X6 der mit nur 4 Kernen läuft, reicht völlig aus, bei Techspot ist der X6 aber am unteresten Ende im Testfeld, mit katastrophalen FPS.

Auch wenns keiner Beachtung geschenkt wird, wäre es toll, würde Computerbase dem vllt nachgehen.

Edit: Naja ok, im Techspot Artikel steht zumindest "Thief's built-in benchmark appears to do a good job of demonstrating a worst-case performance scenario,".
Also kann man zumindest zuversichtlich sein, dass man die FPS vom Test im Spiel mindestens erreicht.
 
Zuletzt bearbeitet:
PCGH.de glaub ich auch nicht alles, die haben in der letzte Zeit eine menge Mist gebencht,
vorallem wenn sie ihre "Praktikaten" auf die Test loslassen.

Du kannst ja Thief für 22€ bei mmoga.de kaufen und
uns sagen ob dein 4/4 intel Core2Quad auch soo abstinkt wie bei PCGH,
mir sind leider 25€ für das Altmetallsammelspiel schon zuviel.

Nach dem was ich zusammengetragen habe ist für max fps am besten ein 4/4 intelcore 2 - 4 generation >3,5ghz ,
der "teuere" 6core Intel gewinnt ja auch nur durch sein Cache-Speicher und vielleicht seiner Ram-Speicheranbindung.
Aber wir können ja schon froh sein das ein UE-3.5 Spiel 4 Kerne/threads unterstützt,
für vollen Multi-Thread ist der Spielemarkt noch nicht bereit.
 
Zuletzt bearbeitet:
Nach BF4 ist es das zweite Spiel was die 3GB VRAM randvoll schaufelt bei 5040x1050 in maximalen Settings. Leider sind die Texturen trotzalledem nicht auf schönstem Niveau.

http://www.youtube.com/watch?v=wZL3_EEcZzQ

Schmerzhaft auch die Schatten, daran reisst man sich schnell die Klamotten kaputt:
 

Anhänge

  • thiefschatten.jpg
    thiefschatten.jpg
    430,8 KB · Aufrufe: 463
Zuletzt bearbeitet:
@Kartenlehrling

Interessant & das ist ja z.T. "shocking für FX-User". TECHSPOT´benchte mit der Vers. 1.0 & PCGH?
Weiss da jemand näheres?


edit:
@Cat Toaster
Schönes Vid & ich warte auf einen 5-10€ Sale.^^
 
Zuletzt bearbeitet:
Zurück
Oben