News Alien: Isolation Benchmarks: 17 Grafikkarten im Vergleich

Danke für den Test und insb. dafür, dass auch alte Karten mitgetestet wurden!
Das Sahnehäubchen wäre jetzt noch die Skalierung mit nem AMD FX bei 2,3 und 4 Modulen und unterschiedlichen Frequenzen :)
 
Sicher das es damit zu tun hat das es ein portiertes Spiel ist? Watch Dogs ist es ja auch trotzdem kommt da Nvidia besser weg! Denn so viel ich weiß muss man eh alles neu Proggen da ja die API ausschlaggebend ist und die ist hier Total unterschiedlich auch wenn in beiden AMD steckt.
 
Zuletzt bearbeitet:
Das Sahnehäubchen wäre jetzt noch die Skalierung mit nem AMD FX bei 2,3 und 4 Modulen und unterschiedlichen Frequenzen
"Das Sahnehäubchen" ist GSync & NICHTS anderes ...^^

THX 4 Test & bei Sale_XY wird sicherlich mal zugeschlagen. Da freut sich heute schon die "DSR-Keule" ... ;-)
 
Was mir bei den ganzen Benchmarks immer fehlt sind die Werte der integrierten Grafikeinkeiten...z.B. exemplarisch könnte man die i7-4790K CPU aufführen und welche Werte deren Grafikeinheit erreicht ohne zusätzliche Grafikkarte.

Wäre sicherlich interessant für den ein oder anderen nicht regelmäßigen Spieler der seinen Rechner in der Regel für anderes einsetzt und deshalb keine extra Grafikkarte mehr besitzt - aber vielleicht durchaus nicht abgeneigt wäre sich das ein oder andere interessante Spiel zuzulegen sofern es zumindest halbwegs lauffähig ist auf kleineren Auflösungen.
 
Bei der Anzahl an verfügbaren Monitoren mit Gsync ist es wohl eher ein nettes Gimmick, wie Physx. Bin gespannt, ob es ein ähnliches Schattendasein fristen wird. Persönlich favorisiere ich eher Freesync, da offen. Günstigere 120hz Monitore wären auch ein Anfang.
 
CyberdyneSystem schrieb:
Wo habt ihr Rift gekauft? schon öfters gelesen das einige damit zocken aber bisher konnte ich kein Shop ausmachen:confused_alt::

Die Oculus Rift (DK2) ist weiterhin in Entwicklung und lediglich beim Entwickler direkt zu bekommen - und das auch nur, wenn ihnen deine Nase passt (zurecht). Man sendet seine Testsamples mit Bitte um ausführliche Rückmeldungen schließlich nicht an jede beliebige Person. Ein Bekannter von mir hat ebenfalls "Zugriff" auf eine (Bekannter vom Bekannten und so weiter und so fort ^^).

Er selbst kommt damit nicht klar, wird sofort "seekrank", seine Buddies hingegen sind hellauf begeistert davon.

Dass ein Survival-Horror wie Alien: Isolation damit geradezu psychosomatische Auswirkungen auf den Spieler haben muss, kann ich mir nur allzu lebhaft vorstellen. Da würde sogar ICH Alien: Isolation spielen wollen mit :)

@Wolfgang/CB:
Ich finde den Benchmark-Test BOMBIG!
Eure technische Einleitung zum Titel im Launch-Review ließ ja vermuten, dass das Spiel durchaus hardwarehungrig hätte ausfallen können, allerdings erwies sich das glücklicherweise als falsch.

Der Test beweist zudem, dass selbst eine "nur" mit 1,5GB ausgestattete GTX 580 (also eine 4 Jahre alte Grafikkarte!) selbst heute für Full HD immer noch ein absolutes Biest ist.

Cya, Mäxl
 
Schon interessant das bei 2560 x 1600 (Vorraussichtliche OR Auflösung) keine 80 FPS erreicht werden, selbst mit einer GTX 980. Bin ja gespannt wie die vorhandene Hardware bei Release von OR aussehen muss um sicher 90FPS zu erreichen bei ähnlichen spielen.

Auch jetzt wo 4k Monitore im kommen sind. Die Hardwarehersteller müssen echt mal noch gas geben ;)
 
750Ti und das richtige Genre spielen - spart viel Geld bei der Grafikkarten Wahl :D
 
Naja, ich hab die 4 Bilder mit 4fxx oder 2xff oder sonstwas betrachtet und muss sagen , dass ich scheinbar ein Mittelklassegrafikkartenkäufer bin, ich seh da nirgends einen Unterschied, lediglich will ich , dass die native Auflösung von 1080p erscheint. Kennt da wer einen Unterschied oder bin ich dafür zu blind?
 
@DJMadMax
danke für die Infos :)
----------------------------------------------
BTT:
Falls es wem Interessiert hier die Ergebnisse mit einem FX-8320(4GHZ) und einer HD-7870GHZ@Stock
AVG: 72,22FPS
MAX: 152,39FPS
Und die Min FPS kann man leider vergessen, weil anscheinend direkt im Ladezyklus (direkt nach nem Doppelklick) angefangen wird die werte zu messen und die belaufen sich bei ca. 20FPS im Internen Benchmark
Fraps zeigt mir folgendes als MIN frame an: 61,9FPS

Was ich mich jedoch frage ist, warum mir der Interne benchmark 152,39FPS als Max anzeigt?
Ich habe nebenbei immer Afterburner am laufen und laut dem und auch Fraps, war die Max frame bei 102FPS. Jemand ähnliche Erfahrung gemacht?
Es scheint so, als könne man den Internen benchmark unter Ulk verbuchen
 
Kampfferkel schrieb:
Schon interessant das bei 2560 x 1600 (Vorraussichtliche OR Auflösung) keine 80 FPS erreicht werden, selbst mit einer GTX 980. Bin ja gespannt wie die vorhandene Hardware bei Release von OR aussehen muss um sicher 90FPS zu erreichen bei ähnlichen spielen.

Auch jetzt wo 4k Monitore im kommen sind. Die Hardwarehersteller müssen echt mal noch gas geben ;)
Weist du... diese "Probleme" sind schon so alt, wie die Spielegeschichte am PC selbst.

Lass uns mal ca. 20 Jahre zurückgehen, als Duke Nukem 3D über den Schirm flimmerte. Das Spiel unterstützte in der Ur-Version bereits hohe VESA-Auflösungen. 640x480, wenn mich nicht alles täuscht! Das kurz darauf erschienene Shadow Warrior oder Redneck Rampage aus gleichem Hause ging sogar auf 800x600 und 1024x768. Quake - ja, das Ur-Quake - müsste, wenn ich mich recht entsinne, sogar out of the Box schon 1280x1024 im Menü anwählbar gehabt haben.

Das waren Auflösungen, die zu ihrem Releasezeitpunkt als absolut utopisch und selbst in ferner Zukunft nicht als realisierbar galten. Vor Allem ohne 3D-Beschleuniger, die gab es zu dem Zeitpunkt nämlich noch nicht wirklich - den nVidia NV1 zählen wir hier einfach mal nicht mit. Man bedenke, dass die meisten Menschen 14" bis 15" CRTs mit niedriger vertikaler Zeilenfrequenz (also auch einer niedrigen Auflösung bei adäquater Bildwiederholfrequenz) hatten.

Ein Pentium 90 mit 8 MB RAM mit einer wirklich schnellen 4 MB VESA-Grafikkarte (REINES 2D!) - etwa aktuell um Anfang 1995, wäre gerade ausreichend gewesen, um Duke Nukem 3D in 640x480 zu spielen - bei vielleicht 30-40 FPS!

Damals kostete ein solcher PC auch noch schnell 3.000 DeutschMark - ohne Monitor, versteht sich selbstredend.

Die ganzen Fragen, die du hier also aufwirfst mit der geforderten Performance und "wie zum Geier das nur irgendwie möglich sein soll", sind in 2-3 Jahren wohl wieder derart obsolet.

Zumal:
Man MUSS ja nicht zwingend mit 131072-fachem Anti-Aliasing spielen und auch nicht mit aktivierten Ultra-Todes-Schatten-of-DooM ... du verstehst? Wenn die Zeit gekommen ist, kann man die Grafik immer maxen, aber bis dahin passt man sich einfach der vorhandenen Hardware an. Ich persönlich bin noch NIE am Motzen gewesen, wenn ich mit aktueller Hardware nicht jedes Spiel auf höchsten Details flüssig spielen kann - und ich bin eigentlich immer sehr flott dabei gewesen - zum damaligen Release ein Voodoo2 SLI-System mit P2-300 konnte sich sonst kein Schüler aus den Rippen schneiden.

Ganz im Gegenteil! Ich freue mich doch, wenn ich den gleichen Titel ein paar Jahre später "wieder" spielen kann - diesmal auf dem neuen, moderneren System mit deutlich mehr Rechenleistung. Diese kommt dem Spiel und somit auch dem fast schon vergangenen Spielgefühl zu Gute, da die Grafik nun um einen deutlichen Sprung nach vorn verbessert wiedergespielt werden kann.

CyberdyneSystem schrieb:
@DJMadMax
danke für die Infos :)
----------------------------------------------
BTT:
Falls es wem Interessiert hier die Ergebnisse mit einem FX-8320(4GHZ) und einer HD-7870GHZ@Stock
AVG: 72,22FPS
MAX: 152,39FPS
Und die Min FPS kann man leider vergessen, weil anscheinend direkt im Ladezyklus (direkt nach nem Doppelklick) angefangen wird die werte zu messen und die belaufen sich bei ca. 20FPS im Internen Benchmark

Hast du mal einen direkten Restart des Benchmarks probiert? Gibt's in Alien: Isolation ne Console? Wenn ja, dann lässt sich der Loop dort auch starten, ganz sicher. Wenn er ingame erst einmal durchgelaufen und somit gepuffert ist, sollte es bei einem zweiten Lauf auch keine so bösen Ruckler mehr geben.

Allerdings:
Solche Anzeichen sind leider eindeutig für eine schlechte Programmierung (Stichwort: Precaching).
Darunter litt Crysis auch enorm, als es grafisch zwar Maßstäbe setzen konnte, performanceseitig jedoch ebenfalls nie Dagewesenes für sich beanspruchte.

Cya, Mäxl
 
schon ein erster WIN for DSR... denn auf der HD6950 mit 2x AA siehts wirklich nich toll aus was Flimmern und Kanten angeht...
Da stimme ich zu, Pradebeispiel für sinnvolles Roheistung verballern, das Game ist gerade zu prädestiniert dazu. Schade das es bei den Kepler Karten noch nicht offiziell im Treiber ist. Gibt viele die es deswegen nicht einschalten und somit viel Bildqualität verschenken.
 
ampre schrieb:
Sicher das es damit zu tun hat das es ein portiertes Spiel ist? Watch Dogs ist es ja auch trotzdem kommt da Nvidia besser weg! Denn so viel ich weiß muss man eh alles neu Proggen da ja die API ausschlaggebend ist und die ist hier Total unterschiedlich auch wenn in beiden AMD steckt.
Ich denke das hat damit zu tun, dass WD für alles rauskam, und da es auch noch von einem miesen Studio wie Ubisoft entwickelt wurde, konnte/wollte man aus Kostengründen nicht für eine Vielzahl von Plattformen gut optimieren und vor allem nicht für den PC, da hat man einfach Gameworks genommen und war froh über die erleichterte Arbeit.

Ryse hingegen ist ein Xbox One exklusives Spiel, es wurde also für diese Konsole optimiert und somit auch für GCN. Diese Optimierungen hat man dann für die PC Version übernommen ,weshalb GCN Karten durchgehend besser abschneiden. Klingt für mich plausibel und bin gespannt wie es weitergeht, wenn die alten Konsolen nach 8 Jahren ENDLICH vernachlässigt werden...😒

Ryse scheint tatsächlich die neue Grafikreferenz zu sein, Zitat pcgh
Crytek hat es wieder einmal geschafft und grafische Maßstäbe gesetzt. Und bei allen Kritikpunkten, die Ryse: Son of Rome für das anspruchslose Gameplay kassieren musste: Jeder Technik-Fan, jeder Grafik-Fetischist, ja jeder PC-Spieler sollte Ryse einmal in Aktion gesehen haben.

Wobei ich es schon seltsam finde, dass die dicksten Flaggschiffe 290(X), 780ti und 980 alle ziemlich exakt gleich schnell sind. Die 290X müsste doch definitiv deutlicher vor der 290 liegen, da limitiert ganz offensichtlich die CPU und es ist schade, dass Crytek Mantle nicht implementiert hat. Da ist man wohl davon ausgegangen, dass die Umsätze nicht berauschend sein würden und hat halt aus Zeit/Kostengründen darauf verzichtet.
Es wäre eigentlich toll , wenn AMD mal ein bisschen Kohle in die Hand nehmen und dafür sorgen würde, dass große Engines wie CryEngine und UE4 Mantle in die Engine integrieren würde, genau wie Frostbyte.
 
Zuletzt bearbeitet:
Alien Isolation ist seit langer Zeit ein Titel der mich von der Performance sehr überzeugt hat.Bei meiner HD 7950 werden bei den Auto Settings fast alle Optionen auf Anschlag gesetzt.Lediglich beim Aliasing Mode wird SMAA T1x gesetzt.Läuft aber auch ohne größeren Einbrüche auf T2x bei 1080p und Vsync auf 60Hz.

Das einzigste was mich im Spiel gestört hat war die Filmkörnung,deswegen habe ich diese deaktiviert.
 
Um das ganze mal in Relation zur Vergangenheit zu setzten, ist die Auswahl der Grafikkarte um ein vielfaches schwieriger, als noch vor einigen Jahren. Früher konnte man noch sagen, dass die Grafikkarte A aufgrund der besseren Architektur/Rohleistung schneller ist wie die Grafikkarte B. Mittlerweile gibt es durch Treiberupdates noch teils große Sprünge und auch die Leistung in diversen Spielen ist durch die Bank weg unterschiedlich.
 
Cris-Cros schrieb:
Persönlich favorisiere ich eher Freesync, da offen.

Da muss man schon etwas genauer unterschieden.

AMDs FreeSync nutzt einen offenen Standard Adaptive Sync, das optionaler Teil der neuen DisplayProt-Spezifikation ist, ist aber selbst eine propritäre AMD-Technologie. (AMD selbst nannte es seine "Secret Sauce".)

Adaptive Sync allein ermöglicht es noch nicht, (wie GSync) Frame- und Refreshraten in Spielen dynamisch zu synchronisieren. (Man kann es sich als eine zusätzliche "Signalleitung" im DisplayPort-Kabel vorstellen, über die man die Refreshrate des Displays einstellen kann.) Z.B. können ältere AMD-GPUs zwar Gebrauch von Adpative Sync machen, aber nur z.B. bei Videos automatisch eine passende, statische Refreshrate einzustellen, aber nicht für dynamische Anpassungen in Spielen.

Andere GPU-Hersteller müssten also erstmal ihre eigenen, auf Adaptive Sync basierenden Technologien entwickeln und in ihren GPUs und Treibern implementieren. Dann allerdings würden diese Technologien theoretisch mit allen Monitoren funktionieren, die auch FreeSync unterstützen.

Hier hat AMD für einige Verwirrung gesorgt, indem sie ausgerechnet den Teil ihrer Lösung, der nicht offen/frei ist, FreeSync genannt haben.

Und selbst wenn AMD freundlicherweise ihre "Secret Sauce" FreeSync anderen Herstellern offen legen würden, würde das wohl nur begrenzt nützlich sein, da es nur für AMDs (aktuelle) GPUs und Treiber ausgelegt ist. Es würde den Konkurrenten wohl einiges darüber verraten, wie AMDs GPUs und Treiber intern aufgebaut sind und funktionieren, aber für ihre eigenen müssten sie dann doch das meiste neu entwickeln.

Man verzeihe mir das Off Topic, aber zu diesem Thema gibt es einfach viele Missverständnisse. ;)
 
Erstmal danke für die Info!

Und selbst wenn AMD freundlicherweise ihre "Secret Sauce" FreeSync anderen Herstellern offen legen würden, würde das wohl nur begrenzt nützlich sein, da es nur für AMDs (aktuelle) GPUs und Treiber ausgelegt ist

Nvidia macht ja nichts anders. Derzeit gibt es ganze 5 Monitor mit Gsync, alle unverhältnismäßig teuer: http://geizhals.at/?cat=monlcd19wide&xf=99_18.5~103_NVIDIA+G-Sync#xf_top
Zwar gibt es Ankündigungen seitens der Hersteller, dieses Feature vermehrt einzusetzen, nur wissen wir leider alle was das in der Technologie Branche bedeutet...
Ich persönlich würde die Mehrkosten auch lieber in ein höher Aufgelöstes Display, oder in einer schnellere Grafikkarte investieren.
Das selbe gilt meines Erachtens für DSR. Ich würde es angenehmer finden, wenn die Entwickler ein solches Feature in die Engine einbauen, bevor es erst im Treiber aktiviert werden muss. Viele Anwender scheuen sich vor dem Menü des Grafiktreibers, weswegen es viele auch unberührt lassen. Hier im Forum sind eben hauptsächlich versierte Nutzer anwesend, weswegen hier ein anderer Eindruck vermittelt wird.

Wie oft haben AMD und Nvidia schon versucht mit exklusiven Features die Kunden anzulocken und wie oft hat es geklappt? Physx (tot), True Audio (noch nie gesehen), Mantle (nur bei sehr wenigen Titeln und dann mit häufigen Problemen).
 
Zurück
Oben