• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Notiz Technik-Tipp: Capslock-Taste verkürzt Ladezeiten in XCOM 2

Vor allem ist es ja nicht so, als dass XCom-2 während der "Lade"phase durchgehend die Festplatte/SSD rattern läßt.
Der Datenzugriff ist hier bei mir (SSD) minimal.
Und selbst die CPU-Nutzung ist während dieser Zeit gering.
Was macht also der PC zwischenzeitlich?
 
für mich die wichtigste Meldung der Woche :)
funtioniert leider nur nach der Mission, aber immerhin. Abstürze hatte ich deswegen jedenfalls keine.

XCom2 ist sehr gelungen, bin schon in der zweiten Runde. Allerdings häufen sich merkwürdige Bugs, wenn man keine Verbindung zu my2k ingame aufbauen kann bzw. die Fehlermeldung dazu nicht abwartet.
 
azurlord schrieb:
Ist genau mein Kritikpunkt. Gerade die Ladezeiten zu Missionen und dann Zurück zur Basis, beides im Skyranger sind extrem hoch. Unverständlich sind sie besondern dadurch, da das direkte Laden von gespeicherten Missionen deutlich schneller geht (mindestens Faktor 3), was einfach nicht zusammen passt.

Dass die erste Ladezeit zur Mission länger ist als das Laden einer gespeicherten Mission ist allerdings logisch. Beim ersten Laden müssen ja die Karten erst erstellt werden. Die sind ja dieses Mal nicht fest, sondern werden aus kleineren Teilen generiert. Dafür braucht es natürlich Rechenleistung und entsprechend Zeit. Beim Laden eines gespeicherten Spielstandes muss nichts mehr generiert werden, sondern nur noch die bekannten Daten wieder abgerufen. Das geht natürlich schneller.
 
Arjab schrieb:
Die Quelle ist die Herkunft einer Information. Der verlinkte Beitrag ist aber lediglich eine Antwort auf wiederum einen Beitrag eines anderen Benutzers im XCOM-Forum, der sich auf Reddit bezieht. Also wäre die Quelle Reddit.
Nennt' mich Klugscheißer, ich nenne das korrektes journalistisches Arbeiten.

Ließ es oder lass es...
Auch die erste Quelle ist meist nicht der liebe Gott.
 
Fragger911 schrieb:
Roflmao... Marketing, ick hör dir trapsen.
Mit den hohen Hardwareanforderungen haben ALLE Nutzer zu kämpfen - wer das Spiel nicht hat, hat auch keine Beschwerden.
Und solche Offensichtlichkeiten wie lange Ladezeiten zeigen sich nicht in der Testphase? Wer versucht hier wen auf den Arm zu nehmen?

den Titel zukünftig mit Updates pflegen"
Wie jetzt, hätten sie es ohne dieses Fehlverhalten, man könnte auch sagen Bug, nicht getan und verrotten lassen?

Äh ...
1. Ich habe mit einer GTX 970 keinerlei Probleme mit diesem Spiel. Full HD, sehr hohe Details, weit über 60 FPS. Also haben nicht ALLE Nutzer damit zu kämpfen. Idioten haben damit zu kämpfen, weil sie nicht wissen was sie einer Grafikkarte zutrauen können. GTX 970 aber 4k mit sehr hoch spielen wollen? Nein ... GTX 960 und Full HD auf Ultra verlangen? Nein ... Man bekommt was man bereit ist zu investieren. Wer nicht in den PC investiert, der möchte doch bitte auf Details verzichten.
2. Als aufmerksamer Leser hättest du erkennen können, dass es sich dabei nicht um ein nBug handelt, sondern das das Laden ganz normal abläuft. Caps-Lock kann hier eher als der Bug angesehen werden, da er Abstürze verursachen kann.
 
Plitzkrieg schrieb:
Idioten haben damit zu kämpfen, weil sie nicht wissen was sie einer Grafikkarte zutrauen können. GTX 970 aber 4k mit sehr hoch spielen wollen? Nein ... GTX 960 und Full HD auf Ultra verlangen? Nein ... Man bekommt was man bereit ist zu investieren. Wer nicht in den PC investiert, der möchte doch bitte auf Details verzichten.

Stimmt die Performance ist State-of-the-Art auf meinem GTX 980 SLI in 4k. - Schoen wärs. Für das was das Spiel Graifsch bietet ist die Performance unterirdisch. Und wen interessieren 60fps bei Full HD? Das MUSS defakto flüssig laufen. Sonst hätte man ja völlig am Markt vorbeiprogrammiert.
Du willst mir also sagen, dass ich bei einem Spiel wie Xcom in 4k medium - high mit 1000€ Grafikkartenleistung und 6 Kernen (12 Threads) auf 4,3 GHZ gefälligst zu tolerieren habe, dass da nur 30 - 60fps gestottere ankommt?
Stimmt man benoetigt jetzt anscheinend 3 500 Euro Grafikkarten um Spiele in 4k flüssig spielen zu können die grafisch eher mittelmäßig sind.
Selbst Tomb Raider und Rainbow Six Siege liefern da ein flüssiges Ergebnis. Oder das mitlerweile etwas angestaubte Battlefield 4 läuft in 4k mit 100FPS wenn man auf AA verzichtet.
Es ist spielbar - mehr aber auch nicht.
 
Lowman schrieb:
Stimmt die Performance ist State-of-the-Art auf meinem GTX 980 SLI in 4k. - Schoen wärs. Für das was das Spiel Graifsch bietet ist die Performance unterirdisch. Und wen interessieren 60fps bei Full HD? Das MUSS defakto flüssig laufen. Sonst hätte man ja völlig am Markt vorbeiprogrammiert.
Du willst mir also sagen, dass ich bei einem Spiel wie Xcom in 4k medium - high mit 1000€ Grafikkartenleistung und 6 Kernen (12 Threads) auf 4,3 GHZ gefälligst zu tolerieren habe, dass da nur 30 - 60fps gestottere ankommt?
Stimmt man benoetigt jetzt anscheinend 3 500 Euro Grafikkarten um Spiele in 4k flüssig spielen zu können die grafisch eher mittelmäßig sind.
Selbst Tomb Raider und Rainbow Six Siege liefern da ein flüssiges Ergebnis. Oder das mitlerweile etwas angestaubte Battlefield 4 läuft in 4k mit 100FPS wenn man auf AA verzichtet.
Es ist spielbar - mehr aber auch nicht.

Komische Logik. Bei einem 3 Jahre alten Spiel ist es vollkommen okay Abstriche machen zu müssen damit es flüssig läuft, aber bei einem Topaktuellen Spiel ist es nicht okay Abstriche machen zu müssen?

Seit wann sind 30-60 FPS in einem RUNDENSTRATEGIESPIEL nicht ausreichend? 90% der Spielzeit hast du eh nahezu ein Standbild vor dir!

Hast du schon mal dran gedacht, dass es andere Kriterien gibt als den puren Preis einer Komponente die etwas limitieren kann? Selbst ein 4fach SLI würde 4k nicht mit X-fach AA flüssig darstellen können, ungeachtet des Spiels. 2 Fach Sli von 980Ti`s hat immernoch nur 6GB Ram! auch nen 10fach Sli hätte nur 6GB Ram!

Das ist das Ergebnis, wenn zuviel Geld auf zu wenig Sachverstand stößt!
 
Rainbow Six Siege und Rise of the Tomb Raider sind 3 Jahre alt? Und ja auch für ihre grottenschlechte Grafik bekannt. LESEN HILFT.

Zuviel Geld? Wie kommste darauf.
Sachverstand? Pff...
Ich spreche nicht von "Abstrichen" und meinen Satz "Wenn man auf AA verzichtet" hat das Genie auch überlesen.
ICH spreche davon, dass das Spiel ohne erkennbare Bottlenecks hakelt und zuckelt. Nichts VRAM Grenze.

Wenn Du schon meinst darauf zu Antworten, dann lies doch was der Vorredner geschrieben hat.
 
Lowman schrieb:
Rainbow Six Siege und Rise of the Tomb Raider sind 3 Jahre alt? Und ja auch für ihre grottenschlechte Grafik bekannt. LESEN HILFT.

Zuviel Geld? Wie kommste darauf.
Sachverstand? Pff...
Ich spreche nicht von "Abstrichen" und meinen Satz "Wenn man auf AA verzichtet" hat das Genie auch überlesen.
ICH spreche davon, dass das Spiel ohne erkennbare Bottlenecks hakelt und zuckelt. Nichts VRAM Grenze.

Wenn Du schon meinst darauf zu Antworten, dann lies doch was der Vorredner geschrieben hat.

Offensichtlich meinte ich BF4 mit 3 Jahre alt ... und AA deaktivieren ist sehr wohl ein Abstrich.

Ein Abstrich den du bei BF4 gerne eingehst, aber bei XCOM 2 nicht einmal in Betracht ziehst. Das Spiel hat einen Bottleneck und den hab ich dir schon beschrieben. Es ist der VRAM! 8 Millionen Pixel, das ganze noch 8 Fach geglättet ... und die Texturen müssen auch irgendwo hin!

Mensch, wie komm ich nur auf den Gedanken du hast zuviel Geld, aber nicht den nötigen Sachverstand? Kann es vielleicht dadran liegen, dass dein einziges Argument dadraus bestand wie teuer deine Grafikkarten waren? Nach dem Prinzip "Je mehr Geld ich gegen den Bildschirm schmeisse umso mehr FPS bekomm ich"!

Als nächstes muss ich dir wohl auch noch erklären wieso deine CPU sogar ein Bottleneck für dein Gesamtsystem darstellt? Ach lass uns nicht damit anfangen, will nicht das du anfängst zu weinen wegen dem schönen weggeschmissenem Geld :)
 
Okay... ein Fortschritt. Du hast offensichtlich schonmal besser gelesen. Nun liesst Du Dinge die dort nicht stehen:

Das Spiel hat einen Bottleneck und den hab ich dir schon beschrieben

Wo?

Es ist der VRAM! 8 Millionen Pixel, das ganze noch 8 Fach geglättet ... und die Texturen müssen auch irgendwo hin!

Wo habe ich was von 8x AA geschrieben?
Ich schrieb
Spiel wie Xcom in 4k medium - high mit 1000€ Grafikkartenleistung

Ich lese da Medium und nichts(!) von 8x AA. Was Dir als Full HD Spieler nicht bekannt sein dürfte ist, dass AA bei 4k nur noch von sehr geringem Nutzen ist.

Aber ich kann dir auch gerne deinen Quatsch von davor noch zerlegen wenn ich schonmal dabei bin:

Hast du schon mal dran gedacht, dass es andere Kriterien gibt als den puren Preis einer Komponente die etwas limitieren kann?

Noe eigentlich nicht. Mir ist auch Rätselhaft warum Du auf den 1000€ beharrst. Das war eine Unterstzünde Aussage zu meiner ENTRÜSTUNG, dass sowas banales wie X-Com auf 2x GTX 980 nicht anständig läuft.
Ich hätte an die Stelle auch wieder 2x GtX 980 SLI packen köennen. Aber A steht es bereits oben im Post:

Stimmt die Performance ist State-of-the-Art auf meinem GTX 980 SLI in 4k. - Schoen wärs.

Und B auch nochmal in meiner Signatur.

Nach dem Prinzip "Je mehr Geld ich gegen den Bildschirm schmeisse umso mehr FPS bekomm ich"!

Wo steht das?


Als nächstes muss ich dir wohl auch noch erklären wieso deine CPU sogar ein Bottleneck für dein Gesamtsystem darstellt?

Das musst Du in der Tat - kannst gerne nochmal in deiner ComputerBild nachschlagen.

Kann es vielleicht dadran liegen, dass dein einziges Argument dadraus bestand wie teuer deine Grafikkarten waren?

Nein.
Argumente waren:
Tomb Raider und Rainbow Six Siege liefern da ein flüssiges Ergebnis
anm. in 4k
Spiele wie XCOM... grafisch eher mittelmäßig sind.
Battlefield 4 läuft in 4k mit 100FPS wenn man auf AA verzichtet
wer braucht zwingend AA in 4k
Es ist spielbar (XCOM)- mehr aber auch nicht

90% der Spielzeit hast du eh nahezu ein Standbild vor dir!

Ahja... wieder so ein Tür ist offen Argument. Die Spielerfahrung ist natürlich gleich und es ist völlig egal wie ein Spiel läuft.

So... Nirgends steht ULTRA... nirgends steht 8xAA und überhaupt hättest Du Dir das ganze Getrolle auch getrost sparen können.
Natürlich kann man ja auch gleich persönlich werden - viel besser.
Das ist das Ergebnis, wenn zuviel Geld auf zu wenig Sachverstand stößt!
Stimmt ich habe bestimmt nur zuviel Geld das erklärt sowieso alles. Sowieso sind alle mit vergleichbaren Systemen Deiner Meinung nach wohl Idioten. Zum Beispiel ComputerBase Redakteur Volker Risska
https://www.computerbase.de/autor/volker.risska/

der in einem Artikel zum 5820k schrieb:
"Der Tipp für den normalsterblichen Anwender mit Sechs-Kern-Ambitionen ist allerdings der Core i7-5820K.

Der kleinste „Haswell-E“ markiert für 350 Euro den Einstieg in die neue Plattform. Dabei bietet er dieselbe Leistung wie das letztjährige Flaggschiff Core i7-4960X – bei geringerer Leistungsaufnahme und für 500 Euro weniger. Was wie ein Schnäppchen klingt, erhält durch die hohen Kosten für die Plattform in Form von X99-Mainboard und DDR4-Speicher allerdings noch einen Dämpfer."

Spielt ja auch keine Rolle ob man die Kiste evt. beruflich nutzt. ^^

"Mama der hat einen anderen Rechner als ich aber aber... ich hab doch den besten und klügsten Rechner das ist alles Mist was die Anderen haben"

Sorry aber mehr konnte ich da nicht lesen.

Je mehr Geld ich gegen den Bildschirm schmeisse umso mehr FPS bekomm ich

Die Frage ist ob man das muss. Irgendwann war es aus meiner Sicht mal genug. Aber wo ist der Fehler in diesem Motto? Ich habe es nicht. Behauptet habe ich es auch nicht. Falsch ist es auch nicht.

Tante Edith: Auszug aus Nvidia Release Notes:
Test System Configuration:
Intel Core i7 5930K
Asus X99 Deluxe
16GB memory
Win 8.1 x64
Performance gains comparing driver 347.25 to 347.52 and normalized using the latest game patches.

Aber bei Nvidia arbeitet auch Niemand der etwas davon versteht. Hätten die bloß dich vorher gefragt.

https://www.techpowerup.com/reviews/Intel/Core_i7-5960X_5930K_5820K_Comparison/7.html

Enough lanes for triple and quad SLI (not 5820K)

Bei Techpowerup scheint man von der Materie auch keine Ahung zu haben... melde dich da doch bitte.
Habe ich ein Tripple SLI? Wohl nicht.
 
Zuletzt bearbeitet:
Pass mal auf du DAU, allein die Tatsache, dass du denkst 500€ Graka + 500€ Graka = 1000€ Grafikleistung zeigt wie absolut wenig Ahnung du überhaupt hast.

Zu deinem Volker Risska ... der redet von "normalsterblichen Anwendern" ... ein normalsterblicher Anwender hat kein SLI aus 2 Highend Grafikkarten ... dafür würde er dir nämlich den 5930k empfehlen ;)

Wieso das so ist darfst du selber versuchen rauszufinden. Vielleicht findest du ja einen schönen Artikel auf Computerbase ...

Edit: Das Zitieren üben wir auch noch mal :)
 
Wenigstens denke ich... Danke für das Kompliment.
Weil der 5930k das doppelte kostet für Lanes die ich für 2 Grafikkarten gar nicht benötige? Hallelujah. :)

Wie jetzt in JEDEM deiner Posts kommt da nicht ein Argument. Wie willst Du das sonst denn sonst Rechnen? In Rubel? Gibts da einen Standardisierten Faktor im Verhältnis zum SLI Scaling? Hast Du eine Tabelle dafür geschrieben?


Wie auch bei Techpowerup beschrieben lohnt sich ein 5930k nur für 3x SLI Systeme. Warum brauche ich den für 2 Karten?

Hast du für irgendetwas von dem was du so erzählst einen Link? Einen Beleg? Ausser blabla und Beleidigungen?

Wieso das so ist darfst du selber versuchen rauszufinden
Hui jetzt bin ich aber wirklich schlauer vielen Dank für diese Erleuchtung.
ein normalsterblicher Anwender hat kein SLI aus 2 Highend Grafikkarten

Wer hat das auch ... WO ... behauptet?

Tante Edith:
Noch ein schöner Link zum PCI-E Scaling:
http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/17.html

(natuerlich wieder aus der "unseriösen Quelle" Techpowerup) :)
 
Lowman schrieb:
Tante Edith:
Noch ein schöner Link zum PCI-E Scaling:
http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/17.html

(natuerlich wieder aus der "unseriösen Quelle" Techpowerup) :)

Bravo, du schaffst es Quellen so zu manipulieren, dass sie das von dir gewünschte Ergebnis präsentieren :) Gratuliere, du hast es geschafft die Seite aufzuschlagen, die am wenigsten Profit für x16 gegenüber x8 aufzeigt. Muss man dir lassen.


Ansonsten macht deine Aussage hinsichtlich 5930k und 3 fach SLI keinerlei Sinn, da bei einem 5820k 3x SLI mit 8x8x8x läuft ... und da 8x ja keinen Nachteil gegenüber 16x hat bringt auch in diesem Fall ein 5930k keinerlei Vorteile. Irgendwie machst du dir selbst deine Argumente kaputt :/


Und nein, ich meine nicht, dass du in Rubel rechnen sollst, sondern dass

1. Allein die Annahme € wäre eine Angebrachte Art und Weise Grafikleistung zu berechnen ist dämlich
2. Zu denken SLI ist eine einfache Addition der Leistung (1+1=2) ist noch dämlicher
 
Zurück
Oben