• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox One: 10 Prozent mehr GPU-Leistung nach Kinect-Aus

Hackedicht schrieb:
^^ Die Erhöhung der GPU-Leistung hat, wenn ich das richtig sehe, aber nichts mit dem Wegfall von Kinect zu tun. Die hierfür reservierten Ressourcen bleiben belegt.

Okay, muss mich korrigieren.

UPDATE 10.25pm: Microsoft has confirmed that this boost in performance is in fact due to Kinect being stripped from the package. When asked if the two were related, a Microsoft spokesperson sent Eurogamer the following response:

"Yes, the additional resources allow access to up to 10 per cent additional GPU performance. We're committed to giving developers new tools and flexibility to make their Xbox One games even better by giving them the option to use the GPU reserve in whatever way is best for them and their games."
Quelle: Eurogamer
 
Krethi & Plethi schrieb:
auf der PS4 läuft kein normales OpenGL...

...und ausserdem setzt sony jetzt auf entwicklungstools die hUMA/HSA unterstützen, da wird der abstand zur XBox sicher nicht geringer werden!

Bei exclusive Spiele sicher bei Multiplattform Spiele glaub ich nicht da wird der unterschied mit der Zeit geringer.....
Hier ist Zeit wegen Optimierung auf einer Hardware zu kostbar daher wird auf der schwächsten Hardware programmiert und rüber portiert!
Ich hab beide Konsolen daher ist mir eh Wayne aber so wird es zuletzt enden.
 
cobama schrieb:
Setzt Intel mit IrisFlo nicht ebenfalls auf eSRAM?


Intel setzt auf edram. Das Hauptproblem vom esram der XBox One soll die zu kleine Kapazität sein, nur 32 MB. Intel hat großzügige 128 MB verbaut.


Brauchen die Devs nun ein neues Devkit oder reichen SDK Updates? Oder erfordern SDK Updates neue Dev Kits. Wird mir nicht klar.
 
Der einzige brauchbare Einsatzzweck von Kinect ist als Scanner für 3D-Kopierer, daher ist der Wegfall schon sinnvoll.

Auch die feste RAM-Zuweisung ist Ressourcenverschendung, hier könnte man den Betriebssytemteil auslagern oder ZRAM-ähnlich komprimieren, um mehr Platz für das Spiel zu bekommen.

Der eSRAM ist groß genug für 1080p, aber nur wenn man den Inhalt dynamisch aus dem Hauptspeicher in den eSRAM streamt, auch das geht mit dem neuen SDK.
 
Zuletzt bearbeitet:
gmc schrieb:
Brauchen die Devs nun ein neues Devkit oder reichen SDK Updates? Oder erfordern SDK Updates neue Dev Kits. Wird mir nicht klar.

So wie ich das JETZT verstanden habe reicht ein Update. Mit dessen Hilfe können die Entwickler Ressourcen, die bisher für Kinect-Applikationen reserviert waren, für das eigene Spiel nutzen (sofern dieses halt kein Kinect nutzt).

@highsociety
Wegen Leuten wie dir wurde das Popcorn erfunden :).
 
Zuletzt bearbeitet:
IC3M@N FX schrieb:
Ich meine so 30% da aber Xbox One noch DirectX 12 bekommt und die neue API mehr auf Multithreading setzt, und Hardware nahe Spiele Programmierung. Kann es in der jetzigen Verfassung wenn sich die PS4 Software technisch nicht weiter entwickelt in Sachen Optimierung usw. 15% verkürzen. Das alles sind natürlich nur Vermutungen von mir

näher als die schon bei Konsolen genutzte Schnittfläche kann DX12 nun auch nicht gehen. Das Multithreading usw. kann die PS4 ebenso und wird auch bald ein Update schon nachschieben. Also geht es eher von 50% auf 35% im besten Fall, ohne das sich die PS4 verbessert. Da aber huma noch nutzbar sei, werden es wieder 50+% ;)

@Grinch0815: Klar, du siehst keinen Unterschied? Selbst die neuen Konsolen zeigen schon deutlich bessere Grafiken und Effekte, auch wenn man keine PC Grafik erwarten sollte. Nur das Spielangebot ist mies, deswegen warte ich auch auf die PS4 bis 2015, da erscheint erst vieles, was interessant werden könnte.
 
luda schrieb:
Bei uns gibts auch Altbier in Köln, kauft trotzdem keiner.

Sehr cooler Vergleich und du hast absolut recht.
Wenn du in Köln Altbier kaufst, wirst du an der Kasse schief angeschaut. :D
 
Das ist schon ziemlich dämlich, was MS da gemacht hat. Es war ja recht früh klar, dass die PS4 eh schon die stärkere Hardware verbaut haben würde.
Wenn man als Konkurrent dann natürlich von der Leistungsfähigkeit, der eigenen, eh schon unterlegenen Konsole, noch 10% für diesen Kinect Zwangsblödsinn abzwackt, dann ist doch klar, dass daraus deutliche Unterschiede in Sachen Darstellung der Spiele resultieren.

Das hätte man sich bei MS doch an einer Hand abzählen können.
 
Wenn Entwickler die 10 % wirklich nutzen sollten, dann wird eine Rückkehr zur Kinect praktisch ausgeschlossen sein. Mit der zusätzlichen Leistung könnte man Spiele evtl. zur magischen 1080p/60 FPS Grenze kriegen, allerdings auch nur unter Einsatz der gesamten Rechenleistung.
Sollte sich dies als Standard etablieren, so könnte in Zukunft vor jedem Spielstart die Nachricht kommen "Für ein optimales Spielerlebnis die Verbindung zwischen der Xbox One und der Kinect bitte trennen." Entweder startet das Spiel nicht oder die FPS Zahl sinkt auf unter 60 oder die Auflösung muss gesenkt werden (<1080p).

Ich denke, dass Microsoft mit seiner Kinect Strategie gescheitert ist. Die Resonanz war von Anfang an verhalten, sowohl bei den Spielern als auch bei den Entwicklern. Der 100 Euro Aufpreis hat Microsoft den Verkauf mehrerer Millionen Konsolen verwehrt. Zusätzlich hat man Sony die Leistungskrone überlassen, um statt besserer Hardware eine aufgeblasene Webcam mitzuliefern.
Und da man die Hardware nicht mehr ändern kann, könnte sich diese Fehlentscheidung langfristig bitter rächen. Schon jetzt ist die PS4 die bessere Konsole für Multiplats, also Spiele welche auf mehreren Platformen erscheinen (CoD, Assassin's Creed, Battlefield, etc.) Sie sehen besser aus und laufen flüssiger. Nicht immer, aber meistens gewinnt die PS4 im direkten Vergleich.

Aber man muss Microsoft auch den Mut zugestehen sich von der wenig erfolgreichen Strategie abzuwenden. Man hat gemerkt, dass die Kinect eher zum Senkblei als zum Kaufanreiz wird, und lässt diese nun (langsam) fallen, bevor man das Konsolenrennen endgültig an Sony verliert. Am Ende bietet die PS4 eben mehr Leistung für weniger Geld. Zumindest Sonys Preisvorteil kann Microsoft nun annulieren.
 
Zuletzt bearbeitet:
Benoit schrieb:
Dann bau mir bitte einen PC zusammen für 400€ (inkl OS und Controller) bei dem jedes Spiel besser aussieht/läuft wie auf der PS4 (natürlich nur Neuware und kein second hand Müll).

Ist schon klar ne Konsole ist beim kauf günstiger dafür sind aber die spiele teurer und manche spiele möchte ich einfach nicht mit Controller zocken. Ich sag nur Shooter und Strategie. F2P gibt es auch kaum für Konsole usw.
Es kommt viel mehr darauf an was/wie man Zocken will
 
Jaja wieder irgendwelche Spekulationen durch mehr Leistung, die es nicht gibt, weil diese hardwaretechnisch einfach gebunden ist. Man kann aus nichts, nicht mehr rausholen. Wenn man die Treiber optimiert und 10% mehr Leistung rausholt, heisst es bei weitem nicht, dass die andere Konsole nicht die selbige inne hat und durch ein update locker bekommt. Xbone bleibt Xbone und ist selbst für 400€ das Geld nicht wert. Ohne Kinect wird die Konsole auch nicht mehr leisten als das was diese vorher konnte, denn die notwendige Hardware ist immer noch verbaut.
 
Zuletzt bearbeitet:
Watch Dogs PS4, 60-70? €. PC Gamekey 21,99€

Noch Fragen? :P

Bei der Summe der ganzen Spiele kommste am Ende günstiger auf dem PC weg und niemand muss sich ernsthaft jedes Jahr ne 300€ Graka kaufen. Solch ein Käse.
 
warum sind alle Diskussionen über NextGen Konsolen immer die selben? :D bashing vom feinsten...
 
Zuletzt bearbeitet:
Sehr gut. Es war klar, dass Kinect nur unnötig Leistung frisst. Weg mit der Totgeburt. :)
 
Miniami schrieb:
so könnte in Zukunft vor jedem Spielstart die Nachricht kommen "Für ein optimales Spielerlebnis die Verbindung zwischen der Xbox One und der Kinect bitte trennen"

Quatsch. Mit dem neuen SDK kann man einfach dynamischer entscheiden, was für Kinect-Funktionen im Spiel, was für GPGPU und was für "normale" Grafik eingesetzt wird. Bzw. diese Ressourcenreservierung war und ist ja nicht auf Kinect begrenzt.
Das war übrigens schon vor der Kinect-freien SKU so angekündigt und ergibt auch Sinn.

Zumal aus der gegebenen Bedingung "zur Nutzung muss Kinect angeschlossen sein" keine Gegenrichtung "zur Nichtnutzung darf es nicht angesteckt sein" wird :rolleyes:


Dass der eSRAM zu klein ist stimmt auch nur bedingt. Ja, zu klein dafür direkt einfach einen vollen 1080p-Framebuffer zu lagern. Zu klein dafür, mit einem guten SDK und vernünftiger Programmierung mittels Streaming aus den 8GB DDR3-2133 1080p rauszuholen? Offenbar nicht, Forza 5 und Wolfenstein schaffen's ja auch.

Klarerweise tut man sich bei der PS4 leichter - mehr oder weniger durch Sonys Glück.
Wäre MS das gleiche Risiko eingegangen, hätten wir jetzt zwei Konsolen mit je 4GB GDDR5. Ich frage mich ja immer noch, wie ein Duell der jetzigen Xbox One gegen eine 4GB-PS4 aussehen würde.

Das erste SDK für Xbox One war wirklich schlecht. Daher und dazu hatten gerade die Multiplattformentwickler keine Lust, da groß zu optimieren.
Und dass man auch mit 900p sehr gute Grafik zeigen kann, beweist Ryse definitiv.
 
Morrich schrieb:
Das ist schon ziemlich dämlich, was MS da gemacht hat.
ja, allein nur DDR3-2133 zu nutzen weil die JEDEC nicht mehr spezifiziert hat^^

sie hätten zumindest DDR4-2400 verbauen sollen, da die chips eh am mainbord verlötet sind würde das problemlos gehen.
der SoC hätte mit 2400er RAM sicher keine probleme gemacht.
knapp 13% mehr durchsatz hätten schon etwas gebracht.
 
IC3M@N FX schrieb:
Ich meine so 30% da aber Xbox One noch DirectX 12 bekommt und die neue API mehr auf Multithreading setzt, und Hardware nahe Spiele Programmierung. Kann es in der jetzigen Verfassung wenn sich die PS4 Software technisch nicht weiter entwickelt in Sachen Optimierung usw. 15% verkürzen. Das alles sind natürlich nur Vermutungen von mir

Denkfehler: Die 40% Mehrleistung der PS4, die immer wieder genannt werden, berechnen sich aus der Rohleistung (XB1: 1.31 TFlops zu PS4: 1.84 TFlops). Von dieser Rohleistung der XB1 wurden ca 10% für Kinect und Systemfunktionen abgezweigt, d.h. der Abstand war früher 50% und ist jetzt nach wie vor 40%. Ich würde mit stabileren Frameraten und weniger Tearing rechnen, nicht mit höheren Auflösungen oder "besserer Grafik".

Welche Optimierungen in der Zukunft vorgenommen werden, ist Kaffeesatzleserei und lässt sich sicherlich auch nicht in Prozente quantifizieren.

c137 schrieb:
Dass der eSRAM zu klein ist stimmt auch nur bedingt. Ja, zu klein dafür direkt einfach einen vollen 1080p-Framebuffer zu lagern. Zu klein dafür, mit einem guten SDK und vernünftiger Programmierung mittels Streaming aus den 8GB DDR3-2133 1080p rauszuholen? Offenbar nicht, Forza 5 und Wolfenstein schaffen's ja auch.

Er ist zu klein. Der Framebuffer von z.B. inFamous: Second Son ist 85 MB groß (1080p, 30fps, 2xSMAT). Da kannst du auch nur bedingt etwas mit optimieren herausholen. Das passt nicht in den Framebuffer. Konsequenz: Es muss die Auflösung reduziert werden. Das ist ein klarer Konstruktionsfehler, der die Xbox One auf ewig behindern wird. Denn den Framebuffer auf den DDR3 auszulagern, ist keine Option.

Forza (und Rennspiele allgemein) und Wolfenstein sind optisch wenig aufwändige Spiele.
 
Zuletzt bearbeitet:
Entwicklern vorzuwerfen, sie seien unfähig oder faul, empfinde ich übrigens als ganz schön dreist. Die Xbox 360 hatte bereits einen eDRAM, der in der Funktionsweise dem eSRAM in der XB1 sehr ähnlich ist, die Entwickler sind damit also grundsätzlich vertraut.
 
Und genau aus diesem Grund hat man den "Konstruktionsfehler" (wie du es nennst) auch begangen. ;)
Dazu kommt, dass Microsoft einfach nicht mit der Verfügbarkeit von genug GDDR5 gerechnet hat, Sony hat eben darauf gesetzt. Genug DDR4 wär auch nicht dagewesen, dann würde die Konsole erst jetzt launchen.

Und was heißt schon damit vertraut? Es ist nicht ganz dasselbe, außerdem die restliche Architektur und ein komplett anderes SDK.
Faulheit oder Unfähigkeit werfe ich doch gar nicht vor. Man hat aus ökonomischen und zeitökonomischen Gründen eben eine Entscheidung getroffen.
 
Zuletzt bearbeitet:
Zurück
Oben