• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News PlayStation 4 „50 Prozent schneller als Xbox One“

, was einfach aus dem Grund so ist, das Grafik keine geringen Latenzen benötigt.

Kenneth Coldy schrieb:
Tut sie nicht? Die Frage ist ernst gemeint, ich kenne mich auf dem Gebiet nicht aus und stochere nur aus Prinzip im Nebel :-)

Es hat unter anderem damit zu tun, dass eine GPU allein durch die Texturen relativ große Datenmengen auf einmal verarbeiten muss (eine CPU fordert wesentlich kleinere Pakete an) - und da ist es besser ein wenig auf diese zu warten, und dann werden sie mit relativ großer Geschwindigkeit geliefert, als umgekehrt.

Du darfst nicht vergessen: AMD und Nvidia machen sich bei jeder neuen Grafikkarten-Generation Gedanken um den Durchsatz des Speichers, um die Latenzen kümmern sie sich nicht ;)

Beispiele wo es auf niedrige Latenz ankommt wurden ja auch schon bekannt gegeben : Raytracing !
Dort muss viel aus dem Speicher gelesen/hinein kopiert werden und dann ist die Latenz wichtiger - allerdings wird Raytracing auf den Next-Gen-Konsolen noch keine Bedeutung haben, dafür ist das Design nicht ausgelegt, auch die GPUs nicht.
 
Zuletzt bearbeitet:
@realAudioslave + Mortaro: Soweit verstanden. Wie sieht es aber mit der Mitbenutzung der GPU für Berechnungen aus? Wenn zum Beispiel Physik oder Haarpracht dort gehandhabt wird?
 
Bei den Konsolen wird das wohl eher nicht genutzt werden, da ausreichend viel CPU Therads vorhanden sind, und alles was man in Sachen Physik von der GPU berechnen lässt, fehlt auf der anderen Seite bei der Grafikberechnung. Und auf einer Konsole ist die GPU i.d.R. immer nahezu ausgelastet durch die grafische Berechnung.

GPU Physik war und ist für den PC interessant, weil viele Spiele Konsolenumsetzungen sind, die die Grafikkarten von Highend-PCs nicht ausreizen, und dann kann man eben freie Recourcen für sowas nutzen, wenn es Sinn macht. Und wie man an Benchmarks sieht, macht es auf dem PC auch keinen Sinn, wenn die Grafikkarte schon durch die Grafik bedingt am Limit fährt. Sprich man braucht eine überdimensionierte High-End Grafikkarte oder eben eine reine Physik-Grafikkarte, damit das ganze Sinn macht.

Abseits dessen würde ich mir über die Latenzen mal keine Sorgen machen, der Speichercontroller ist extra in Hinsicht auf dessen Nutzung entwickelt worden. Denke nicht, dass das in irgend einer Weise ein Thema sein wird, auch wenn Physik auf der GPU berechnet wird. Denn die Speicher-Latenzen, werden in der PS4 deutlichst geringer sein, als in einem PC System, wo die Daten folgende Systeme durchlaufen müssen:
GDDR <-> PCI <-> DDR
Da sind die Latenzen astronomisch höher, als in der PS4.

Was ich aber gerne gesehen hätte bei beiden Konsolen, wäre ein dedizierter Co-Prozessor für Physik. Aber das wäre halt einfach zu teuer gewesen. :(
 
Zuletzt bearbeitet:
Ich denke die Xbox wird die Entertainment Konsole. Das Heimkino Steuern via Sprache oder Geste finde ich schon ziemlich genial.

Es wäre schön wenn wieder PC Titel rauskommen die der derzeitigen Leistung entsprechen.
Exclusiv und so. Leider sinken ja die Verkaufszahlen und es wird nicht mehr so interessant für die Studios.
Siehe Rockstar.
 
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-september-2013

Es war durchaus ein wenig verwunderlich, wieso der Xbox-One-Vorzeigetitel "Ryse: Son of Rome" ausgerechnet in 1600x900 gerendert wird – und nicht in FullHD mit 1920x1080. Den Hintergrund hierzu vermelden Golem: Danach passt diese Auflösung auf 30 fps exakt in die 32 MB eSRAM der Xbox One hinein, womit dann auch die sehr ansprechende Grafikqualität dieses Spiels ermöglicht wird. Schade ist in diesem Zusammenhang allerdings, daß Microsoft der Xbox One nicht ein wenig mehr dieses eSRAMs spendiert hat, damit dieselbe Idee auch in FullHD ermöglicht werden würde – so gibt man sich die Blöße, mit einem Vorzeige-Titel schon vom Start weg die eigentlich angepeilte FullHD-Auflösung nicht erbringen zu können. Zukünftige Xbox-One-Titel dürftem diesem Schema im übrigen folgen und aufgrund der limitierten Größe des eSRAM bei einer internen Auflösung von 1600x900 bleiben. Sofern die PS4 dasselbe Spiel dann in 1920x1080 rendern würde, ergäbe sich ein handfester Nachteil der Microsoft-Konsole – was allerdings abzuwarten bliebe, bis die ersten MultiPlattform-Titel unter wirklicher Ausnutzung der Rechenkraft der beiden NextGen-Konsolen erscheinen.

Ohne Worte!
 
Schweigen bedeutet Zustimmung..
 
Es hat unter anderem damit zu tun, dass eine GPU allein durch die Texturen relativ große Datenmengen auf einmal verarbeiten muss (eine CPU fordert wesentlich kleinere Pakete an) - und da ist es besser ein wenig auf diese zu warten, und dann werden sie mit relativ großer Geschwindigkeit geliefert, als umgekehrt.

Beide fordern in etwa gleich große Pakete an. So beträgt die Cache-Line Size auf allen modernen GPUs 128 Byte. Diese Größe wird auch oft für CPUs verwendet, sogar wenn afaik die modernen Intel-CPUs atm alle 64 Byte große Cache-Lines besitzen.

Die Rasterisierungs-Graphik (also berechnen wo Dreiecke auf dem Bildschirm sind und dann auffüllen) ist weitestgehend eine Streaming-Anwendungen. Dadurch besitzt sie einen hohen Parallelismus auf Befehls-Ebene (in den meisten Fällen wird das Ergebnis eines Speicherzugriffs nicht für die mächsten Befehle benötigt), wodurch sowohl GPUs als auch CPUs die Latenzen leicht verbergen können. Gleichzeitig muss die gesamte Szene und ein großteil der Texturdaten mindestens einmal gelesen werden (also durch die CPU bzw. die GPU "hindurchströmen", deshalb auch der Name) . Da man auf die Daten selbst nur wenige Rechenoperationen verwendet, sind diese Streaming-Anwendungen oft durch die Speicherbandbreite (und nicht durch die Speicherlatenzen) limitiert.


Du darfst nicht vergessen: AMD und Nvidia machen sich bei jeder neuen Grafikkarten-Generation Gedanken um den Durchsatz des Speichers, um die Latenzen kümmern sie sich nicht

Sie kümmern sich schon um die Latenzen, selbst wenn das auf andere Art und Weise als bei der CPU geschieht. So besitzen GPUs massives Hardware-Multi-Threading (ähnlich wie SMT nur eben mit momentan bis zu 2048 Threads pro GPU-Kern == Compute-Unit (AMD, OpenCL) == Multiprozessor (NVIDIA) ), in der Hoffnung, dass von diesen Threads nie fast alle Threads auf Latenzen warten, sondern immer genügend Threads bereit sind rechnen zu können. Für massiv Parallele Anwendungen hat dieses Vorgehen diverse Vorteile, ist jedoch für sequenteille Anwendungen komplett ungeeigent.

Nur als "Benutzer" bekommt man von diesem Vorgehen wenig mit, als Programmierer ist es jedoch sehr wichtig dies zu beachten.

Beispiele wo es auf niedrige Latenz ankommt wurden ja auch schon bekannt gegeben : Raytracing !
Dort muss viel aus dem Speicher gelesen/hinein kopiert werden und dann ist die Latenz wichtiger - allerdings wird Raytracing auf den Next-Gen-Konsolen noch keine Bedeutung haben, dafür ist das Design nicht ausgelegt, auch die GPUs nicht.

1. Bei dem Raytracing muss im Optimalfall - sofern der Working Set in den Cache passt - nur sehr wenig Daten in den DRAM zurückgeschrieben werden - nämlich die Farbe aller Pixel.
2. Die Latenzen spielen bei Raytracing nur eine Rolle, da man bei dem Traversieren der hierarchischen Datenstrukturen immer einen Speicherzugriff in direkter Abhängigkeit von einem Speicherzugriff hat, wodurch es überalll problematisch ist die Latenzen irgendwie zu überbrücken.
 
Nai, ich will dir nicht widersprechen (ich gebe selbst immer gern zu nur Laie zu sein :) ), aber gerade dass Raytracing geringe Latenzen benötigt und die One dabei im Vorteil gegnüber der PS4 wäre, haben die Entwickler gesagt, die den Speicher der PS4 für insgesamt performanter halten ;)

Natürlich ist es aber schön, wenn mal jemand mit etwas mehr Ahnung hier etwas erklärt :)
 
Wasserspeier schrieb:
Mal ganz abseits davon, dass Ryse ziemlich flimmert und auch so optisch nicht für offene Münder sorgt. Habe mir da wirklich mehr von Crytek erwartet.

Wenn ryse flimmert, dann darfste ja die flimmerkiste ps4 nie ansehen. Killzone ist eine reine flimmer orgie
 
nTs|Razor schrieb:
Wenn ryse flimmert, dann darfste ja die flimmerkiste ps4 nie ansehen. Killzone ist eine reine flimmer orgie

Sich sowas aus den Fingern saugen macht diese Diskussion nicht unbedingt fruchtbarer. Wenn ein Spiel NextGen-like aussieht, dann Killzone.
 
irgendwie gleicht das hier einem Schw...zvergleich:D
Ergänzung ()

So jetzt mal richtig. Ich habe mich noch nicht entschieden und kann mir auch Zeit lassen da bei mir erstmal LOTRO Helms Klamm auf dem PC ansteht.

Bei den Konsolen warte ich bis Ende Januar und schau was dann abgeht in Richtung tatsächliche Hardware , leistuzng etc.und vor allem wo könnte als erstes Homebrew draufkommen.;)

Und nicht vergesen ihr vergleicht Äpfel mit Birnen da die XB1 als Multimedoia Konsole geplant ist und nicht wie die PS4 als reine Gamerkonsole.

Somit bestätigt sich wiedermal das 95% der User sich nicht mit dem Grundsätzlichen auseindersetzen sondern Ihr Fanboydasein pflegen.

Da ich mit meinen 46 Jahren sagen kann alle Konsolen ab dem Atari2600 gehabt zu haben , kann ich bestätigen das jede Konsole bisher vor und Nachteile hatte. Die eierlegende Wollmichsau wirds nie geben.

Alles klaro
 
Zuletzt bearbeitet:
Deine Rechtschreibung lässt wirklich zu wünschen übrig (obwohl du schon 46 Jahre alt bist).

Ich finde es ja ganz toll was du vor hast, nur, was willst du uns genau mit deinem Beitrag sagen? Irgendwie kann ich nichts spezielles daraus herauslesen.

Und dein Äpfel und Birnen Vergleich hinkt gewaltig.

1. Die PS4 ist keine reine Gamingkonsole (genau so wenig wie die One).
2. Handelt es sich dabei grösstenteils um Spielekonsolen, auf welchen wohl die gleichen Multiplattformtitel erscheinen werden. Weshalb gleicht es dann einem Äpfel/Birnen Vergleich, wenn man die beiden Konsolen miteinander vergleichen möchte?

Deinem letzten Absatz stimme ich zu! :D

Gruss
 
was ein Kindergarten... und ich schäe mich fast ein bisschen, dass ich versucht habe in den letzten Monaten ein wenig Vernunft abseits von Medien und PR-Gehampel unter die Leute zu bringen.

Kauft euch doch was ihr wollt. Wenn ihr geil auf Grafik seid, seid ihr bei Konsolen eh falsch und der ganze Streit ist noch alberner als so schon.
Lustigerweise wirds morgen erst richtig losgehn mit dem Grafikgebashe - entweder stinkt die PS4 gewaltig ab und das Geheule und Gejammer ist groß, gepaart mit Bashing und Flaming deluxe oder die XB1 zieht den kürzeren bei der Auflösung und dort ist das Gejammer und Geheule groß etc.

Und beide Lager gehen wieder aufeinander los, während Sony und MS sich die Hände reiben, zusammen mit EA & Co.

PS: Ich rede hiervon: http://www.gamesthirst.com/2013/10/...res-ps4-to-xb1-footage-of-bf4/comment-page-1/

ergo: http://www.forbes.com/sites/erikkai...-about-video-game-resolution-get-a-gaming-pc/ :)
 
@Heretic Novalis

Also gerade DU solltest deine Füsse mal ganz still halten, wie DU deine subjektive Meinung hier auf eine groteske Art und Weise verbreitest geht auf keine Kuhhaut.
 
BOBderBAGGER schrieb:
DF hat einen recht ausführlichen Vergleich auf devkits hochgeladen. Leider fehlt Xbox Multiplayer.

http://www.eurogamer.net/articles/digitalfoundry-battlefield-4-next-gen-vs-pc-face-off-preview

Ich empfehle die verlinkten Videos und Großteile des Artikels bzgl. Grafikqualität zwischen den Konsolen von DF zu umschiffen.
Post von einem der Redakteure von DF bzgl. der grotesken Kontrast und Helligkeitsunterschiede die auf "Scaler" geschoben wurden:

The issue here is simple; Tom had a limited amount of time to capture this stuff and was not able to do so in a normal environment. If mistakes were made normally, it would be easy to go back and correct, but with the way this worked, it wasn't really possible.

Why so different? DF uses their own hardware for capturing while DICE were handing out Elgato boxes to everyone else. The DF hardware is actually much more capable but it works differently and, without the experience of working with these new consoles, I can see a situation where settings were dialed in wrong.

JF [JackFrags s.u.] used what DICE provided and probably didn't even attempt to change any settings which, in this case, turned out to be for the best.

Sprich DF hat das Capturing verkackt.

IGN hat auch ein Vergleichsvideo hochgeladen, welches ohne zu hohe Kontrastwerte bei der X1 Version daherkommt und somit Details in dunklen Farbbereichen enthält. Auch wirkt die PS4 Aufnahme nicht so verwaschen.

Ein ähnlicher Fehler hat sich auch beim PCGH Vergleichsvideo eingeschlichen, wird aber direkt angesprochen als ein Problem der Aufnahme.

Wichtig zu verstehen ist, dass diese ganzen Aufnahmen bei einem Presse-Event von EA/DICE in Stockholm entstanden sind. Ähnlich wie beim Metal Gear Solid 4 Review Event, wurde innerhalb von 2-3 Tagen Kampagne durchgespielt und der Multiplayer getestet. Aufnahmegeräte wurden gestellt von DICE, eigene Geräte konnten auch genutzt werden. Anscheinend konnte jedoch nicht an den TVs noch den Next-Gen Konsolen Dev-Kits die für die Tests genutzt werden, gefummelt werden.

Das Ergebnis sind jetzt diverse Videos mit schlechter Kalibrierung, auf Youtube welches zur weiteren Verschlechterung dieses Vergleichs kein 60FPS abspielt sondern nur 30, und perverse Videobitraten-Kompression auf die Videos klatscht.

Die einzigen nützlichen Daten die wir bekommen sind:

PS4 900p, X1 720p.
Next-Gen/PC sind nahezu identisch in Texturqualität und Effekten (Horizontal Based Ambient Occlusion [HBAO] fehlte noch auf der X1Version wird aber per Patch nachgereicht). Alpha-Transparenzen und Partikel/Raucheffekte hübscher auf PC, selbstverständlich sind die AA-Optionen auf FXAA bei Next-Gen begrenzt.
Die Performanceangaben vom DF-Artikel sind von den Captureproblemen jedoch nicht betroffen und somit nützlich.

https://www.youtube.com/watch?v=MWzkw32amOM

In Anbetracht der höheren Auflösung geht der Hardware-Vergleich ohne Frage an die PS4 und aufgrund der Erfahrungen aus der Beta kann gesagt werden, dass man Preisleistungstechnisch für 400€ wohl eine Box bekommt die momentan einen vergleichbaren 400€ Rechner schlägt.

Hier sind die PC-Specs mit denen auf dem Review-Event getestet wurde:
CPU AMD FX-8350
ASUS MB Sabertooth 990FX Rev. 2.0 Asus,
8 GByte RAM DDR3-1833-CL 10
2x AMD Radeon 7990 Crossfire

Die bisher besten Aufnahmen für die Next-Gen Versionen wurden von JackFrags auf Youtube hochgeladen. Aufgrund des Uploads in 1440p (nein das Material ist selbstverständlich nur 1080p) kann Youtube ausgetrickst werden eine qualitativ hochwertigere Bitrate bei der Kompression zu nutzen. Ich hoffe dass möglicherweise Gamersyde Material (60FPS) heute nachgereicht wird.
 
Ich geb da nicht sooo viel drauf. BF4 ist ein Launch Titel, der weder auf der einen noch der anderen Seite in irgendeiner Art und Weise das darstellt, was eigentlich geht, wenn die Entwickler über ausgereifte DevKits und entsprechende Erfahrung verfügen. Dass die XB1 auch FullHD @60fps beherrscht zeigt ja schon Forza 5. Warum sollten das in Zukunft nicht auch andere grafisch hochwertige Titel schaffen? Umgekehrt sieht es für mich so aus, als würde BF4 auf der PS4 noch nicht mal ansatzweise deren Power ausnutzen.

Jetzt am Anfang wird man das mit den unterschiedlichen Auflösungen sicher noch das ein oder andere Mal sehen, bei CoD Ghost soll es ja genauso sein, aber das gibt sich mit der Zeit.

Ich finde diverse Launch Titel sehen für das was sie sind schon hervorragend aus. So mancher PC-Enthusiast mag die Nase über so primitive Auflösungen rümpfen, aber solche Leute geben auch gerne mal mehr Geld nur für die Kühlung ihrer Kiste aus als andere für ihren Fernseher. ;)

Was wirklich - wirklich - geht, erfahren wir *Glaskugel raushol* erst auf der E3 2014, wenn Naughty Dog ihr erstes PS4 Spiel präsentiert, sofern sie sich auch nur halb so viel Arbeit machen die PS4 zu verstehen wie sie es bei der PS3 gemacht haben.
 
Ich empfehle die verlinkten Videos und Großteile des Artikels bzgl. Grafikqualität zwischen den Konsolen von DF zu umschiffen.
steht auch einleitend im Artikel die IQ kann man anhand stark komrimierter videos schlecht einschätzen aber die Frame Verläufe gerade im 64player MP sind nicht uninteressant.
 
Zurück
Oben