• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Nur PlayStation 4 nutzt hUMA-Technik von AMD

dangee schrieb:
laut Wikipedia sind die Maße ziemlich identisch (160 mm × 97 mm × 55 mm (PS3) vs 162 mm × 52 mm × 98 mm (PS4), http://en.wikipedia.org/wiki/Dualshock). Wie sich die geänderte Form niederschlägt weiß man dadurch natürlich nhicht. Für mich war der PS3 Controller auch immer zu... putzig. Da helfen nur echte handfeste Vergleiche. Hoffe da auf Usermeldungen von der Gamescom.

Also hier sieht man es deutlich. Es soll viel handlicher sein als der PS3 Controller. Da auch der Haltegriff länger & dicker ist, sollten auch Bigfoots keine Probleme damit haben. :D Freue mich schon auf die PS4. :D
d4-d3-comparison.png
 
Zuletzt bearbeitet:
pipip schrieb:
Tja, außer man erwähnt dass man einen eDRAM Speicher hat auf den man dann Daten schnell zwischen CPU und GPU schieben kann.
Dabei ist die RAM Anbindung nicht mal wesentlich von Bedeutung.

Achso und um mit dem eDRAM zu arbeiten bedarf es keiner Tricks? Die News sagt lediglich das man bisher mir Tricks arbeiten musste um große Texturen zu verwenden, was bei hUMA der Vergangenheit angehört. 32 MB eDRAM die speziell angesprochen werden müssen und sicherlich nicht nur als Texturspeicher her halten, klingeln jetzt nicht gerade nach einer einfachen Programmierstruktur für große Texturen. Bei der alte 360 wurde der eDRAM in erster Linie für FSAA eingesetzt und ich denke auch hier wird wieder ein gutes Stück dafür verbraten. Was dann noch an schnellem Texturspeicher übrig bleibt wird wohl schnell aufgeraucht sein.
 
BOBderBAGGER
Das was ich meine ist, der eDRAM kann wie ein großer Last Level Cache verwendet werden. Durch Optimierungen kann man aber das Game so Programmieren dass Daten effektiv zu den großen Cache Pools geschoben werden, sodass die DDR3 Anbindung nicht zu enormen Bremse wird, wie es bei einer XBOX 360 oder PS3 werden würde.
Das heißt, es ist auch kein Ständiges Kopieren nötig wenn man weiß wie man die XBOX One programmiert.

Somit PS4 erlaubt HSA Funktionen über einen BUS der über die Speicheranbindung vom GDDR5 realisiert wird, die XBOX ONE ermöglicht eine direkte Kommunikation von CPU und GPU über den eDRAM.

Zu mindestens habe ich es so verstanden. Aber ja vllt täusche ich mich, aber am Ende wären also HSA-Funktionen möglich ohne ständig etwas in den RAM kopieren zu müssen.

GrooveXT
Achso und um mit dem eDRAM zu arbeiten bedarf es keiner Tricks?
Klar bedarf es Tricks und Methoden. Doch der Artikel ließt sich so, als ob auf der XBOX ONE keine HSA-Funktionen möglich wären.

Was dann noch an schnellem Texturspeicher übrig bleibt wird wohl schnell aufgeraucht sein.
Interessant ist nur, bei der WiiU spricht man von ebenso von 32 MB Cache, wobei für 720P die Size mehr als ausreichend ist, ABER es befindet sich auf der WiiU sogar noch einen 4 MB großer SRAM der noch mal deutlich schneller ist.
Wer sagt dass die XBOX ONE APU keine spezielle MMU und noch ein paar kleinere Cache-Level besitzt wie die WiiU ?

Heterogeneous Computing bedeutet dass CPU und GPU effektiv Daten verarbeiten können ohne ständig Daten vom RAM holen zu müssen. Der gemeinsame Speicher macht auf der PS4 einfach nur Sinn, bei der XBOX ONE hat man aber eben ein weiteren großen Cache-Level.

Der hUMA Speicher ist ja eigentlich bei Desktop-Rechner interessant, wo eben keine Optimierungen gemacht werden können und eine Programmiersprache bedarf dank eines hUMA Speicher weniger Gedanken machen muss wo Daten vorhanden sind.


Ohne Zweifel für die PS4 ist sicherlich leichter zu programmieren und man kann mehr Physics zaubern. Nur finde ich es wird wieder zu schnell ein Urteil gebildet. Ich bin einfach der Meinung, dass man zwar bei der XBOX ONE mehr Aufwand hat, aber durch Optimierung holt man bestimmt gleiche/ähnliche Ergebnisse raus.
Ob aber die Grafik ausschlaggebend ist und sich eine PS4 deshalb öferts verkauft, wird wohl in erster Linie ein "CB-Leser" meinen. Vielen wird das wohl eher egal sein. Ich glaub die Mehrheit wird sogar keinen Unterschied sehen (Ausnahme vllt exklusiv Games in 4-10 Jahren).
Aber man schaue mal NV's Physic X an, die einen halten es für wichtig, die anderen ist es egal.
 
Zuletzt bearbeitet:
Man hat jetzt noch keine vergleichsvideos gesehen oder? Battlefield 4 müsste doch dann um einiges besser auf der ps4 aussehen oder nicht? Cod eigentlich auch...
 
Das was ich meine ist, der eDRAM kann wie ein großer Last Level Cache verwendet werden.
Da bist du eben beim alt bewährten System und musst dir deinen Kahm passend zurechtkopieren, was eben bei einem riesigem unified Memory entfällt.
 
terraconz schrieb:
Man sollte fairerweise schon anmerken das sie beide nicht wollten!
Intel könnte sicherlich auch ihre eigene Interpretation von huma bringen aber daran scheint Intel atm nicht interessiert. Sie denken sich wahrscheinlich lassen wir AMD die arbeit und lizensieren wir dann einfach wieder wie bei x64. Und Nivida ist doch völlig klar das sie sowas gar nicht versuchen da sie keine x86 Lizenz haben also wäre alles Forschungsgeld in dem Bereich verschleudert weil sie eh nichts veröffentlichen dürfen.

Ja sie wollen beide nicht weil keiner auch nur in die Richtung entwickelt hat. Als AMD die Entwicklung begonnen hat, hat Intel Larabee als GPU vor die Wand gefahren. Intel war noch nicht mal Aufmerksam geworden auf Probleme mit Speicherbandbreite weil ihre GPUs zu lahm waren. hUMA hätte Nvidia auch bei ihren Tegra Designs helfen können, denn nicht nur x86 sondern auch ARM Cores greifen auf RAM zu - sie haben nur nicht daran gedacht. Ich bin mir sicher wir werden bei AMDs x64 ARM Server solche Techniken im Einsatz sehen.

Und Intel wird einen Teufel tun und freiwillig ein weiteres x64 Lizensierungs-Desaster wollen. hUMA kann jeder nutzen der in die HSA Foundation eintritt. Da ist keine Lizenzierung nötig wie bei x64. Nur muss man dann eben anfangen weitere Entwicklungen als offenen Standard allen anderen auch zur Verfügung zu stellen. Das ist bisher weder Intels noch Nvidias Geschäftsmodell gewesen.
 
@Pipii
Mein Kommentar bezog sich auf die Texturen. In wie weit die Xbon HSA unterstütz mag ich mangels Wissen nicht beurteilen. Da warte ich lieber auf ne Analyse von Leuten die sich mit der Hardware auskennen.

88-Bullets schrieb:
Man hat jetzt noch keine vergleichsvideos gesehen oder? Battlefield 4 müsste doch dann um einiges besser auf der ps4 aussehen oder nicht? Cod eigentlich auch...

Glaube kaum, dass irgendein Launchtitel einen Unterschied machen wird. Die Spiele wurden noch auf PCs entwickelt und musste mit Beta Dev Kits auskommen. Es werden ja jetzt noch Specs im Detail geändert. Keiner der ersten Titel wird von der Hardware gebrauch machen. Vermutlich wird man selbst zur aktuellen Generation kaum einen Unterschied ausmachen.
 
Nach bisherigen Aussagen soll die hUMA Technik doch vor allem GPGPU Berechungen ermöglichen, ähnlich wie CUDA oder OpenCL, wo dann spezielle Physikeffekte auf die GPU ausgelagert werden, was eben mit HUMA wesentlich erleichtert wird. Man sollte aber auch nicht so tun als wäre die GPU eine unerschöpfliche Leistungsquelle, auf die man mal eben was auslagern kann.
Bei Spielen ist die (in den Konsolen eher schwachbrüstige) GPU doch eh schon mit der "üblichen" Grafikberechnung ausgelastet, wenn man dann noch weitere Sachen darauf auslagert, dann nur mit generellen Performanceeinbußen.
Noch mehr auf die GPU auslagern, während die 8 Kern CPU sich langweilt? Die Entwickler sollten sich wohl eher auf Multithreading konzentrieren, denn da lassen sich noch beachtliche Leistungsreserven abrufen.
 
Also die THEORETISCHE technische Überlegenheit der PS4 gegenüber der XB1 ist auf dem Papier schon klar, allein würde ich das gerade bei Konsolen nicht überbewerten.
Denn erstens: Konsolen laufen nunmal nicht wie ein PC unter Windows. Es sei denn, MS entschließt sich, eine spezielle Win8 Version für ihre Konsole zu entwickeln.
Zweitens werden Spiele für eine neue Konsolengeneration erst nach einigen Jahren wirklich die Möglichkeiten der Hardware ausschöpfen.
Denn schließlich werden die abgelösten Konsolen ala PS3 und XB360 gerade bei den Spielen auch noch unterstützt, die Produktion ist lange noch nicht EOL. Als die PS3 rauskam, gab es auch kurze Zeit später sogar noch eine neue PS2Slim.
Die PS4 könnte also frühestens in einigen Jahren ihre theoretische Überlegenheit auspielen.
Und, ich mag mich irren, aber die XB360 ist doch auf dem Papier auch schwächer als die PS3, hat man das beim Spielen gemerkt?
Mir fehlt da die Erfahrung, ausser mal ein paar Jahre eine Wii habe ich Konsolen bisher zu Gunsten meiner PCs verschmäht...
 
BOBderBAGGER schrieb:
Da bist du eben beim alt bewährten System und musst dir deinen Kahm passend zurechtkopieren, was eben bei einem riesigem unified Memory entfällt.

Das ist ein klein wenig Mehraufwand für den Entwickler, so schlimm ist das dann aber trotzdem nicht. HSA funktioniert damit trotzdem problemlos.
Microsoft spart sich damit halt den teuren GDDR-Speicher. Was Sony da verbaut ist momentan wirklich das teuerste vom teuersten. 8GB GDDR-Speicher haben selbst Titan Grafikkarten nicht.
 
ToniMacaroni
Jo aus diesem Grund hat man sich ja fälschlicher weise über die WiiU CPU lustig gemacht, obwohl die IPC des IBM Cores höher ausfällt als die IPC von einem Jaguar Core.
Das heißt eine XBOX ONE mit 5 Jaguar Cores für Games wird auch nicht potenter sein als ein XBOX 360 Prozessor mit 6 Threads.

Der Fokus der neuen Konsolen ist die GPU und die Auslagerung der Aufgaben auf diese, deshalb hat Sony auch soviel Technik integriert die es erlaubt viele Aufgaben auf die GPU auszulagern (direkter als die Konkurrenz)
Trotzdem alle drei Konsolen haben den Fokus GPU und haben eine Verhältnismäßige schwache CPU integriert.

GrooveXT
Jup das meine ich auch, abwarten. Ich bin einfach der Meinung der Artikel ist etwas zu Schwarz/Weiß aber vllt habe ich das auch falsch aufgegriffen.
Shinin macht wohl eher kleinere Games für Nintendo, doch laut denen sind 32 MB für FullHD Texturen groß genug. Selbst mit 10 MB waren damals 720p Texturen gerade so drinnen (aber nicht für jedes Game).
http://www.youtube.com/watch?v=OcvD8BXars8
Es ist nur ein kleineres Game, aber Shin'en hat sich schon ziemlich früh mit einer Engine beschäftigt die GPGPU Funktionen mit ein bezieht. (Game lauft übrigens nur auf einen Core, Auflösung ist 720p und man musste sich beim Speicher auf 720p nicht mal Gedanken machen ob der eRAM ausreichen ist)

Aber ja abwarten und Tee trinken. Persönlich werde ich sowieso nur eine Konsole kaufen, wenn mir die Games taugen.
 
Und, ich mag mich irren, aber die XB360 ist doch auf dem Papier auch schwächer als die PS3, hat man das beim Spielen gemerkt?

nur sind diese deutlich näher beieinander als es diesmal der Fall ist. auf dem Papier war die PS3 auch nur wegen Cell schneller GPU seitig ist man afik sogar knapp hinter der Xbox 360. Diesmal sieht das ganze doch schon deutlich anders aus. Interessant zu sehen das Cerny nicht nur sprüche geklopft hat sondern das was die Entwickler wollten auch umgesetzt hat. "große GPU und großen unified Memory"

HSA funktioniert damit trotzdem problemlos

natürlich aber kommt das bei der Xbox zum einsatz ?
 
Zuletzt bearbeitet:
Bartmensch schrieb:
Also die THEORETISCHE technische Überlegenheit der PS4 gegenüber der XB1 ist auf dem Papier schon klar, allein würde ich das gerade bei Konsolen nicht überbewerten.
Gerade auf Konsolen würde ich es nicht unterschätzen. Das sind in sich geschlossene Systeme, die es nur ein Mal gibt. Man kann rausholen was geht, spätestens ein Naughty Dog wird damit bestimmt richtige Wunder auf den Bildschirm zaubern. Auf Kojima Productions mit der Fox-Engine bin ich auch schon gespannt.
Bartmensch schrieb:
Denn erstens: Konsolen laufen nunmal nicht wie ein PC unter Windows. Es sei denn, MS entschließt sich, eine spezielle Win8 Version für ihre Konsole zu entwickeln.
Das hat was mit Windows zu tun? In der PS4 steckt ein BSD, in der XBox One ein abgespecktes und angepasstes Win 8, auf dem PC ein Vollständiges.
Bartmensch schrieb:
Zweitens werden Spiele für eine neue Konsolengeneration erst nach einigen Jahren wirklich die Möglichkeiten der Hardware ausschöpfen.
Das ist und war schon immer so, egal wo. Erfahrung ist das A und O.
Bartmensch schrieb:
Als die PS3 rauskam, gab es auch kurze Zeit später sogar noch eine neue PS2Slim.
Für den südamerikanischen Markt, wenn ich mich nicht täusche. Also da, wo eine PS2 für 200 € keinen einzigen Abnehmer finden wird.
Bartmensch schrieb:
Und, ich mag mich irren, aber die XB360 ist doch auf dem Papier auch schwächer als die PS3, hat man das beim Spielen gemerkt?
Hm gibts denn solche Schmankerl wie von Naughty Dog für andere Konsolen? So eine Grafikpracht wie bei TLOU hab ich auf der XBox 360 noch nicht gesehen.

Schon faszinierend, wie sich die kleine Crash Bandicoot Schmiede zu solch einem großen Entwickler gemausert hat.
 
Winder schrieb:
Das ist ein klein wenig Mehraufwand für den Entwickler, so schlimm ist das dann aber trotzdem nicht. HSA funktioniert damit trotzdem problemlos.
Microsoft spart sich damit halt den teuren GDDR-Speicher. Was Sony da verbaut ist momentan wirklich das teuerste vom teuersten. 8GB GDDR-Speicher haben selbst Titan Grafikkarten nicht.

Und sie bieten die PS4 billiger an als MS, obwohl sie besser Hardeware bei Sony verbauen, RESPEKT SONY! Achso, und zu MS sage ich nur: :p
 
Jup es war einfach deutlich einfacher für den Tri-Core der XBOX 360 zu programmieren.
Die PS4 hat dieses mal aber den Vorteil, wobei dieser sicherlich nicht so gewaltig ist, wie bei PS3 vs XBOX 360.
Was man aber auch nicht vergessen darf, die XBOX One hat weniger Rohpower, doch steht der 32 MB Cache sicherlich im Verhältnis zu dessen Potential.
Man braucht sich nicht vormachen, dass die PS4 theoretisch ein schöneres Bild zaubern kann, die Frage ist nur, machen sich Entwickler den Mehraufwand ? Ist es für den Kunden kauf entscheidend ? Wann wird man den Unterschied sehen.
Wird ein Game bessere Texturen haben, bessere KI oder Physics ?

Naja egal, am Ende kauft der Core Gamer der meint einen "König" zu kronen sowieso alle drei Konsolen :D


MC´s
Und sie bieten die PS4 billiger an als MS
Ja aber eben auch nur solange, bis MS sagt, wir verkaufen eine XBOX ONE auch ohne CAM.
 
MC´s schrieb:
Und sie bieten die PS4 billiger an als MS, obwohl sie besser Hardeware bei Sony verbauen, RESPEKT SONY! Achso, und zu MS sage ich nur: :p

Nö, die Xone kostet 299€.

Sie wird nur zwangsgebündelt mit Kinect das locker 200€ kostet. :cheerlead: :schluck: :cheerlead:



Was das soll weiß allerdings nur MS.
 
Das Hardware gelaber wer mehr Leistung hat gabs doch schon bei PS3 und Xbox 360. Die PS3 sollte auch mehr Hardwarepower haben und am Ende sahen die meisten Spiele Grafisch fast identisch aus ;)

Ich frage mich eh was dieses ganze "rumgebashe", "rumhaten", streiterei usw. soll. Entspannd euch doch mal.. wartet ab bis die Konsolen auf dem Markt sind und es Tests gibt. Dann kann man sich immer noch Entscheiden und Diskussionen mit Fakten und Belegen starten und nicht nur mit "vielleicht" und irgendwelchen Spekulationen.

Ich persönlich stehe zur Xbox One. Ich spiele seit 8 Jahren an meinem Xbox Live Profil und finde den Controller super. Kinect ist nett... bis jetzt kann ich aber noch nicht sagen ob und wie viel ich es nutzen werde. Außerdem sagen mir die Exklusiv-Titel mehr zu. Liegt vielleicht auch daran das ich den Japanischen Touch den viele PS Spiele haben nicht mag.

So.. habe dann auch mal meine Senf dazu gegeben
 
PS4 zieht immer weiter weg...

was ich aber viel problematischer finde ist die Softwareentwicklung die so auch deutlich komplizierter wird wenn ein Spiel sowohl auf der PS4 als auch der Xbox erscheinen soll..... als Konsequenz wird es entweder viele Spiele nur auf der PS4 geben oder aber die Entwickler werden hUMA nicht nutzen um Entwicklungskosten zu sparen (was ich sehr schade fände).
 
Daedal schrieb:
Ja sie wollen beide nicht weil keiner auch nur in die Richtung entwickelt hat. Als AMD die Entwicklung begonnen hat, hat Intel Larabee als GPU vor die Wand gefahren. Intel war noch nicht mal Aufmerksam geworden auf Probleme mit Speicherbandbreite weil ihre GPUs zu lahm waren. hUMA hätte Nvidia auch bei ihren Tegra Designs helfen können, denn nicht nur x86 sondern auch ARM Cores greifen auf RAM zu - sie haben nur nicht daran gedacht. Ich bin mir sicher wir werden bei AMDs x64 ARM Server solche Techniken im Einsatz sehen.

Und Intel wird einen Teufel tun und freiwillig ein weiteres x64 Lizensierungs-Desaster wollen. hUMA kann jeder nutzen der in die HSA Foundation eintritt. Da ist keine Lizenzierung nötig wie bei x64. Nur muss man dann eben anfangen weitere Entwicklungen als offenen Standard allen anderen auch zur Verfügung zu stellen. Das ist bisher weder Intels noch Nvidias Geschäftsmodell gewesen.

Larabee ist ja etwas völlig anderes als HUMA vielleicht eher mit den Nvidia Tesla Supercomputer zu vergleichen und das ist auch nicht gegen die Wand gefahren sondern du kannst die MIC aktuell am Markt kaufen für glaube UVP ~2500$. Und Intel kannte die Probleme ihrer GPUs es hat sie nur nicht interessiert das ist ein großer Unterschied. Damals war der Markt netbooks im boomen und Intel hat auf billigst IGPs für Netbooks und Subnotbooks gesetzt und das mit großem Erfolg (Marktführer). Also du siehst das alles etwas verquer. Intel zeigt ja jetzt mit der Iris Pro sehr schön was man alles mit Geld in kurzer Zeit auf die Beine stellen kann wenn man möchte. Denkst du das hätten sie nicht auch schon vor einigen Jahren gekonnt? Bei Intel kam niemand auf die Idee das der Markt interessant wäre darum gehts und deshalb hat sich bei Intel in der Chefetage niemand dafür interessiert.

HUMA ist x86 basierend was soll das bei nem ARM Design helfen? Dort hast du ja sowieso shared memory von Haus aus.
Und warum sollte Intel nicht lizensieren wollen? Das machen sie doch laufend. Es ist ein einfacher Weg R&D Kosten zu sparen, man muß sein R&D Budget gerade in diesem Hochtechnologie Bereich sehr gezielt einsetzten und nicht nach dem Gießkannen Prinzip. Intel hätte sicherlich kein Problem das zu lizensieren. Ausser natürlich sie haben schon etwas eigenes dann brauchen sie natürlich nichts lizensieren aber ich denke nicht das das in dieser fortgeschrittenen Form der Fall ist.

Keiner der 3 weder AMD noch Intel noch Nvidia setzten auf offene Standards sondern sind alle closed source. (fast alle)
Ist auch völlig üblich da sie ja keine Software Entwickler per se sind sondern Hardware Entwickler und die haben sich noch nie groß um offene Standards geschert.
 

Ähnliche Themen

Zurück
Oben