ichmich2000 schrieb:
Relativ eindeutig, oder?
Sony hat sich zu sehr, wahrscheinlich aus Marketinggründen, auf die ach so überlegene Rechenkraft des Cell verlassen. Das war nicht nur dumm, es hat auch M$ ermöglicht, in anderen Bereichen zu punkten, zum Beispiel mit Xbox Live, dem hervorragenden Controller, Spieltiteln usw. Und dann nehmen die einen unterdurchschnittlichen Grafikchip, nennen ihn großkotzig "Reality Synthesizer" und meinen, damit alle Schwächen beseitigt zu haben und das Teil noch schnell auf den Markt schmeissen zu können.
Diese Angaben die du da zitierst, sind die
maximalen theoretischen Leistungswerte der beiden GPUs, also irrelevant. Zudem stimmen einige Angaben nicht, zB RSX taktet mit 550Mhz, da kannste die komplette Vergleichstabelle vergessen. Ist außerdem sowieso uralt das Teil, das geisterte schon 2006 rum und wurde immer wieder von Leuten wie dir zitiert, die sich keine 5 Minuten mit der Materie auseinandergesetzt haben.
Xenos und RSX nehmen sich in der Praxis gesehen nicht viel. In der Theorie würde Cell Xenon auch alt aussehen lassen, in der Praxis sind beide CPUs auch nahe beieinander, Vor-und Nachteile auf beiden Seiten.
Es würde manchmal nicht schaden, sich ein wenig besser zu informieren, der RSX ist alles andere als unterdurschnittlich im Vergleich zu Xenos. Das Teil ist ein G71 Derivat und entspricht ungefähr einer 7900GT mit 128Bit Speicherinterface, zudem hat er noch das Flex I/O vom Cell, für den Zugriff auf den XDR Hauptspeicher. Xenos müsste also laut deiner Tabelle, würde man die Theorie als Praxis sehen, mal eben dem R600, bzw G80 Konkurrenz machen, bitte, mach dich doch nicht lächerlich, mit ein wenig nachdenken, könntest schon selbst drauf kommen.
Xenos ist ein R400 Derivat und sollte eigentlich auf den Desktop Markt als SM3 Chip erscheinen, er wurde aber mangels skalierbarer Leistung von ATi verworfen. Stattdessen setzte man auf den R520 alias X1800
ichmich2000 schrieb:
Dann verstehe ich nicht, warum Sony auf den RSX ausgewichen ist.
Weil es noch schwieriger geworden wäre, für die Kiste zu entwickeln. Ganz einfach, es war programmiertechnisch eine Sackgasse auf mehrere Cell zu setzen.
ichmich2000 schrieb:
Leistungsfähig sicher, nur ist sie unausgewogen und kann daher die vereinzelt höhere Leistung nicht ausspielen. In einigen wenigen Dingen erreicht der Cell ja (theoretisch) sehr gute Werte - nur wenn in der Realität davon nichts übrig bleibt (wegen der restlichen Hardware, anderen Einsatzzwecken usw.), dann bringt das wenig.
Siehste, du widersprichst dir ja eh selbst in deinem Post. Theorie ungleich Praxis, siehe deine theoretische Tabelle, was ich dir ja weiter oben schon aufgezeigt habe...
@Nico
Sag mal ist denn das so schwer zu verstehen?
Wieso sollten meine Vermutungen falsch sein, von der PS3 auf die 360 porten ist kein Problem, umgekehrt aber schon. Es liegt an der anderen Architektur der PS3, sie ist nicht so clean wie die der 360.
M$ hat dort bessere Arbeit geleistet, man muss weniger Arbeit reinstecken als bei der PS3.
Die PS3 hat aufgrund ihrer Architektur mehr Reserven, bzw mehr Steigerungsmöglichkeiten als die Xbox 360. Die 360 konnte man, wie schon die Dreamcast aufgrund ihrer einfacheren Architektur schneller ausreizen, als die PS3/PS2.
Ich sage nicht, dass die 360 schon am Ende ist, nein ist sie noch nicht.
Und zur PS2. Cube und Xbox waren fast schon ne Generation voraus, die GPU der Xbox war so überlegen, auch der Cube war der Hardware der PS2 weit voraus.
Der direkte Gegner der PS2 hieß Sega Dreamcast.
P.S.: Die PS2 war nicht veraltet als sie im Jahre 2000 gelaunched wurde. Und doch, anfangs konnte man mit der Grafik der PS2 bei einigen Spielen sehr wohl "angeben".
God of War 2 ist sehr beeindruckend für die zum Launch schon veraltete Kiste. Auch ein Black, GT4 beeindrucken, wenn man bedenkt, welche Technik in der PS2 steck (Anno 1998/99).