Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsXbox One S: 16-nm-Chip, höherer GPU-Takt und geringerer Verbrauch
Habe mir die Konsole fürs Wohnzimmer als 4k Bluray Player angeschafft.
Leider unterstützt die 2014er Sony TV Serie ja noch kein HDR, aber das Bild ist für mich trotzdem TOP
Dass sie nebenbei auch noch Spiele gut abspielt und gut im Rack aussieht, bin ich zufrieden.
Rein optisch würde würde die one s sehr gut bei mir reinpassen mit den geplanten neuen wohnzimmerbmöbeln mit dem weiß, leider zocke ich zu 90% an meinem 27" fhd monitor am schreibtisch das mir 4k und der hdr support nicht viel bringen.
Und da ich fur meine 500gb one kaum noch was bekomme wäre der aufpreis auch zu hoch zur 2tb version.
Wobei mir als alten gow fan es bei der roten gears edition in den fingern juckt
Ich plane eh in den nächsten 2 jahren einen monitor kauf und ich hoffe das es bis dahin bezahlbare hdr monitore gibt
Bleiben die theoretischen 7% Mehrleistung durch den höheren Takt. Davon kommen, wie man der News entnehmen kann, mal mehr mal weniger Frames an. Alles in allem werden das maximal ca. 1-5 Frames mehr sein. Und das auch nur bei Spielen die nicht ins CPU Limit rennen oder keinen FPS Lock haben.
mich würde interessieren, ob man den alten xbox on kühler nutzen kann.
der hat nämlich eine heatpipe mehr und eine kupferplatte. die der neuen ist entweder vernickelt oder komplett aus alu um kosten zu sparen.
das könnte vllt ein paar grad und somit lautstärke einsparen.
der alte lüfter sollte nicht gehen, da der deutlich zu hoch ist
Schaut euch nochmal meinen Post zum Thema Lautstärke an. Oder einfach direkt bei Dr. Windows lesen.
Nur weil CB das hier schreibt muss es nicht lauter sein. Martin @ Dr. Windows hat es verglichen.
Und @ chatstar: Das Ding nennt sich xBox One/S oder One/S aber nicht xBone. Bist ja auch nicht chatnoob, obwohl es besser passen würde.
Zu 1080 Stock/normal: kannst du denn bei der XBOX/PS4 die Grafik so runterschrauben, dass du wenn du willst flüssige Frames bekommst? Äpfel und Birnen.
nein kann man nicht bei Konsolen
würde man darauf aber auch nur annähernd wert legen, dass man dips im 2 bis 5 fps Bereich unter allen umständen vermeiden will um ein flüssiges Spielerlebnis zu haben, würde man sich erst gar keine Konsole kaufen. dann ist man dort eh an der falschen stelle
und genau deshalb sehe ich dort keinerlei Probleme. der Hersteller nicht und die Kunden wohl auch nicht. du bist ja keiner
Im Kontext dedizierter GPUs ja. Die gestrichenen 20nm APUs/SoCs nein. Wenn ein SoC nahezu zeitgleich mit einer dedizierten GPU auf Basis einer neuen Architektur auf den Markt kommt ist dessen Feature Level immer geringer. Integration und Validierung passieren nicht über Nacht.
Ach so. Jeder, der dir widerspricht hat dich "nicht verstanden". Du kannst aber nichtmal aufzeigen, was diese Personen angeblich falsch verstanden haben. Komm mal aus deiner Trollzone raus und leg ein paar Fakten auf den Tisch.
Fat Sales: ca. 22 Mio. --> GCN2
Slim Sales: ca. 0 Mio. --> GCN4
Klar denkt sich da jeder geistig gesunde Entwickler: "Lass mal 22 Mio. Leute völlig grundlos verärgern. Die Handvoll Slim User, die unser Produkt dann noch kaufen reichen dicke." Absolut weltfremdes Szenario.
Alles bisher bekannte spricht ebenfalls gegen deine These. Und wenn dann in einem Jahr auch du merkst, dass du völligen Unsinn geredet hast, suche ich dir deine Posts nochmal raus.
Digital Foundry: Would I be right in assuming the GPU clock boost also increases ESRAM bandwidth? Where does that stand now?
Albert Penello: You would be correct! Our ESRAM bandwidth scales proportionately with the GPU clock speed increase. That means our peak goes from 204 GB/s to 219GB/s.
Wenn dir die ersten beiden Aussagen nicht reichen sollten lässt spätestens die letzte keinen Spielraum mehr für Interpretationen. Alles oberhalb von GCN2 geht deutlich effizienter mit der Bandbreite um. Eine Skalierung der ESRAM Bandbreite proportional zur höheren GPU Frequenz (+7%) wäre nicht notwendig gewesen.
Und woher wollen die das wissen?
Die spekulieren nur und es wäre Unsinn GCN2 auf 16FF+ zu portieren, das wäre mit GCN4 günstiger und auch nicht mehr Arbeit!
Und woher wollen die das wissen?
Die spekulieren nur und es wäre Unsinn GCN2 auf 16FF+ zu portieren, das wäre mit GCN4 günstiger und auch nicht mehr Arbeit!
Das oben genannte steht auch im Q&A mit Albert Penello - senior director of product marketing and planning, Microsoft.
Wie kommst du darauf das es günstiger und schneller geht effektiv einen SoC neu zu entwickeln statt ein bereits fertiges Design für 20nm planar zu 16nm FF+ zu portieren ? Die GPU ist nichts das sich mal so nebenbei austauschen lässt. Erst recht nicht bei einem komplexen Speicher/Cache Subsystem mit ESRAM.
Hinzu kommt das TSMCs 16nm FF+ eine direkte Weiterentwicklung des planaren 20nm Prozesses darstellt
Microsofts gesamtes Konzept ist von Anfang an darauf ausgelegt gewesen schnell von 28nm wegzukommen um eine kompakte und kostengünstige Slim Variante anbieten zu können (DDR3 + ESRAM hat gegenüber GDDR5 in dem Kontext durchaus Vorteile). Im Gegensatz zu Sony stand Home Entertainment immer voll im Fokus. Mit 20nm planar ists schlussendlich nichts geworden und deshalb möglichst schnell 16nm FF+.
Wie wäre es, wenn einfach mal alle diesen troll chatstar ignorieren. Es sollte doch mittlerweile jedem klar und offensichtlich sein, dass er keinerlei ahnung hat.