Biedermeyer
Commander
- Registriert
- Apr. 2005
- Beiträge
- 2.392
Paukenschlag!
Da ging Intel auf irgendeine Weise die Duese...
Da ging Intel auf irgendeine Weise die Duese...
Zuletzt bearbeitet:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Limit schrieb:Das mag für die Mac- und Windows-Welt zutreffen, unter Linux gibt es bereits viele für ARM angepasste und optimierte Programme und auf diese beziehe ich mich auch. Schau mal auf OpenBenchmarking.org. Da gibt es ein paar Real-World-Tests mit ARM-Entwickler-Boards. Da sind zwar meist keine High-End-SoCs verbaut (der beste getestete ist wohl nVidias Denver2), aber man sieht, dass die ARM-SoCs im Vergleich zu Geekbench deutlich schlechter abschneiden.
Atent123 schrieb:Übrigens.
Intel will noch dieses Jahr eigene ARM CPUs auf den Markt bringen (komplett eigenes Kern Design).
Das ganze soll im 10nm Fertigungsverfahren kommen.
Einfach mal so weil CB es mehr oder weniger Ignoriert hat.
Steini1990 schrieb:Das glaub ich erst wenn ich es sehe.
Die Kritik an Geekbench betrifft in erster Linie die Qualität der Tests.Atent123 schrieb:Wie optimiert die wirklich sind wird sich noch zeigen müssen.
Geekbench 4.1 hat den Vorteil das es alle (zumindest die meisten) momentan relevanten arten von Berechnungen abdeckt.
Klar gibt es die, praktisch alle modernen ARM Mobil-SoCs haben einen integriert. Bei Qualcomm z.B. schon seit dem 2014 erschienen SD808/810.Atent123 schrieb:Gibt es den überhaupt schon kompakte Hardware Encoder für h265 ?
Das ist ein etwas unfairer Vergleich, Switch mit 30fps bei 720p, die beiden anderen Konsolen mit 60fps bei 1080p. Zudem würde es mich nicht wundern, wenn man bei der Switch zusätzlich noch ein paar Sachen abgeschaltet hat, denn 30FPS ist für einen Shooter schon suboptimal. Zudem dürfte zumindest bei Jaguar eher die GPU limitieren. Auf dem PC erreicht z.B. die stärkere Tonga-GPU selbst mit einem flotten i7 keine Werte konstant über 60fps. Mit einer schnelleren GPU ist aber selbst ein alter Pentium G 2C/2T mit 2.5GHz ausreichend für deutlich höhere Werte.Atent123 schrieb:Auf der Switch läuft Doom mit stabilen 30 FPS auf 3 A57 Kernen mit nur 1 Ghz takt (der A11 ist da bestimmt mehr als 5 mal so schnell).[..]Die Jaguar CPUs der PS4 und Xbox One Schaffen es nicht immer konstante 60 FPS zu halten.
Woher hast du das? Auf der aktuellen Top500 Liste in nicht ein einziges System mit ARM gelistet. Der schnellste Rechner nutzt eine propritäre RISC-CPU, dazu kommen in den Top10 noch fünf Xeons, zwei Power-CPUs und je ein Opteron und ein SPARC.Atent123 schrieb:Im Großen Bereich (Server und Supercomputing) dominiert ARM momentan den Supercomputerbereich (die 2 Schnellsten nutzen ARM) und Quallcom greift Xeon und Epyc an.
Limit schrieb:Woher hast du das? Auf der aktuellen Top500 Liste in nicht ein einziges System mit ARM gelistet. Der schnellste Rechner nutzt eine propritäre RISC-CPU, dazu kommen in den Top10 noch fünf Xeons, zwei Power-CPUs und je ein Opteron und ein SPARC.
Laut Hersteller benutzt es eine eigene ISA namens Shenwei-64 und dieser ist anscheinend der DEC Alpha Architektur nicht ganz unähnlich.Atent123 schrieb:Der Sunway Taihu Light nutzt ARM v8 Kerne.
Solange man nur SoCs mit ähnlicher Architektur vergleicht ist er durchaus brauchbar. Für Vergleiche zwischen Architekturen oder als Benchmark für Desktop-Performance ist weniger geeignet.Atent123 schrieb:Habe ich verstanden jedoch ist er trotzdem Quanitativ Super
Das kommt drauf an, ob einer der Kandidaten nicht doch ins GPU-Limit rennt.Atent123 schrieb:Auflösung hat nichts mit der CPU zu tun und die details sins zwar auf Low jedoch sind alle Effekte noch vorhanden.
Da ich mich kaum mit Konsolen beschäftige, kann ich nicht wirklich viel dazu sagen. Allerdings schaffen auf dem PC selbst alte Low-End-CPUs die 60fps locker (Pentium G3258 2C/2T untertaktet auf 2.5GHz kommt mit einer 980Ti auf min. 69fps). Auf einem Intel Core i7-6700K (4C/8T@4GHz) braucht es aber trotzdem min. eine R9 290 (Hawaii) um die 60fps-Marke bei 1080p auch nur gerade mal so zu erreichen. Das wurde übrigens mit OpenGL getestet. Bei späteren Tests mit Vulkan ging die Framerate bei kleineren CPUs schnell mal um mehr als 50% hoch. Kurz gesagt ist Doom, vor allem mit einer Low-Level-API, eher sparsam wenn es um CPU-Leistung geht, braucht aber definitiv eine schnelle GPU.Atent123 schrieb:Würden die Framedrops an der GPU liegen würde sich durch die eingebaute dynamische Auflösung einfach die Auflösung senken (wie es auf der Xbox One ja auch häufig passiert).
Von der Rohleistung kommt sie nicht ganz an eine RX470 heran zumal es eher unwahrscheinlich ist, dass bei einer TDP von 45W (inkl. CPU) die 1190MHz dauerhaft gehalten werden kann. Natürlich dürfte es auch darauf ankommen, ob es sich um eine Polaris- oder Vega-Ableger handeln wird.DonL_ schrieb:So wie es aussieht sind sie mit 1536 Shadern und 1190MHZ Takt in Richtung kleiner RX 470 unterwegs, also auf Niveau der 1050ti oder besser.
Bei der jetzt anstehenden H-Serie wird man wohl eher kein neues Die auflegen, dafür dürften einfach die Stückzahlen nicht hoch genug sein. Für ein 4C-Design ohne iGPU hat man ansonsten eigentlich keine Verwendung. Sollte Intel auch andere Serien mit AMD-GPUs austatten, könnte es interessant werden. Aber selbst dann würde ich die Wahrscheinlichkeit, dass Intel AMDs Infinity Fabric implementiert als eher gering einschätzen. Zumal ich nicht wüßte für welche Segmente eine APU mit schneller Grafik sonst noch interessant sein könnte, denn bei den Desktops dürfte einerseits ein GT2 für Büro-PCs ausreichen und andererseits dürften die Spiele weiterhin dGPUs bevorzugen.WinnieW2 schrieb:Was ich mich frage: Wird Intel da ganz normale Kaby-Lake Chips nehmen u. die on-Chip Grafik deaktivieren oder wird Intel hier besondere Chips produziere welche erst gar keine iGPU haben, dafür eine besondere Schnittstelle zur GPU auf dem separaten Chip?
Du sprichst hier von relativen Größen. Für die Kosten sind allerdings eher die absoluten Größen von Bedeutung. Man sollte auch bedenken, dass zwei Dies mehr Fläche brauchen als ein Die, der die selben Aufgaben erfüllt. Zusätzlich enstehen weitere Kosten durch das MCM und den zusätzlichen Testaufwand. Deswegen lohnt sich das nur bei großen Dies, bei denen der Verschnitt und die Fehlerraten hoch sind.WinnieW2 schrieb:Zusätzliches RAM (L3-Cache) u. die GPU jeweils auf ein separates Die setzen u. dadurch die Ausbeute bei der Produktion steigern.
Die GT2 Grafik belegt heute bereits ca. 1/3 der Chipfläche bei den CPU (bei Vierkernern, bei Zweikernern prozentual sogar noch mehr).
WinnieW2 schrieb:Das bedeutet wohl auch dass es CPU mit GT4 und vermutlich auch GT3+ HD Grafik bei Intel zukünftig nicht mehr geben wird, zumindest so lang der Deal mit AMD laufen wird.
Was ich mich frage: Wird Intel da ganz normale Kaby-Lake Chips nehmen u. die on-Chip Grafik deaktivieren oder wird Intel hier besondere Chips produziere welche erst gar keine iGPU haben, dafür eine besondere Schnittstelle zur GPU auf dem separaten Chip?
Sunjy Kamikaze schrieb:Ebenso wäre ein 6 Core CPU ne feine Sache... hatte gehofft die kommen mit der 8 gen H Serie.
Ozmog schrieb:Grenzen werden da wohl bei der Kühlung schnell kommen. Die Dinger sind ja eher für kompakte und relativ leistungsstarke Notebooks gedacht, deswegen baut man ja alles in einem Package. Daher dürfte die Kühlung auch eher auf Kante genäht sein.
Ob die TDP dann durch den OEM einstellbar ist, ist meines Wissens nicht bekannt. Dadurch könnten die OEMs immerhin bei den Modellen etwas variieren und mit größerer Kühlung auch mehr TDP zulassen.
YforU schrieb:Ohne IGP und Umschaltung auf die dGPU bei Bedarf wie bei Notebooks heute üblich wäre das Paket bezogen auf die Akkulaufzeit schlechter als das was es bereits gibt.
Auf den Energiebedarf einer IGP im normalen Office/Media Betrieb lässt sich eine dGPU mit eigenem Speicher/Controller welche über PCIe angebunden ist unmöglich drücken. Hinzu kommt das Intels GPU Architektur in diesem Kontext (Low Power, Power Management) inzwischen richtig gut ist.
Sunjy Kamikaze schrieb:Solange die CPU den Turbo allcore halten kann unter lasst wäre das schonmal ausreichend.
Atent123 schrieb:Gibt es den überhaupt schon kompakte Hardware Encoder für h265 ?
Atent123 schrieb:"Spiele"
Auf der Switch läuft Doom mit stabilen 30 FPS auf 3 A57 Kernen mit nur 1 Ghz takt (der A11 ist da bestimmt mehr als 5 mal so schnell).
Die Jaguar CPUs der PS4 und Xbox One Schaffen es nicht immer konstante 60 FPS zu halten.
Natürlich spielen da API und Optimierung mit rein jedoch zeigt es das selbst alte und Schwache ARM CPUs zu großem in der Lage sind.
Tegra dürfte doch sehr nah dran sein an iGPU. Ich denke, es ist weitaus schwieriger, ein SoC mit GPU zu entwickeln, als eine GPU in ein Package mit einer CPU zu stecken.Zuckerwatte schrieb:Und wo hat Nvidia Erfahrung mit IGPUs? Wohl eher mit dedizierten Lösungen...
Das Problem ist..niemand will sich selbst auslötende Grafikchips im Notebook *auf den Mann mit der Lederjacke und dem Holzbrett schiel*
NeinAtent123 schrieb:Intel will noch dieses Jahr eigene ARM CPUs auf den Markt bringen (komplett eigenes Kern Design).
NeinAtent123 schrieb:Wurde offiziell von Intel angekündigt.
JaAtent123 schrieb:Dazu will Intel auch noch seine Fertigung für andere ARM Hersteller anbieten.