News Reale CPU-Tests: Intel will Cinebench & Co als Benchmarkreferenz ersetzen

RobinSword schrieb:
Im Cinebench gewinnt immer die CPU mit den meisten Kernen. Von daher hat der mit "praxisnahen Anwendungsbenchmarks" nicht viel zu tun.
Das stimmt so nicht , im Cinebench gewinnt die CPU mit den besten Multicorekonzept ....
siehe CES 2019 ES gegen 9900K , beide 8 C .......( der ES wurde wesentlich tiefer als 4,7 Ghz getaktet meiner Meinung nach ... )
Da es nicht beliebig in die Höhe gehen kann beim Takt , geht es in die Breite und da ist AMD besser aufgestellt ...
 
Steam als Benchmark? Da ist doch eher die Geschwindigkeit der SSD wichtig für die Geschwindigkeit. Wieviel Einfluss hat da die CPU?
 
  • Gefällt mir
Reaktionen: s0UL1, HaZweiOh, Piep00 und 2 andere
Intel ist mittlerweile so peinlich ... klar, jetzt wo erste Gerüchte herauskamen, dass der AMD 16C mit 4,2ghz so schnell ist wie Intel 16C mit 4,8 in Cinebench. Jetzt will man Cinebench nicht mehr lol

Cinebench ist übrigends ein realer Test/Anwendung -> Cinema4D
 
  • Gefällt mir
Reaktionen: s0UL1 und XTR³M³
Ok, dritte Intel News vom selben (Marketing-)Event, und ich kann nur eines sagen:

Lächerlich, Intel.

Next step:
  • Computex abwarten
  • Faktenage prüfen
  • Eigene Meinung bilden

Danke
 
  • Gefällt mir
Reaktionen: s0UL1, BacShea, XTR³M³ und 2 andere
aldaric schrieb:
Zudem hat selbst Intel 20 Jahre lang Cinebench als die Referenz angesehen, nun wird man die Krone dort wohl verlieren und will plötzlich den Referenzbenchmark schlechthin als nichtig erklären?
Ich denke da fast so wie du. Ich habe das Gefühl, das Intel nun wirklich ein wenig die Felle weg schwimmen bei den klassischen »Benchmarks«.

Zen 2 bringt ein relativ alten und gleichzeitig aber auch neuen Ansatz, was die CPU angeht. Mit dem aktuellen System über den I/O-Chip kann AMD »fast« beliebig die Anzahl der Kerne günstig skalieren - okay sie brauchen einen entsprechenden I/O-Chip, der neu konzipiert werden müsste.

Dazu scheinen sie die Latenz-Probleme in den Griff zu bekommen - dazu gleich etwas mehr. Desweiteren wird nun die FPU massiv aufgebohrt und nun mit 2 * 256Bit-Operationen auch sehr gut aufgestellt, kann also in AVX-Benachmarks zu Intel aufholen und ggf. sogar überholen. Intel hat aktuell dann primär den Vorteil der AVX512-Einheiten, aber kann auch nur »einen« Befehl ausführen, erst SkyLake-X kann entsprechend 2 512er ausführen (mein letzter Kenntnisstand).

AMD hat mit Zen2 sicher - morgen werden wir mehr wissen - ein gewaltiges Brett in der Entwicklung und geht einen alten Weg mit vielen neuen Ansätzen. Sowohl Intel als auch nVidia forschen ja auch an entsprechenden Interconects um von den großen Chips herunter zu kommen.

RobinSword schrieb:
Im Cinebench gewinnt immer die CPU mit den meisten Kernen. Von daher hat der mit "praxisnahen Anwendungsbenchmarks" nicht viel zu tun.

Wünsche mir ehrlich gesagt hier auf CB schon länger Benchmarks von Programmen, die wirklich auch von vielen regelmäßig genutzt werden
Problem ist nur, dass die »regelmäßig« genutzten Programme für normale CPUs heute kein wirkliche »Herausforderung« darstellen.

Sieht man sich die Liste der Programme an - streicht die Spiele heraus - dann kommt das erste wirkliche Programm, dass ansatzweise Rechenleistung erfordert mit Excel auf Platz 21, nur die meisten werden Excel nicht an diese Limits treiben. Dann folgt Photoshop, hier gibt es allerdings viele »Arbeitszenarien«.

Für Illustrator als auch Premiere gilt das selbe, After Effects ebenso. Allem gemeinsam ist aber, dass man durch gute Benchmarkwerke in wenige ausgewählten Programmen - darunter auch der Cinema4D - durchaus auf die Leistung in diesen Programmen schließen kann.
 
  • Gefällt mir
Reaktionen: GERmaximus, Ned Flanders und aldaric
Ich für meinen Teil betrachte als " Real World " Anwendung für den Privatbereich das encodieren von Videos als CPU / Kern fordernste Angelegenheit , in Zeiten von 4K kann man es sich gar nicht leisten ein Video unkomprimiert zu lassen ( seh ich jedenfalls so ) , 4K gehört die Zukunft , HDR ist ein sinnvolles zusätzliches Feature , das alles braucht Speicherplatz , H264 ist gut , H265 ist besser . Amd ist da jetzt den richtigen weg gegeangen und hat die AVX Einheiten deutlich aufgebohrt und das ohne AVX offset = AMD braucht nicht runtertakten , am deutlichsten zu merken am Skylake -X und nur dieser besitzt bisher AVX 512 abseits der Server Plattform , die neuen 10 nm CPUs spielen vorerst für den Desktop keine Rolle da 10 nm Desktop CPUs seitens Intel gar erst 2022 kommen sollen .
 
Die Idee ist super! Werde ich morgen gleich meinem Chef vorschlagen. Alles, worin andere besser sind oder sein könnten, löschen wir aus unserer internen Bewertung und nehmen nur das, was wir wirklich gut können und schon sind wir die Besten.
 
  • Gefällt mir
Reaktionen: .fF, conspectumortis, BacShea und 7 andere
SKu schrieb:
Ich finde die Idee dahinter gut, das schafft mehr Transparenz. ...

Wenn Intel im Gegenzug das Konkurrenz System wirklich künstlich ausbremst (angeblich: Ice Lake lief mit 8GB LPDDR4X-3733, der 3700U mit 8GB DDR4-2400) ist die Transparaenz für'n Ar...
 
  • Gefällt mir
Reaktionen: Ned Flanders und so_oder_so
Grundsätzlich habe ich kein Problem mit Intels Argumentation, den Fokus weg von synthetischen Benchmarks und stattdessen auf real benutzte Software zu legen, ist nicht verkehrt.

Das Timing ist jedoch schon sehr, sehr verdächtig. Ich wäre bei den neuen Benchmarks misstrauisch, welche Settings und welche Software-Auswahl genau verwendet wurde.
 
andi_sco schrieb:
Wenn Intel im Gegenzug das Konkurrenz System wirklich künstlich ausbremst (angeblich: Ice Lake lief mit 8GB LPDDR4X-3733, der 3700U mit 8GB DDR4-2400) ist die Transparaenz für'n Ar...

Da ist AMD etwas selbst dran schuld , sie haben den DDR4 Takt runtergesetzt um die TDP zu halten , denke ich mal , 2400 ist der empfohlene Takt seitens AMD , was Intel sicherlich ausgenutzt hat
Nur zur Info : der 3700U ist nicht in 7 nm sondern 12 nm , die Ice Lake CPU s sind jedoch 10 nm , von daher können sie auch dem Speicher mehr Verbrauch gönnen ...
 
Real World Testfälle? Gerne zusätzlich zu Benchmarks, die schaffen nämlich Vergleichbarkeit. Aber nicht mehr auf Kerne, Caches oder Takt schauen??? Was soll das denn? Ich will doch wissen wie viel Technik ich für mein Geld bekomme und bei welcher Leistung/Watt/Preis... Wie soll ich sonst einschätzen, ob eine CPU für mich gut ist? Natürlich wird niemals genau das getestet was ich mache, aber je breiter die Tests, desto eher kann ich das doch abschätzen.

Ein paar Szenarien aus dem Real-Life, was ich so am PC mache:
  • Eclipse Workbench starten, Java kompilieren mit Gradle/Maven mit included Builds
  • Starten einer VM, mstcs Verbindung auf Remoteserver, VPN Tunnel Aufbau
  • Entpacken von Dateien von SSD auf Netzlaufwerk
  • Filter-Anwendung/Export von 100 Bildern, z.B. Thumbnail Generierung
  • Tomcat/Docker Startup mit x WAR Webapps
  • Neuberechnung einer großen Pivot Tabelle in Excel nach Aktualisierung von Eingangswerten
  • Export einer riesigen CSV aus der lokal laufenden Datenbank

Könnt ihr gerne alles vergleichbar benchen, aber bis dahin nehme ich gerne auch Cinebench als Indikator.
 
  • Gefällt mir
Reaktionen: s0UL1, BacShea, Obvision und eine weitere Person
MK one schrieb:
Da ist AMD etwas selbst dran schuld , sie haben den DDR4 Takt runtergesetzt um die TDP zu halten , denke ich mal , 2400 ist der empfohlene Takt seitens AMD , was Intel sicherlich ausgenutzt hat

Klar, aber mit wieviel RAM Takt werden die entsprechenden Intel-Notebooks dann wirklich veröffentlicht?
Der 3777 SO-Dimm ist ja nicht ganz billig, laut CB Preisvergleich mal schnell 160€ gegen 370€, wenn man beides als 32GB nimmt.
Und was wäre, wenn Intel auch wegen der TDP den Takt begrenzen muss...
 
werden wir nächstes Jahr sehen , dann kommen AMDs 7 nm APU s für den Desktop und Mobil Markt , da werden dann die Karten nochmal neu gemischt , der alte 12 /14 nm kann nicht gehen die 10 nm im Mobile Markt anstinken , dazu ist die AKKU Laufzeit dort ein viel zu wichtiges Thema
 
Von selbst eigentlich zufriedener Intel-Nutzer, aber die benehmen sich in den letzten Jahren wie Kinder beim "Ticken" Spielen.

Immer wenn was nicht passt "Klippo", "Hochtick", "ne jetzt darfste nur noch 2 Schritte machen" :rolleyes:
 
@RobinSword

Und was hat diese Diskussion in jedem Thread zu suchen, in denen du dich aufhälst? Oh warte, natürlich hat das hier nichts zu suchen.
 
  • Gefällt mir
Reaktionen: rg88
Intel kauft Journalisten?

Hm. Da war was, aber das war schon fast wieder vergessen.

@CB: Danke für die Erinnerung daran was von Ryan Shrout und PC Perspective zu halten ist. Beide genießen nun bei mir die gleiche Wertschätzung wie Toms Hardware, ich würde bestenfalls mein Katzenklo mit deren Ergüssen auslegen.
 
Pure Arroganz.
Intel hat schon immer geschaut das gewisse Anwendungen "extra" gut laufen und gut Geld bezahlt, jetzt das ganze selbst anzubieten könnte man mit Transparenz verwechseln.
Die Wahrheit ist man wird jetzt aggressiver, gereizter und offensiver.
 
aldaric schrieb:
Und was hat diese Diskussion in jedem Thread zu suchen, in denen du dich aufhälst? Oh warte, natürlich hat das hier nichts zu suchen.
Ich wurde hier gefragt, wo denn der 2700X als Gaming-CPU empfohlen wird... und da kam das Ganze eben wieder hoch. Aber ja, ansonsten hat das hier keine Relevanz. In der Empfehlungstabelle für Anwendungen passen ja die Leistungsklassen. ;)
 
Das Problem ist doch das die meisten Allday-Anwendungen heutzutage keine/kaum CPU-Last erzeugen.
Zudem ist jeder Rechner unterschiedlich zusammengestellt.

Für eine sinnvolle Vergleichbarkeit sind "synthetische" Benchmark-Programme ideal.
Möglichst identische Basis, nur die CPUs austauschen und Test laufen lassen.

Es geht nicht um die reine Leistung, sondern um die Leistung im Vergleich zu anderen.

Natürlich spielt die Leistung im Alltag eine viel größere Rolle. Nur ist die dann nicht oder nur unzureichend vergleichbar.
Ich will z.B. wissen wie gut oder schlecht ein AMD Ryzen 7 3700X gegen einen Intel Core i9-9900K abschneidet.
In welchen Szenarien ist der eine wie viel schneller/langsamer als der andere.

Intel sagt ja quasi das wir nicht mehr schauen sollen auf die technischen Spezifikationen, sondern nur auf die Alltags-Leistung.
Natürlich findet sich da immer ein Spezial-Szenario in dem Intel definitiv schneller wäre als ein AMD.

Dieses eine wollen sie dann heranziehen, um zu belegen das sie besser sind. Ganz toll...

Der eine spielt nur, einer auf FullHD@60Hz, der andere auf WQHD@144Hz, der nächste macht Videobearbeitung in 4K,
der nächste macht Audio-Bearbeitung mit Cubase und vielen VST-Plugins, der nächste macht viel Bildbearbeitung mit Photoshop,
der nächste nutzt den Rechner nur für Office und Facebook, der nächste streamt gerne LetsPlays auf Twitch,
ein anderer nutzt den Rechner auf der Arbeit und hat ständig 10 Programme geöffnet usw.

Wie soll man damit eine objektive Vergleichbarkeit herstellen?

Sollte sich herausstellen das die kommenden AMD CPUs die aktuellen Intel CPUs in Grund und Boden stampfen oder zumindest für weniger Geld gleichziehen,
sollte Intel das als Herausforderung annehmen es bei der nächsten Architektur einfach besser zu machen. Zu versuchen sich Ergebnisse schönzubasteln, bringt nichts,
weil der Anwender zu Hause dann eben mit der realen Leistung auskommen muss.
 
  • Gefällt mir
Reaktionen: McFly76
Zurück
Oben