News Reale CPU-Tests: Intel will Cinebench & Co als Benchmarkreferenz ersetzen

Naja, Intel kann da viel sagen, jedoch wird die Community doch eh Cinebench prüfen.
 
Hat man sich das Vorgehen bei nVidia abgeguckt?

Vorschreiben wie die Hardware getestet werden soll.
Am besten noch den Reviewer persönlich übermitteln...

Das kennen wir doch.

NVidia NDA lässt grüßen.

Bin gespannt was Heise macht. Die sind ja bekanntlich recht Intel nah... Bei nVidia haben sie sich ja gesträubt, mitzugehen. Was durchaus positiv zu sehen ist.

Jetzt interessiert mich der nächste Intel Test hier umso mehr. Wenn dort auch keine Kritik mehr zu lesen ist, wie in den nVidia - Tests, dann wars das für mich hier bei CB.

Schade um die schöne und freundliche Atmosphäre in der Community.

Aber freie Presse sieht anders aus.
Wenn ich wüsste dass man das Geld fürs Abo, zum Einkauf der Test Hardware bei einem regulären Händler nutzt, wäre mir das lieber als vom Hersteller gestellte Samples mit Vorgaben wie man diese testet und was man schreiben darf.

Schon seltsam hier manchmal.
Und jedwede Kritik landet im Aquarium.
Kritische Beiträge im Forum (zB bzgl Sicherheitslücken Intel) werden geschlossen...

Was is denn nur los?
Bitte macht eure Arbeit als Redakteure im Sinne der Pressefreiheit. Danke.
 
KlaraElfer schrieb:
Gegen den 12 Kerner wird es noch halbwegs in Anwendungen passen, aber in Cinebench werden da auch mind. 15% Rückstand auf der Uhr stehen, nehme ich an.
Meinst du? Wir reden hier immerhin noch von 50% mehr Kernen.
Den Cinebench Rückstand von 15% sehe ich aktuell fast schon beim großen 95W 8-Kerner, wenn man den Gleichstand mit dem kleinen 8-Kerner auf der CES nimmt.

Für den 12C sehe ich eher mindestens 40% Vorsprung in Cinebench, und das auch nur, wenn er dabei so niedrig taktet, wie das CES Sample, bei dem ich mal pessimistisch den Faktor 1,4 für einen gleich taktenden 12C genommen habe. Wenn sich der 12C im 4,4-4,5GHz Allcore Bereich befinden sollte, sind es auch locker 50%.
 
Wie eine CPU im Cinebench abschneidet ist für mich ungefähr genauso spannend wie wie schnell sie Primzahlen oder Fakultät berechnen kann. Was mich persönlich interessiert ist, wie sie in CPU-lastigen Spielen abschneidet. Hatte eigentlich erwartet, dass Ryzen in Anno 1800 endlich mal punkten kann, aber Pustekuchen. AMDs schnellste CPU da gerade mal auf dem Niveau eines 2 Jahre alten 7700K mit 4C/8T. Bin gespannt, ob Zen2 da jetzt endlich mal punkten kann. Dann würde es langsam mal interessant werden.
 
RobinSword schrieb:
Wie eine CPU im Cinebench abschneidet ist für mich ungefähr genauso spannend wie wie schnell sie Primzahlen oder Fakultät berechnen kann. Was mich persönlich interessiert ist, wie sie in CPU-lastigen Spielen abschneidet.
Ich denke immer, der prozentuale Vergleich zwischen dem Abstand in Cinebench und dem Abstand in Games ist da trotzdem ein recht guter Indikator, wenn man nur die Cinebench Ergebnisse hat.
 
Den Verantwortlichen von Intel war wohl gar nicht klar welchen Sturm die damit entfacht haben.

Die Posaunen von Jericho waren garantiert ein Flüstern dagegen, aber vielleicht ist das auch nur eine Ablenkung von einer Sache die viel schlimmer ist.
 
Kaum ist absehbar dass man im Multicore Bereich untergeht versucht man entsprechende Tests abzusägen und die Multicore Krüppel ins Rampenlicht zu stellen, lustig. :volllol:
 
AMD wird Intels Vorsprung nie aufholen können, immerhin ist der schnellste Intel doppelt so schnell wie der schnellste AMD Prozessor! Und jetzt kommt auch noch ein schnellerer Intel! Der ist dann 3 mal so schnell! Und die integrierte Grafik ist bald auch doppelt so schnell! Da kann AMD gleich mal alles unter der RX580 einstellen!

Edit: sry, konnte mich nicht zurück halten... Was in den Threads wieder abgeht, wartet doch einfach mal auf morgen, dann sind wir bissle schlauer, Intel hat seine Kanone abgefeuert... Jetzt mal schauen was AMD so abschießt...
 
Zuletzt bearbeitet:
Intel geht der Arsch auf Grundeis, das zeigt man hier sehr deutlich.
Fast ganz oben rangiert Chrome, diverse Office-Programme sind zu finden, aber auch Steam, WinRAR, VLC sowie einige Spiele und Bildbearbeitungsprogramme.
Mal von Bildbearbeitung und Spielen abgesehen packt das alles auch ein Pentium/Athlon.
Ich sehe irgendwie keinen Grund ne CPU wie den 9900K in solchen alltäglichen Disziplinen zu messen.
Wird dann der Abstand in Milisekunden gemessen den ne Anwenung braucht um zu starten?

@GHad
bait.jpg
 
  • Gefällt mir
Reaktionen: paccoderpster
highwind01 schrieb:
Oder wolltest du AMD wirklich für über ein halbes Jahrzehnt FX-Kundenver*rsche danken?

Hast du Intel gedankt, als sie AMD mit illegaler Marktsabotage unten gehalten haben und Ihnen Umsätze verwehrt haben, die dann zu solchen Dingen wie Bulldozer geführt haben? Das war zu Zeiten als AMD mindestens ebenbürtig war.
 
  • Gefällt mir
Reaktionen: Kodak und Volkimann
highwind01 schrieb:
(jetzt) wo sich für die Endkunden, nach -dank AMD- so langem Stillstand, endlich was tut.
Du meinst weil AMD 6-8 Kerner im Mainstream platziert hat und damit endlich Intel dazu gebracht hat nen Schritt nach Vorne zu machen und das gleiche zu tun? :daumen:

Und AMD weiter für Bulldozer zu kritisieren ist ja wohl lächerlich, als ob die damals Absichtlich so nen Underperformer produziert hätten um "Kunden zu verarschen". Ne neue Architektur entsteht nicht von heute auf morgen.
 
highwind01 schrieb:
Oder wolltest du AMD wirklich für über ein halbes Jahrzehnt FX-Kundenver*rsche danken?
Ich sehe die Kundenver*rsche nicht. Man hat beim Design der FX eben schlicht aufs falsche Pferd gesetzt bzw die Entwicklung der folgenden Jahre falsch eingeschätzt.
Was sie nach dem Ur-Bulldozer, dann noch aus den FX gemacht haben, ist wiederum doch ganz okay gewesen, wenn man die Ausgangslage bedenkt.
 
MK one schrieb:
Vermutlich wollen sie wieder von Principled Technologies :freaky: einen " unabhängigen " Test machen lassen in Real World Anwendungen, fragt sich nur was sie da wieder vergessen zu erwähnen :D , wie etwa speziell auf Intel zugeschnittener Code .
Intel hat das schon mal abgezogen , für ihre Prozessoren haben sie hochoptimierten Code verwendet , bei AMD CPU wurde der allgemeine ( wesentlich langsamere ) verwendet ...
Der war gut!
 
Oh AMD überholt, da müssen wir schnell eine neue Spur auf der Autobahn bauen.
 
Hm, irgendwie sollten mal wieder richtige RealWorldBenchmarks eingeführt werden.

Beispielsweise habe ich zwischen Abi und Studienbeginn bei der Auflösung/Entrümpelung von ein paar Firmen geholfen. Einmal im vierten Stockwerk und alles musste weg (PCs --> Sperrmüll und HDDs mussten unbrauchbar gemacht werden). Also Container in den Hof gestellt und Fenster auf. Mit Kollegen dann gebencht gemarkt getestet: Je einen PC mit AMD und Intel gleichzeitig raus. Was soll ich sagen: in den meisten Fällen war der Intel schneller...
 
  • Gefällt mir
Reaktionen: ZeusTheGod, Epix, Arkada und eine weitere Person
Gut, nicht nur AMD hat eine miese PR-Abteilung.
Intel läuft ihnen gerade den Rang sowas von ab, jetzt kann nichtmal mehr der X570 Fan auf der SB bei Ryzen 3000 AMD vor die Wand fahren.

Simanova schrieb:
Oh AMD überholt, da müssen wir schnell eine neue Spur auf der Autobahn bauen.

Ne nicht neue Spur bauen, Standstreifen nutzen.:daumen:
 
Patata schrieb:
Bin ich der einzige, der das etwas "Suspekt" findet, dass Intel plötzlich nicht mehr auf Sachen wie Taktraten oder Cache schauen will, sondern nur mehr auf den Aufbau der Architektur etc? :p

Eigentlich klingt das sogar kontraproduktiv, wenn man bedenkt, dass ihre Architektur mehr Sicherheitslücken hat, als ein Schweizer Käse. :p :D
Das eigentliche Problem ist natürlich klar und existiert auch. Die eine CPU ist halt in Cinebench leistungsfähiger, aber wenn ich dann den ganzen Tag Stellaris (z.B., gibt ja noch genügend andere) spiele, das nur einen Kern richtig auslastet, ruckelt es am Ende trotzdem, obwohl die CPU nur zu 10% ausgelastet ist.
Stellaris jetzt als Benchmark zu nehmen würde da fast logisch klingen, wäre da nicht das Problem, dass es bei Intel aufgrund desselben Problems kurze Zeit später genauso ruckelt. Daher würde ich ja schon gerne wissen, welche CPU nun wirklich potenziell schneller ist und der Rest ist ein Problem der Programmierung, wo man nur hoffen kann, dass sich Mehrkernoptimierung langsam auch mal abseits von AAA durchsetzt.
Schlechte Programmierung als Vorteil einer CPU zu verkaufen mag zwar praxisnah wirken, ist aber letztlich eine Art Legitimierung von schlechter Programmierung, oder nicht?

Ich benutze hier schlecht, ohne den Programmierern zu nahe treten zu wollen, kann mir durchaus vorstellen, dass das gerade für kleine Teams nicht so einfach ist. Dennoch kann es ja keine Lösung sein, seine Spiele dauerhaft auf 10GHz Single-Core-Leistung "auszulegen", die wir noch lange nicht erreichen können. 🤷‍♂️
 
KarlKarolinger schrieb:
Das eigentliche Problem ist natürlich klar und existiert auch. Die eine CPU ist halt in Cinebench leistungsfähiger, aber wenn ich dann den ganzen Tag Stellaris (z.B., gibt ja noch genügend andere) spiele, das nur einen Kern richtig auslastet, ruckelt es am Ende trotzdem, obwohl die CPU nur zu 10% ausgelastet ist.
Dafür gibts doch den Single Core Test in Cinebench^^
 
  • Gefällt mir
Reaktionen: KarlKarolinger
@RobinSword
Nein CB wird seine Empfehlungstabelle nicht ändern, da kannst du auch noch so oft in Threads dies schreiben.

Und warum AMD CPUs nicht so viel besser skallieren in Anno1808, liegt doch an der verwendeten Enginge. Allein das du hier wieder solche Aussagen vom Stappel lässt, zeigt das es dir nur darum geht gegen AMD zu schießen.
 
Zurück
Oben