News Prozessorgerüchte: Core i9-9900K, i7-9700K und i5-9600K im Detail

ZeroZerp schrieb:
Ich würde es mir wünschen, bin aber extrem skeptisch, wenn hier davon ausgegangen wird, dass Ryzen durch "magische" Veränderungen plötzlich pro weitere Iteration nun 15% IPC Steigerung rausholt. Wo soll die denn herkommen?

Meine Einschätzung ist, dass wir noch Steigerungen sehen werden. Vielleicht so im Schnitt 5-7% wenn es gut läuft (so wie es bei den Intel Iterationen auch war).
Es hat sich in der Zwischenzeit bei der Chip-Entwicklung enorm viel getan und es wurden für viele Ansätze, die Intel noch immer in der Core-µArch nutzt, bereits in etlichen Bereichen bessere und effizientere Alternativen und Herangehensweisen gefunden, welche man einsetzen kann. Und die sind auch bekannt dafür, Effizienz- und Leistungssteigerungen zu ermöglichen, zum Teil signifikant.

Man darf nicht vergessen, wie alt die Core-Architektur im Kern (Wortspiel nicht beabsichtigt) wirklich schon ist!
Da werden Algorithmen und Logiken mitgeschleppt, die zum Teil weit über zehn Jahre und älter sind.

Bestes Beispiel ist Hyperthreading, was seit Urzeiten durch seine grandiose (Energie-) Ineffizienz und Bandbreiten-Verschwendung auf Cache-Ebene (→ Cache-thrashing) Schlagzeilen machte (neuerlich wieder mal durch seine fatalen Fehler und kritische Unsicherheit) und oft genug gar nachteilig wirkt.

Forscher haben schon vor Jahren (um '05-'06) aufgezeigt, wie es besser geht und wie man die Leistung steigern kann – trotz alledem ist die HT-Implementierung seitens Intel seit dem Pentium 4 faktisch nicht verändert worden. Dabei hat Intel selbst '09 festgestellt, daß der Einsatz von HT prinzipbedingt zu erheblichen Latenzen auf Prozessor-Ebene führt. Ebenso hat Intel seinerzeit für die Silvermont-Architektur (Atom, Celeron, Pentium) Hyper-Threading fallen gelassen, als sie sahen, daß ohne HT die Kerne erheblich energieeffizienter waren und eine höhere Leistung erzielten – als weniger Kerne mit HT.

Wenn hier Einige einmal hinter die Kulissen schauen und sehen würden, wie stümperhaft, dilettantisch und zum Teil hoch-kritisch Teile der Core-Architektur wirklich arbeiteten, dann würde der Großteil aber ganz schnell verstummen, das kannst mal glauben.

Übrigens hat man schon damals™ '05 am Pentium IV Side-channel-Attacken demonstriert, wobei man durch Muster von Speicherzugriffen anderer Threads auf den selben Kern und Cache Zugriffe demonstrierte und freilich Daten auslesen konnte. Klingelt da vielleicht was?! Fängt mit M an und hört mit Meltdown auf …

Es gibt jedenfalls viele Baustellen in der Core-µArch, da ist ihre Umsetzung vom SMT in Form von Hyper-Threading nur das kleinste Problem. Da geht es vor allen Dingen um Sicherheit und Datenintegrität. Trotz allem, sie haben praktisch niemals irgendwelche architektonischen Verbesserungsvorschläge und Empfehlungen von (Sicherheits-) Forschern ernst genommen geschweige denn umgesetzt und halten sich noch immer für die absolute Koryphäe der Chip-Entwicklung.

Gerade im Bereich Cache-Design hat man mittlerweile große Fortschritte gemacht.
Ein anderes Thema is KI- oder zumindest adaptive und intelligente Algorithmen bei der Datenverarbeitung, insbesondere auf Cache-Ebene. Solche Ansätze hat AMD beispielsweise schon mit Ryzen und ihrem SenseMI umgesetzt.

Das soll gar nicht die Errungenschaften Intel'scher Ingenieure schmälern, sondern nur zeigen, daß Intel bei weitem nicht der Nabel der Welt ist, wenn es um Chip-Design geht – auch wenn sie sich selbst noch immer dafür halten mögen. Da haben ihnen Andere schon längst den Rang abgelaufen was Architektur-Design anbelangt. Nicht nur Arm ist eine mittlerweile für Intel bedrohliche Größe geworden, auch IBM ist noch immer wieder gut, State-of-the-Art-Implementierungen von hypothetischen Design-Verbesserungen umsetzen zu können.

Ich erwarte auch, daß Russland da zukünftig größere Fortschritte macht. … und das man sich vor China in Acht nehmen muß – die ja kürzlich ebenso Zugriff auf die x86-Architektur erhalten haben – dürfte klar sein. Es gibt noch immer Nichts, was ein paar mehr asiatische Hände nicht besser, schneller und günstiger hinbekommen könnten. Da darf man sich in Zukunft getrost auf die ein oder andere Überraschung gefaßt machen, die aus Fernost zu uns herüberkommen mag. Gegen solch eine Brain-Power ist bei uns in der westlichen Hemisphäre gar kein Kraut gewachsen …

Edit: Man darf auch eines nicht vergessen …
Die (mehr oder minder illegalen) Änderungen, die Intel seinerzeit am Cache-System vorgenommen hat – und die in erster Linie für die sagenhaften Geschwindigkeitssteigerungen der Core-Architektur damals verantwortlich waren – nämlich das Entfernen der physikalischen Grenze zwischen verschiedenen Cache-Bereichen;

Diese Änderungen haben in erster Instanz dafür gesorgt, daß die Core-Architektur überhaupt so schnell wurde. Und genau diese Änderungen an der Out-of-Order-Implementierungen sind dafür verantwortlich, daß Meltdown & Spectre überhaupt erst möglich waren. Nicht nur hat man daß schon sehr früh gewußt bei Intel (siehe oben), sondern auch externe Forscher waren sich darüber im Klaren.

Und eben diese Änderungen müssen sie in ihrer neuen µArch wieder rückgängig machen – was zu einem radikalen Geschwindigkeitsverlust führen wird, der ja auch erst einmal wieder aufgeholt werden muß …

Taxxor schrieb:
40% waren angesetzt, 52% sind es geworden, ich sehe keinen Grund, jetzt plötzlich wieder dazu überzugehen, irgendwelche Ziele zu setzen, die nur unter bestmöglichen Bedingungen überhaupt zu erreichen wären.
Ihr kapiert das echt nicht, oder?!
bgrin15x18.gif

Smartcom5 schrieb:
… ich versteh‘ ja echt nicht, weswegen hier Jeder diese obligatorischen +52% ΔIPC wiederholt, es wird dadurch nicht wahrer.
Hat denn Keiner hier mal das Kleingedruckte gelesen?
rolle15x18.gif


Es sind nicht +52% sondern +64% ΔIPC zu Escavator!
Die +52 beziehen sich lediglich auf Piledriver.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Garack, Hill Ridge, Mac_Leod und eine weitere Person
Smartcom5 schrieb:
Ihr kapiert das echt nicht, oder?!

… ich versteh‘ ja echt nicht, weswegen hier Jeder diese obligatorischen +52% ΔIPC wiederholt, es wird dadurch nicht wahrer.
Hat denn Keiner hier mal das Kleingedruckte gelesen?

Spoiler: Überraschung …
Es sind nicht +52% sondern +64% ΔIPC zu Escavator!
Die +52 beziehen sich lediglich auf Piledriver.

Ich hatte es ja eben schon mal geschrieben
Piledriver->Steamroller = +9% IPC
Steamroller->Excavator = +15% IPC

Excavator ist viel neuer als Piledriver, und IPC Verbesserung war eines der großen Themen bei Excavator.

Somit KANN der IPC Sprung gegenüber Excavator gar nicht größer sein als gegenüber Piledriver. Für mich kann sich das nur um einen Fehler im Kleingedruckten handeln und hier wurden die beiden Namen vertauscht.
Bei den Cinebench 1T Werten im Kleingedruckten passt es nämlich dann auch wieder, +58% gegen Excavator und +76% gegen Piledriver

Hier noch mal die Folie von AMD, als man noch von +40% ausging, die dann zu +52% wurden.
Road-to-Zen_Architecture-Brief-10.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ozmog
@Smartcom5
Ich gehe ebenso wie Du davon aus, dass es wieder eine Diversifizierung am Prozessormarkt geben wird.
Es wird auch wieder ein frischerer Wind wehen, was architektonische Veränderungen angeht.

Glaube aber nicht, dass die R&D Abteilungen sich nicht der Einzelprobleme, die sich stellen, angenommen haben und für vieles eine Lösung parat liegt.

Die Problematik (ich beschäftige mich gerade sehr viel mit dem Thema Chipentwicklung/Funktionsweise/Performancebremsen/Herausforderungen) und habe glücklicherweise inzwischen jemanden an der Hand, der tatsächlich in der Entwickung arbeitet, stellt sich oft folgendarmaßen dar:

Für jedes gelöste Problem gibt es oft eine Kette von Folgeproblemen (ähnlich der Thiele/Small Parameter, nach denen es keinen perfekten Lautsprecher geben kann), die sich in den Berechnungs- bzw. Designverfahren nicht wirklich zeigen, die aber Kompromisse erzwingen.

In der Praxis kam es wohl öfter vor, dass theoretisch die über- CPU erstellt wurde, diese aber dann im Praxistest völlig unbrauchbar war, weil nur an irgendeiner Stelle ein kleines Timing nicht auf dem Punkt war, ein Bauteil nicht so reagiert hat, wie es sollte. Da gehen tausende von Stunden für Tests drauf.

In den Grenzbereichen, in denen man sich auf Strukturebene inzwischen befindet, funktionieren einige Dinge in der Physik nicht mehr so, als ob man sie 100% zuverlässig vorhersagen könnte. Somit wird das Design, wenn man sich zu sehr vom altbewährten wegbewegt zum Puzzlespiel.

Nichtsdestotrotz bin ich davon überzeugt, das SOWOHL Intel als auch AMD Ansätze haben, noch große Sprünge zu machen.
Wir brauchen aber auch nicht diskutieren, dass wir hier einen zwar in der Nachfrage zuverlässigen, aber dennoch gesättigten Markt haben, in welchem schon bekannt ist, wie groß das Kuchenstück ist, welches es zu verteilen gibt.

Wer sollte sich den Aufwand einer revolutionären Entwicklung mit all den Fehlschlägen und der Geldverbrennung denn antun, wenn man auf Altbewährtem aufsetzen kann.

Lieber nehme ich doch eine alte Architektur, veredele das Kupfer an der einen oder anderen Stelle noch durch eine optimierte Technik und kann dann noch mehr Takt drauflassen und das relativ günstig.

Wir sehen ja, dass es weiter geht. Jetzt gehen wir gerade in die Breite.
Da ist aber relativ schnell Schluss mit der Skalierung.
Danach wird man wieder an der Architektur schrauben, aber nicht revolutionär, sondern wirtschftlich vernünftig evolutionär. Also nicht nur "2 Kerne dran und gut ists".

Die Nachfrage nach mehr Rechenleistung stagniert im Massenmarkt, da sie für Standardanwendungen ausreicht....
Wieso dann eine "teure" Revolution bringen?

Das Spielchen zwischen AMD und Intel ist diesbezüglich ganz nett, jedoch wissen auch die beiden Firmen, was sie insgeheim aneinander haben.
Es kann und darf keiner der beiden allein am Markt existieren. Sollte AMD vor der Pleite stehen, würde Intel wahrscheinlich aus Marktstrategischen Gründen heimlich Geld zuschiessen und die Insolvenz verhindern.

Allein das Kartellamt würde sich bei einem Wegfall von AMD vor Freudentränen die Augen reiben und Intel die Hölle heiss machen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Epix, Smartcom5 und xexex
entweder der 9900k oder ryzen 3000 wird meine nächste cpu (bis märz warten wäre aber hart :p).
die verlockung ist sehr groß bei intel, weil verlötet und 8c/16t - mehr als 400-450€ dürfte er nicht kosten für die "alte" technik.
am ende zählt für mich aber die performance und nicht wie innovativ etwas ist.

und ob AMD oder Intel ist ja mal sowas von egal. kauft was ihr für richtig hält und bei preis/leistung passt. fertig. dieses gehate ist sowas von lächerlich hier.
ryzen war mir bisher bei der IPC nicht gut genug, daher habe ich hier nicht zugeschlagen. trotzdem würde ich eher nen ryzen 2700x nehmen, als nen 8700k (obwohl ich eher immer zu Intel tendiere) ^^
 
Smartcom5 schrieb:
Und genau diese Änderungen an der Out-of-Order-Implementierungen sind dafür verantwortlich, daß Meltdown & Spectre überhaupt erst möglich waren. Nicht nur hat man daß schon sehr früh gewußt bei Intel (siehe oben), sondern auch externe Forscher waren sich darüber im Klaren.

Na klar- War ein einfaches Mittel. Das Pferd springt immer so hoch, wie es muss (siehe Abgasskandal). Das Risiko haben die bewusst in Kauf genommen.

Intel weiss aber auch, dass sie trotz der Beseitigung dieser unrühmlichen Vorteilsnahme einen Gang zulegen sollten...
 
Zuletzt bearbeitet:
MrWaYne schrieb:
entweder der 9900k oder ryzen 3000 wird meine nächste cpu (bis märz warten wäre aber hart :p).
Bis März? Hast du da mehr Infos als wir? Erst mal kommt ja Epyc, Ryzen 3000 erst danach und für Epyc ist außer 2019 auch noch kein konkreter Termin, nicht mal ein Quartal gesetzt
 
  • Gefällt mir
Reaktionen: RAZORLIGHT
@Taxxor war ne schätzung um ehrlich zu sein, bisher war es um den dreh rum (ryzen 1000-2000 die jahre davor).
 
@ZeroZerp
das ganze nennt sich Quantenphänomene , gibt es schon vereinzelt bei 14 nm - dagegen hat man Methoden gefunden um das auszugleichen beim Design .
Das Problem bei den kleineren Strukturbreiten ist das Quantenphänomene verstärkt ab 5 nm aber auch schon teils bei 7 nm auftreten und das neue , bisher unbekannte hinzukommen . Der 7 nm Prozess wird uns recht lange erhalten bleiben schätz ich mal ...
Ein Asic Chip ist fraglos sehr schnell , ist aber ein " Fachidiot " , eine eierlegende Wollmilchsau , und das ist quasi eine CPU in diesem Zusammenhang , ist wesentlich langsamer und komplexer . Die Kunst darin die CPU zu beschleunigen besteht darin , häufig benutzte Formeln und Berechnungen nach Vorbild eines ASIC fest zu verdrahten ( in "Hardware" auszuführen , zb AVX , AVX2 FMA FMA2 usw ) und eine Trefferquote der Sprungvorhersage so hoch wie möglich zu erreichen . Daneben wird es auch immer wichtiger das das OS die mittlerweile doch recht vielen Kerne in den CPU s effektiv ausnutzt .
Wenn die Software nur einen Thread nutzt ... - nutzen die ganzen schönen Kerne nichts .
 
  • Gefällt mir
Reaktionen: Smartcom5 und .Sentinel.
^^ AVX, etc. sind doch einfach vektorwertige Instruktionen, was hat denn das mit ASICs zu tun?
 
Taxxor schrieb:
Excavator ist viel neuer als Piledriver, und IPC Verbesserung war eines der großen Themen bei Excavator.

Genau das hatte ich auch schon versucht aufzuzeigen.
Die 52% waren von Excavator aus genau wie die vorher angekündigten 40%. Piledriver ist nunmal nicht schneller. Selbst mit dem L3-Cache ist Piledriver langsamer als Excavator ohne L3.
Anders herum wird da schon eher ein Schuh draus.
 
R1ng0 schrieb:
^^ AVX, etc. sind doch einfach vektorwertige Instruktionen, was hat denn das mit ASICs zu tun?
Das es eine Hardware Erweiterung ist , eine in Hardware ausgeführte Funktion vielleicht ?
https://de.wikipedia.org/wiki/Advanced_Vector_Extensions
Es hat Zeiten gegeben in dem das FHD encodieren eines 90 min Films in H264 einen ganzen Tag gedauert hat , grade mal 10 Jahre zurück ..
Warum ? Eben weil es da noch nicht die ganzen Hardware Erweiterungen gab , die Software diese Funktionen übernehmen mußte .

PS: Bei den neueren Intel CPU s muß der Takt bei intensiver AVX Nutzung sogar gesenkt werden weil sie sonst zuviel Leistung aus der Steckdose ziehen und zu heiß werden .
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
, dass das als enormer Vorteil für AMD gewertet wird (Lot).

Ist es doch auch, das wirst nichtmal du abstreiten können. :)
Verklebte Heatspreader sind sogar ein so großer Mist, dass da ein ganzes Geschäftsmodell daraus entstanden ist (-> Delid-M8).
 
Taxxor schrieb:
Aber Dr. Lisa Su besitzt auf jeden Fall die nötigen Kompetenzen dafür und sie wird sich schon etwas dabei denken, wenn sie von 5-15% spricht, 15% demnach definitiv als möglich angesehen werden.

Ja es kann bedeuten, dass es nur 5% sind, jetzt sind wir aber mittlerweile ein Jahr weiter und 10-15% sind im Umlauf, was aufgrund der 5-15% vor einem Jahr sehr wahrscheinlich ist, vor Allem wenn man bedenkt, wie pessimistisch man bei Zen1 war.
Absolut. Wenn einer der ganzen CEOs der Halbleiter-Branche von Firmen wie AMD, Intel oder nVidia überhaupt Ahnung davon hat, ist sie es. Sie ist was Chip-Design betrifft eine absolute Spezalistin und eine hochkompetente Frau vom Fach.
Smartcom5 schrieb:
Stichpunkt Bulldozer Fiasko
Das Debakel namens Bulldozer geht auf vollkommen andere Leute zurück und hat mit Zen so gut wie nichts mehr zu tun. Ryzen ist das Kind von Lisa Su und Jim Keller, welchen sie explizit für Zen zu AMD geholt hat. Bulldozer kam 2011 auf den Markt. Frau Dr. Su ist erst 2014 Chef (CEO) vom AMD geworden und kam 2012, also nach Bulldozer zu AMD. Sie war zuvor von '12-'14 Senior Vice President der Global Business Units und AMD‘s Chief Operating Officer.

Su kam direkt von Freescale Semiconductor (Motorola), hatte dort den Posten des Chief Technology Officer (CTO) inne und war somit Kopf der zahlreichen Forschungs- und Entwicklungs-Abteilungen, ehe sie Senior Vice President und General Manager of Networking and Multimedia group im selben Hause wurde, nicht ohne daß´Freescale sie bei ihrem Weggang dafür lobte, „das Haus in Ordnung gebracht“ zu haben.

Bei IBM war sie vorher die rechte Hand und Technical Assistant von Lou Gerstner, dem CEO und Chef von IBM damals. War Kopf und Gründer der Emerging Products Division im selben Unternehmen (“Low-power and Broadband semiconductors.”) und hat im Zuge dessen mit Toshiba und Sony zusammengearbeitet um Next-generation Chips zu entwerfen, siehe IBM's Cell-Prozessor → Playstation 3). Ken Kutaragi (Vater der Playstation, Sony Computer Entertainment) beschrieb die Zusammenarbeit mit ihr als ein Erlebnis, daß “die Performance von Prozessoren von Spiele-Hardwareentwicklungen um den Faktor 1000x verbessert” hätten und sie wurde selbst vom MIT‘ Technology Review als “Top Innovator Under 35” ausgezeichnet. Sie war in Folge ebenfalls Vice President of the semiconductor Research and Development Center bei IBM.

Direkt nach Abschluß ihres Studiums in Electrical Engineering beim renommierten Massachusetts Institute of Technology (MIT) fing sie bei Texas Instruments an, wobei an TI's Semiconductor Process and Device Center arbeitete, ehe sie IBM nach nicht einmal einem Jahr bei Texas Instruments abwarb als einer der Mitarbeiter der Entwicklungsabteilung für elektronische Bauelemente-Physik. Hier entwickelte sie sich zur „kritischen Größe“ bei der Erfindung eines „Rezeptes“, um Aluminium durch Kupfer bei Verbindungen in Halbleitern zu ersetzen, um das „Problem zu lösen, daß Kupfer-Verunreinigungen Halbleiter-Bauelemente während der Produktion verunreinigen“. Daraus entstand kurze Zeit später jener Industrie-Standard, der Halbleiter bis zu 20% schneller gegenüber herkömmlichen Halbleitern mit Aluminium-Verbindungen machte.

Meint ihr ernsthaft, Jemand der Chef von diversen Forschungs- und Entwicklungs-Abteilungen zahlreicher namhafter Weltmarktführer wie IBM, Texas Instruments, Freescale (Motorola) war und der mit anderen Größen wie Sony und Toshiba Dinge wie den Cell-Prozessor (der bei Erscheinen auch nie dagewesene Leistungssteigerungen offenbarte) zur Serienreife brachte, Jemand der selbst zahllose Eigenpublikationen über Chip-Entwicklung et cetera gemacht hat und dessen Ernennung zum CEO von AMD von vielen Branchen-Kennern sehr begrüßt wurde, ist nicht zuzutrauen, mit dem unbestritten größten Chipentwickler-Genie aka IC- & Prozessor-Koryphäe unserer Tage wie einem Jim „The Godfather of Chip-design“ Keller Intel mit ihren immer wieder von zahllosen Fehlern geplagten Prozessoren zu zeigen, wie man‘s richtig macht? Ernsthaft?!

Es scheinen wohl eine Menge Leute zu vergessen, daß AMD es immer wieder geschafft hat, bisher als unüberwindbar gehaltene Grenzen einzureißen und neue Marksteine zu setzen … Nicht zuletzt Jen-Hsun Huang selbst, CEO von Nvidia hat sich bei AMD Chip-Designer seine Sporen verdient.

Und abgesehen davon sollte man auch beizeiten die Vergangenheit ruhen lassen. Schließlich haut einem auch Keiner heutzutage irgendwelche Schaudergeschichten vom Pentuim IV um die Ohren, als Intel zum Hersteller von Radiatoren verkam. Oder?!

Intel's Hypterthreading™ und Core-i
Fakt ist, daß Intel's Hyperthreading immer wieder aufgrund seiner defizitären Unzulänglichkeiten kritisiert wurde, die implementierte Technologie schon seit Jahren von anderen deutlich effizienter und energiesparender implementiert oder aufgezeigt wurde.

Genauso ist es offensichtlich, daß die Core-i µArch seit Jahren ihrem Ende entgegen dümpelt und einzig durch nur mehr Takt in Form von horrend ansteigenden Verlustleistungen (TDP) erkauft wurde – und weniger durch Architektur-bedingte Verbesserungen.
Bisher haben sich so ziemlich alle Prognosen von AMD bezüglich Leistungssteigerungen was Zen betrifft als wahr heraus gestellt. Dr. Su ist auch viel zu realistisch, als daß sie den Investoren das Blaue vom Himmel herunter lügt, wie es Intel bei ihrem 10nm-Prozess seit Jahren tut. Bringt im Falle von AMD auch keinem etwas, nicht einmal AMD selbst.

Dafür ist sie viel zu sehr Fachmann – und die wehrte Dame hat schließlich auch eine gewisse Reputation zu verlieren. Sie ist schließlich nicht irgendein x-beliebiger Manager, dessen Ende Derjenige sich zum nächsten Quartal ohnehin bereits ausmalen kann – wie andere CEOs (die schlicht [aus Mangel an Alternativen] und weil sie ja schon so lange dabei sind, einfach auf den Posten hochgewachsen sind).

Für mich gibt es daher bisher nicht den geringsten Grund an den AMD-eigenen Prognosen gegenüber ihren Investoren zu zweifeln. Jeder, auch AMD, weiß, daß man in solchen illustren Runden gar nicht erst anfangen braucht irgendwelche Märchen zu erzählen – dafür ist AMD nun einmal viel zu abhängig von externen Geldgebern. Da kann man also getrost von ausgehen daß bei Shareholder-Meetings von AMD Transparenz herrscht und ohne große Umschweife Tacheles geredet wird.

Wenn die Investoren da auch nur das geringste Anzeichen dafür sehen würden, daß sie von AMD in irgendeiner Art und Weise hinters Licht geführt würden (wie von anderen Unternehmen regelmäßig gewohnt), dann würden sie da kurz und knapp einfach den Stecker ziehen und am nächsten Tag wäre AMD insolvent.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet: (Spoiler-fix …)
meine güte wie so ein intel thread immer ausartet , warum sehe ich das in amd threads nie bzw nicht in diesem ausmaß

800+ post und über die hälfte ist verdammt hochnäsiges amd ist besser gehabt

wenn ich mir intel cpus kaufe ist das eben so ich renne aber dann nicht jedesmal in einen amd thread und versuche da alles madig zu machen genaus umgedreht wird es amd dann lass ich intel in ruhe

diese threads sind so mit hass und hochnäsigkeit vollhestopft , macht euch mal den spaß und schaut euch amd thread vs intel threads an da wird einem schlecht

oder anders was ist wenn amd demnächst an intel vorbei ziehen sollte kommt dann immer noch das underdog gehabe bzw amd ist kleiner also besser gehabt ? oder muss man sich dann was anderes suche
 
Rein Raw Performance technisch wird der 9900k in cinebench (fuer mich ein guter indikator fuer reine cpu leistung) den 2700x 15 bis 25% hinter sich lassen. Sowohl stock als auch oc: 4200mhz 2700x schafft ja so 1870 cb r15, nen 9900k at 5k mhz wird ca 2200 punkte setzen.

Pl bleibt damit abzuwarten bei 450 Euro bleibt der Ryzen pl besser.
 
Zuletzt bearbeitet:
LOLinger78 schrieb:
Ist es doch auch, das wirst nichtmal du abstreiten können. :)
Verklebte Heatspreader sind sogar ein so großer Mist, dass da ein ganzes Geschäftsmodell daraus entstanden ist (-> Delid-M8).

Wie gesagt- In meinen Augen ist das konkurrenztechnisch gesehen eher ein Nachteil.
Noch einmal die Begründung. Intel kommt mit der Leistung seines 6-Kerners, der unverlötet ist um im schlechtesten Fall (hochparalellisierbares Rendern mit Cinebench) 10%-14% an den 8-Kerner von AMD ran und das trotz dessen SMT- Vorteil.

In gleicher Weise liegt der 2700x um 15% hinter der Single- Core Leistung des 6- Kerners von Intel.
AMD hat viel von dem Standardpulver, welches man verschiesst, wenn man ohne überragend viel an der Architektur zu ändern, noch steigerungen erzielen will, schon verschossen (Caches, Lot).

Intel kann diese "Trümpfe" noch spielen und wird aller Wahrscheinlichkeit nach mit dem Flaggschiff nochmal ein Zeichen setzen und den sich immer mehr verdichtenden Gerüchten nach mit seinem 8- Kerner den AMD 8- Kerner zwischen 20% und 30% hinter sich lassen.

Es besteht also derzeit in der Architektur und Fertigung an sich NOCH ein Vorteil für Intel. Denn diese 20-30% muss AMD rausholen um mit deren Ryzen 2 dann mit Intel in der gleichen Kernklasse gleichzuziehen.

Derzeit vergleicht man ja mangels Verfügbarkeit Äpfel mit Birnen (6- Kerner 8700K gegen 8- Kerner 2700x).
Damit kann man aber nur extrapolieren, wessen Architektur die potentere ist.

Ich denke wir sind alle gespannt, wie Intel reagiert und ob dort jetzt Akzente gesetzt werden um zu demonstrieren, dass man jederzeit "kann" - Was die Investoren und uns alle freuen würde.

Und noch gespannter bin ich, ob Lisa Su mit Ryzen 2 weiter zum Angriff bläst und ihrerseits demonstriert, dass Intel mit der Politik kleiner Schritte nicht mehr weiter kommt. AMD muss jetzt Konstanz beweisen. Die haben einen guten Zug, hängen technologisch neutral betrachtet Intel aber noch hinterher, wenn man Kern zu Kern Leistung gegenüberstellt.

Ryzen 2 muss gleichziehen. Ryzen 3 müsste frühzeitig kommen, noch bevor Intel seine Yields im Griff hat, damit man tatsächlich Performancetechnisch das Zepter in der Hand hält. Das würde uns alle wohl noch mehr freuen.

Genau in dieser zeitlichen Lücke (also Ryzen 3 in allen Belangen besser als Coffee Lake und zeitgleich noch kein Konkurrenzprodukt von Intel in sicht) muss AMD auch mit Marketing alles nach vorne schmeissen.
Da können sie, wenn sie es richtig anstellen tatsächlich dann ernsthaft Marktanteile abgrasen und Intel in dieser Phase weh tun.

Intel ist aber auch nicht blöd- Die Strategen haben natürlich dieses Szenario auch schon 1000 mal durchdacht und werden sich nicht kampflos geschlagen geben.

Genau dann wird sich zeigen, ob sie jahrelang schon Technologie zurückhalten, weil sie bis dahin nicht dazu genötigt wurden, etwas deutlich schnelleres zu bringen.

Das werden wirklich (dem Himmel sei Dank) mal wieder richtig interessante Zeiten, da auch ein Generationssprung in Sachen RAM und PCI Anbindung zu erwarten ist.

Yippie! - Ich brauch die Rechenleistung zwar privat nicht, bin aber, auch trotz meiner 25 Jahre andauernden beruflichen Tätigkeit in der IT, absolut technikbegeistert. Es gibt also wieder haufenweise neues Spielzeug, um es an den Rand seiner Leistungsfähigkeit zu trimmen.

Ich habe seit Erscheinen von Ryzen mehr Zeit mit Overclocking, RAM- Tuning, Beobachten wie die IF auf diverse Einstellungen reagiert verbracht als mit tatsächlich aktiven Anwendungen. Ebenso bei Coffee Lake.

Ein schönes, wenn auch für meine Frau völlig unverständliches Hobby, wenn ich wieder einen gesamten Abend lang vor den Timings des RAMs sitze und die "magische Kombination" zu entschlüsseln versuche ;)

Overclocking und Tuning ist für mich inzwischen zu einem der schönsten und befriedigendsten Computerspiele geworden ;)

Grüße
Zero
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
Man darf nicht vergessen, wie alt die Core-Architektur im Kern (Wortspiel nicht beabsichtigt) wirklich schon ist!
Da werden Algorithmen und Logiken mitgeschleppt, die zum Teil weit über zehn Jahre und älter sind.

Dabei sollte man aber ebenfalls nicht vergessen, dass Zen in weiten Teilen eher wieder eine Rückbesinnung auf eine konventionellere x86-Architektur ist, gegenüber der radikal neuen Bulldozer-Architektur. Genauso wie Intels Core wieder ein Rückgriff war auf das alte P3-Design, nachdem sich Netburst als Sackgasse erwiesen hatte.

Man macht es sich zu einfach zu sagen, dass eine Architektur "veraltet" ist und nur mit einer neuen größere Performancesteigerungen erreicht werden können, und deshalb etwas "neues" her muss. Größere Architekturänderungen können sich als positiv herausstellen, aber auch leicht als Irrweg. Die Lektion der letzten Jahrzehnte lehrt eher, vorsichtig mit so etwas zu sein.

Die verlässlichen Performancesteigerungen kommen doch in aller Regel eher aus "gradlinigen" Verbesserungen wie höhere Taktfrequenzen, mehr Recheneinheiten, größere Caches usw. (was alles durch kleinere Strukturgrößen möglich wird) und ab und an neuen Befehlserweiterungen (z.B. AVX). Revolutionäre, grundlegende Veränderungen an der Architektur sind dafür gar nicht nötig, wenn der "Unterbau" bewährt und solide ist.

Wobei ich durchaus auch der Meinung bin, dass AMD mit Zen jetzt erst mal mehr Potential für deutliche Steigerungen hat. Nicht weil Zen grundsätzlich "moderner" wäre als Core, sondern weil in AMDs neuer Architektur im Detail sicher noch einiges an Optimierungspotential steckt (kleinere Fehler, nicht optimal abgestimmte Cache-Latenzen, versteckte Flaschenhälse usw.), gegenüber Intels Core-Architektur, bei der diese Optimierungen halt nach all den Jahren überwiegend schon drin sind.

Letztlich wird es darauf hinaus laufen, dass Zen und Core sich von der Leistungsfähigkeit der Architektur her auf sehr ähnlichem Niveau einpendeln werden, wenn erst mal beide gleichermaßen ausgereift und optimiert sind. Es kochen halt alle mit Wasser. Die Performancesteigerungen kommen dann wie gesagt fast nur noch aus langweiligem Wachstum in die "Breite".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5, R1ng0 und .Sentinel.
Schade das auf Intel noch zu wenig Druck herrscht.
Hätte gerne den i7 9700 mit 256MB L4 Cache gesehen fürs Gaming.
Hat doch bei Broadwell auch geklappt ;) .
 
Zurück
Oben