News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

KlaraElfer schrieb:
Ich fragte nach einer Quelle und nicht wccftech, da kann man leider gar nichts drauf geben.
Ich könnte auch adoredtv und seine(abseits des vorstellungstermins der CPUs) in der hinsicht doch ziemlich verlässlichen quellen nennen.
Oder den Eintrag des 4C in der sisoft sandra Datenbank, aus dessen Daten man auch 10-15% IPC Verbesserung errechnen konnte.
Alles Dinge die darauf hindeuten.
Aber wenn für dich nur offizielle AMD aussagen gelten, dann bräuchten wir hier auch nicht zu spekulieren
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich könnte auch adoredtv und seine(abseits des vorstellungstermins der CPUs) in der hinsicht doch ziemlich verlässlichen quellen nennen

Verlässliche Quellen, WCCFTech, Adored TV, da kann ich genausogut selbst aus dem Kaffeesatz lesen.
Die Prozessoren sind doch noch gar nicht draußen, geschweige denn waren sie zum Zeitpunkt von Adored TVs angeblichen Leak in irgendeiner Weise spruchreif.
Quellen sind das keine, es gibt schlicht keine, sondern nur irgendwelche Leute die versuchen mit Quatsch Geld online durch Klicks zu verdienen.
Ergänzung ()

Taxxor schrieb:
Außerdem sind es im cinebench laut CB Test ca 150W bei 4,7GHz(184W system)

142 Watt mit 95 Watt Powertarget (Delta 103 Watt) und 184 Watt ohne Powertarget, Delta (145Watt), abzüglich Netzteileffizienz und RAM dürfte die reine CPU etwa bei 130 Watt liegen, mit PT dann etwa bei 90 Watt.

Aber 150 dürften das nicht sein, die Leistungsaufnahme vom package alleine wird ja hier nicht gemessen.
Dann würde der Ryzen 2700x ebenso um 150 Watt benötigen, denke dass der effektiv die TDP nur um 10 bis 15 Watt reisst also eher so bei 120 liegt.
 
Zuletzt bearbeitet von einem Moderator:
KlaraElfer schrieb:
184 Watt ohne Powertarget, Delta (145Watt), abzüglich Netzteileffizienz und RAM dürfte die reine CPU etwa bei 130 Watt liegen,
Das Delta ist doch schon der reine Mehrverbrauch, da kommen dann noch die 10-15W drauf, die die CPU im Idle hat, womit wir bei 155-160W sind. Der RAM wird zwischen idle und load keine 30W ziehen, dass du da irgendwie auf 130W kommst, und die netzteileffizienz sollte sogar zugenommen haben im Vergleich zum Idle wert, was den realen Delta wert noch vergrößert
 
KlaraElfer schrieb:
Die Prozessoren sind doch noch gar nicht draußen, geschweige denn waren sie zum Zeitpunkt von Adored TVs angeblichen Leak in irgendeiner Weise spruchreif.
Wären die Prozessoren schon draußen müsstest du ja nicht nach Dingen suchen die auf eine Mehrleistung hindeuten. Daher können wir uns doch auf gar nichts anderes stützen als auf leaks, die in den letzten Monaten aus den verschiedensten quellen kamen und alle recht gut zueinander passten.
Quellen sind das nämlich sehr wohl, ob du ihnen Glauben schenken willst ist eine andere Frage
 
Zuletzt bearbeitet:
Ich weiß nicht, wer sich von Euch noch daran erinnert, aber vor ca. 10 Jahren war AMD mit CPU & GPU noch recht kompetitiv aufgestellt und gab den daraus resultierenden Plattformen coole Namen und auch Logos, wie z. B. AMD Spider und auch AMD Dragon.

Wäre schon zu sehen, wenn sowas auch mit Ryzen 3000 & Navi kommen würde. :daumen: Abnehmer für entsprechende Badges, die man sich aufs Notebook oder auf die Front des Towergehäuses klebt, gibt es sicher genug :)
 
  • Gefällt mir
Reaktionen: Novasun und Mcr-King
MK one schrieb:
Klar , von allen dazugedichtet die darüber berichtet haben ..... , nur du weißt es natürlich besser :rolleyes:
Dazu muss man sagen, geht man auf die chinesische Quelle, die dort genannt wird und schmeißt den Übersetzer an, dann steht dort:

"The sample CPUs currently obtained are generally improved by about 15% on the basis of the second generation"
 
KlaraElfer schrieb:
... die Aussage ins Nest setzen auch unabhängig von deinen Beiträgen geschrieben, damit warst du nicht gemeint.
Da DXR von AMD und NVidia sowie Microsoft verabschiedet wurde und Microsoft generell mit ihren FLs auf Konformität setzt, würde ich für die Beschleunigung der BHV Traversierung auch eine ähnliche Lösung erwarten.
Ohne dedizierte fixed function units wird das nicht wirklich performant laufen, für Navi Desktoo ist ja selbst noch kein Raytracing vorgesehen, eventuell kann erst der Nachfolger damit umgehen.
Wen interessiert das Marketinggelaber von Su oder Huang oder Sweeney oder irgendwelche anderen CEOs.
Keine Ahnung wie man sich daran 9 Monate nach Launch noch immer aufreiben kann, interessiert doch keinen.
Wieder eine Preisdiskussion, echt?
Ohje... :D
Wenn du eine Generation wartest, dann hast du genau die selben Probleme die du jetzt hast, von daher ist das einfach nicht logisch. Warten bringt gar nichts.
Ich mache jetzt dieses Fass nicht schon wieder auf, aber grundsätzlich ist nicht die Leistung der RT Cores das Problem, sondern die derzeitigen angeflanschten Implementierungen und das generelle Faktum dass RT nunmal rechenintensiv ist aber an dem Punkt wo Raster basiertes Rendering für mehr Trick Qualität ineffizient wird, dann Arbeit spart und sehr effizient ist.
Metro und Battlefield 5 laufen mittlerweile für die Qualität der Reflektionen und Beleuchtungen hervorragend und mehr gute Implementierungen werden kommen.
Ob sich das für den einen lohnt oder nicht, ist wieder eine ganz andere Frage.
Wo ist Cryteks Lösung effizienter, es gibt doch gar keine Vergleichsmöglichkeit.
Man hört von dir auf der einen Seite immer nur wenn, eventuell, in der Zukunft, hypothetisch und auf der anderen Seite wenn eine Lösung mit DXR schon entwickelt wurde, ist das plötzlich unausgegoren, zu teuer, schlecht weil vom falschen Hersteller eingeführt und was weiss ich nicht alles.
Nimm dir doch mal vor eine Spur neutraler zu sein.

Natuerlich war AMD/RTG damit gemeint, aber wenn Du das AMD/RTG ankreiden moechtest, dann duerftestes Du dem dGPU-Marktfuehrer nVidia das bei Mantle-basierendem Vulkan/DX12 auch zumindest ankreiden muessen, um einmal bei Deiner "Logik" zu bleiben.

Eine aehnliche Loesung, die DXR einbindet, ist vermutlich auch zu erwarten, aber bisher ist das offiziell nicht geleakt, geschweige denn von AMD/RTG oder Microsoft bestaetigt, worden.

Solch eine Loesung ist dann aber aehnlich den APIs (DX12, Vulkan, usw.) immer noch GPU-architekturspezifisch abhaengig und keine "one-for-all" oder "plug-and-play" Loesung, sondern bedarf Optimierung seitens des GPU-Entwicklers; Microsoft bietet sozusagen mit DXR das Grundgeruest (aehnlich DX11 und 12), aber die Komplettumsetzung obliegt nVidia oder AMD/RTG, somit ist nicht davon auszugehen, dass die Umsetzung (nicht nur auf Namensseite) nicht gleich ausfallen werden, da die Kepler- und GCN-basierenden Architekturen zum Glueck grundverschieden sind (mit Vor- und Nachteilen auf beiden Seiten).

Wieso wird es nicht performant laufen(?), vielleicht gibt es eine Zwischenloesung (die nicht so leistungszehrend und akkurat, aber dafuer deutlich performanter und optisch aehnlich/gut genug ist ... zumindest waere das mein Ansatz an AMDs/RTGs Stelle), die sich dann aber auf allen eigenen GPUs (inklusive der Einsteigerklasse, also RX 650 und 660 GPUs) halbwegs anstaendig in Full HD und bei den staerkeren Mittelklasse- (bis Oberklasse-) Navi GPUs sogar in WQHD relativ fluessig ansteuern laesst.

Letzteres packt nVidia mit einer RTX 2080Ti kaum (zumindest bei der urspruenglich angedachten RTX-Umsetzung, die ja nachtraeglich wohl herunter geregelt werden musste, damit es stockend oder in niedrigster Aufloesung noch auf einer speicherverknappten RTX2060 in Full HD laeuft.

Ja, darauf will ich hinaus, wenn man es nicht halbwegs vernuenftig hinbekommt, ist es vielleicht besser es gar nicht (so frueh) auf den Markt zu bringen, nur um unwissende/leichtglaeubige Kunden damit abzuziehen.

Dahingegen bietet sich eine RT-Raytracing-Zwischenloesung zur Markt-Einfuehrung eher an, die man vielleicht nicht so glorreich/uebertrieben wie Huang mit Superlativen bewerben kann, aber die durch die Bank angemessene Leistung zu weniger vermessenen Aufpreisen liefern kann.

Damit wird dann auch ein groesserer Teil der Kundschaft zufrieden gestellt/mitgenommen, weil alle Leistungsklassen bedient werden und keine RTX2060, 2070 und 2080(TI) Extrawuerste nur verteilt werden und nicht primaer nur der Geldbeutel darueber entscheidet, ob man Teil der RT-Raytracing Entwicklung ist/werden kann.

Des Weiteren werden eben auch hoehere Aufloesungen wie WQHD, evt. auch UHD/4K, spielbar mit einer Zwischenloesung und bleiben nicht von vornherein aussen vor wegen des grossen Hardware-Hungers von der Voll(RTX)-RT-Raytracing-Umsetzung.

Spreche ich RT-Raytracing das Existenzrecht ab, wohl kaum, aber die Art und Weise wie es auf den Markt geschmissen und vermarktet wurde vorbei an der Kundschaft, das prangere ich an (und das unaebhaengig von der Marke, aber nVidia hat sich fuer diese kundenunfreundliche Vorgehensweise entschieden, waehrend AMD/RTG es durch alle Klassen weg einfuehren moechte, wenn man deren Ankuendigungen glauben will ... warten wir es ab, wie es dort laufen wird).

Ich finde es schon noch relevant, was aus den Marketing-Versprechungen nach etliche Monaten wird bzw. geworden ist, denn daran kann ich als Kunde auch messen/abschaetzen, wie gut/zuverlaessig oder schlecht/unzuverlaessig ein Unternehmen ist und ob ich deren Produkte mit einem Kauf/meinem Geld belohnen moechte oder nicht ;).

Wenn ich eine Generation warte, bspw. bei nVidia auf einen 7nm Turing Refresh oder Ampere (oder wie auch immer die GPU-Generation dann heissen wird), dann bekomme ich erst einmal durch den Noden-Shrink deutlich mehr Leistung, ebenso durch weitere Architekturoptimierung, mit Sicherheit mehr Speicher (denn noch einmal koennen sie es sich nicht leisten, dort weiter zu stagnieren bzw. bei gleicher GPU-Leistung verknappen, insbesondere, wenn AMD/RTG auch ausserhalb der Oberklasse mit 16GB vorlegen sollte) und mehr (sowie hoffentlich besser) optimierte Spiele auf RT-Raytracing.

Zudem ergibt sich durch die AMD/RTG-RT-Raytracing-Loesung ein Preisdruck auf nVidia (egal ob es eine Voll- oder Zwischenloesung bei Navi in Bezug auf RT-Raytracing wird) und auch wenn die Turing-Nachfolge-GPUs noch mehr kosten duerften, sollte man mehr (Leistung fuer den Preis) bekommen.

Alternativ, kann man aber auch gleich die RT-Raytracing-Loesung von AMD/RTG bevorzugen, da sie eben weniger selektiv als RTX ausfallen duerfte und nicht zum Marktstart noch auf leeren Versprechungen fusst, und weil die kommende Konsolen-Generation bei Sony und Microsoft eben auf der AMD/RTG-Raytracing-Loesung basieren duerfte und Konsolen voraussichtlich wichtiger und PC-Gaming unwichtiger werden koennte in den kommenden Jahren (wenn man den JPR Prognosen glauben mag).

Genauso wie das gezeigte, geleakte Layout ist vieles eben noch hypothetisch, das ist nun einmal so. Nur weil ich hier nicht permanent wie Du, ZeroZerp, FCK-THIS und ein paar andere pro nVidia (RTX) rede, bin ich also nicht neutral oder was?

Na, vielleicht solltest Du dahingegen an der Kritikaufnahmefaehigkeit arbeiten, was Dir scheinbar nahe gelegenen Marken/Firmen (vielleicht bist Du ja nVidia Aktionaer und nicht nur GPU-Besitzer?) angeht ;).

Wenn Du eine RTX 2080Ti (also eine Leistungsklasse/ein Modell, die/das sowieso nur fuer Early Adopter und Enthusiasten in Frage kommt) zu einem Preis im Schnitt (ueber alle Kartenmodelle) von immer noch deutlich ueber 1000 Euro als ausreichend befindest, um RT-Raytracing zu betreiben (denn die anderen Karten sind leider alles andere als ueberzeugend dahingehend) und im Markt einzufuehren, dann kann ich Dir leider auch nicht helfen, aber fuer mich ist das nun einmal der Inbegriff eines Flops und an den Beduerfnissen der ueberwiegenden Kundschaft weit vorbei entwickelt.

Manchmal ist weniger (in dem Fall eine RT-Raytracing-Zwischenloesung) mehr und es bleibt zu hoffen, dass es nVidia bei der naechsten RTX-GPU-Generation besser schafft, und viellleicht dann schon in der (RTX 3060) Mittelklasse mindestens RTX 2080 Leistung bieten wird koennen oder man laesst sich dort auch vorerst auf eine Zwischenloesung ein.


Was andere, verwandte Neuigkeiten angeht, so scheint die AMD/RTG Radeon VII laut VoskCoin (via WccfTech) beim Mining wieder klar (vor nVidias Turing) die Mining-Krone fuer AMD/RTG erobert zu haben, es bleibt nur zu hoffen, dass kein neuer Krypto-Mining-Boom dadurch genaehrt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und v_ossi
KlaraElfer schrieb:
Vergleichst du jetzt ernsthaft Cinebench mit 95 Watt TDP Target und Prime 95 mit AVX2 Small FFTs, einen Power virus miteinander?
[...]

Wenn es nur darum geht aufzuzeigen, dass der 9900k 'auf Kante genäht' ist, ist das mMn ein guter erster Indikator.

Insgesamt verliert er ja im PT bei Anwendungen (die ja wesentlich konstanter die Leistung anfordern als Spiele mit ihren wechselnden Lasten) 8% und bietet laut Test auch wenig OC Spielraum.

Da finde ich es einfach unfair von dir, Intel pauschal für die nächste CPU Generation ohne große Veränderungen an Architektur und Fertigungsprozess 5GHz All-Core Turbo zuzusprechen aber bei AMD sämtliche prognostizierten Leistungsschübe trotz massiver Designänderungen und neuer Fertigung abzusprechen.

PS.: Und an jeder Ecke Beweise, Fakten und Verlinkungen anzufordern ohne selber welche zu liefern, hinterlässt auch keinen neutralen Eindruck.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
MK one schrieb:
Dann ist doch klar das IPC gemeint ist , denn wenn man seinen Verstand anschmeißt und 15 % von 4,3 Ghz rechnet , käme man auf 5 Ghz .... , aber viel Verstand haben einige hier ja offenbar nicht aufzubieten ....
Vor allem weil ja von 4,5 Ghz gesprochen wird beim Takt und nicht von 5 Ghz ....
Da geht es um die 4 Kerner. Wenn 4,5 GHz genannt werden und generell 15% Performance, dann können 15% nicht die IPC sein denn dafür müssten die Vorgänger 4 Kerner auch 4,5Ghz gehabt haben.
 
Zuletzt bearbeitet:
na ja , IPC ist ja eigentlich unabhängig von Takt und Kernanzahl zu sehen , Instructions per Cycle , nur das die " Inststructions " halt nicht genau definiert und normiert sind und man meist nur ein paar Anwenderprogramme zu einen Mix zusammenstellt und dann ermittelt wieviel der eine oder andere Prozessor vorn oder hinten liegt und dann den Schnitt ermittelt
Ein allgemein anerkannter Testparkur wäre da hilfreich , der alles umfaßt = Text , Bild , Videobearbeitung , Rendern usw...
 
MK one schrieb:
na ja , IPC ist ja eigentlich unabhängig von Takt und Kernanzahl zu sehen
Ja und wenn die generelle Leistung um 15% gestiegen ist, dann können 15% IPC nur sein, wenn Takt und Kernzahl gleich geblieben sind.
Da der Takt aber auf 4,5ghz erhöht wurde, käme das schon nicht hin.

Das Thema hatten wir doch schon beim CES Sample, 15% IPC könnten nur sein, wenn es mit 4,1ghz gelaufen ist
 
Wenn man einer der neuesten Navi Leaks von Phoronix (via WccfTech) glaubt, dann wird AMDs/RTGs Navi als auf GCN-Architektur basierend bestaetigt und fuer die nachfolgende "Next-Gen"/"Arcturus" Architektur wird schon auf 7nm+ als Fertigungsgroesse spekuliert.

Wenn zudem die gehandelten Preisvorstellungen (zwischen 249 und 129 US$) passend zu den Leistungsklassen (also RX 3080 mit RTX 2070, RX 3070 mit RTX 2060, und RX 3060 mit GTX 1660 konkurrierend) halbwegs eintreffen sollten, waere das beinahe zu schoen, um wahr zu sein ...

... so ganz traue ich dem "Braten" aber noch nicht und hoffe insgeheim auf mehr Speicherausbau (gerne auch nur fuer Custom-Modelle mit Preisaufschlag, dann stuende einer eigenen RX 3080 mit 16GB wohl nur noch wenig im Wege). Waere die RX 3080 dann mit einer beschnittenen Version des Navi10 Chips bestueckt?

Graphics CardGPUVRAMTDPPerformance Class
(Competition)
Price
(RUMORED)
RX 3080Navi 108GB GDDR6150WRTX 2070/GTX 1080$249
RX 3070Navi 128GB GDDR6120WRTX 2060/GTX 1070$199
RX 3060Navi 124GB GDDR675W (no power connector)GTX 1660$129
 
KlaraElfer schrieb:
Ich fragte nach einer Quelle und nicht wccftech, da kann man leider gar nichts drauf geben. Board Partner ist das auch keiner.

Du willst eine Quelle ?

Link

Dort handelt es sich wohl um eines dieser Early Samples, welche im Schnitt ~15 % höhere IPC haben.

Das tolle ist ja, wie wäre es wenn du deine Behauptungen mal mit einer Quelle belegst ? Bisher liest man von dir nur das übliche "AMD ist nicht so toll" und "Intel ist ganz toll" Gequatsche über viele Threads hinweg.

Weißt du was hilfreich wäre ? Wenn du einfach nicht an den AMD Threads teilnimmst.
 
@Chismon Die Gerüchtelage verdichtet sich mit jedem Leak mehr und mehr zu der von dir zusammengefassten Tabelle.

Wenn das so in Erfüllung geht, wäre das mMn ein richtig starkes Line-Up. Lediglich die Preisgestaltung könnte 'uns' da noch einen Strich durch die Rechnung machen.

Die Speicherausstattung empfinde ich auch als ausreichend. Abgesehen von HisN hat man mit 8GB heute eigentlich in keinem gängigen Szenario Probleme. Zumal es sich hier um die Mittelklasse handeln soll. Und bis die neuen Konsolen 2020 kommen, wird auch weiterhin kein Spiel mehr VRAM brauchen. Zumal man auch das Preset mal eine Stufe runter drehen kann, ohne optisch viel einzubüßen. Mittelklasse heißt ja nicht umsonst Mittelklasse und wenn dann bei Texturen der Regler in ein paar Fällen bei Hoch statt Ultra steht, ist das mMn ein guter Kompromiss bei den prognostizierten Preisen.

@Aldaric87 Leute aus der Diskussion auszuschließen ist eigentlich nie hilfreich. Wenn man hier klar herausstellt, wie die Faktenlage aussieht, kann der geneigte Mitleser auch selber die Beiträge von @KlaraElfer einordnen.
 
  • Gefällt mir
Reaktionen: Heschel und Chismon
v_ossi schrieb:
Die Gerüchtelage verdichtet sich mit jedem Leak


wir sind an einem punkt, wo jeder, der auch nur irgend wo ein wenig den mund auf macht, von richtig hässlichen stellen aufs maul bekommt.

wir reden hier nicht nur von ein paar millionen, die man locker am aktien markt verdienen kann und am ende wegen insider handel im knast landet^^

amd ist aktuell immer noch so volatil als aktie, da kommt man manchmal mit kleinen optionsscheingeschäften vor lachen nicht mehr in den schlaf....

intel hat die hosen runter gelassen, sie spielen mit offenen karten. jetzt wird man sehen, was amd kann.

trotzdem sollte man mMn nicht auf fallende preise für hardware hoffen. im zweifel muss man seine neue hardware halt mit den gewinnen bezahlen, die man durch sein wissen an anderer stelle verdient hat. :evillol:

last but not least, müssen alle endlich mal begreifen, nvidia ist nicht der feind. wer wen wie warum irgend wann mal in einer fusion übernimmt ist doch herzlich egal. da muss langsam mal zusammen geführt werden, was zu sammen gehört.

amd baut "billige" gpu´s und die nvidia technologie macht halt "high end"...platz ist für beide da. man hat nur dann probleme, wenn man sich gegenseitig versucht das wasser abzugraben....dann kommt der blaue riese und lacht sich einen ab...

mfg
 
v_ossi schrieb:
@Chismon
... Wenn das so in Erfüllung geht, wäre das mMn ein richtig starkes Line-Up. Lediglich die Preisgestaltung könnte 'uns' da noch einen Strich durch die Rechnung machen.
Die Speicherausstattung empfinde ich auch als ausreichend. Abgesehen von HisN hat man mit 8GB heute eigentlich in keinem gängigen Szenario Probleme. Zumal es sich hier um die Mittelklasse handeln soll. Und bis die neuen Konsolen 2020 kommen, wird auch weiterhin kein Spiel mehr VRAM brauchen. Zumal man auch das Preset mal eine Stufe runter drehen kann, ohne optisch viel einzubüßen. Mittelklasse heißt ja nicht umsonst Mittelklasse und wenn dann bei Texturen der Regler in ein paar Fällen bei Hoch statt Ultra steht, ist das mMn ein guter Kompromiss bei den prognostizierten Preisen.

Ja, wenn man mit Full HD in den naechsten Jahren noch gluecklich ist, dann sollten die 8GB eigentlich reichen, aber wenn einen (laengerfristig) WQHD juckt (was zumindest mit der RX 3080 gut moeglich sein sollte und selbst eine RX 3070 waere da wohl in einigen, nicht ganz so anspruchsvollen Titeln fuer geeignet), dann koennten die 8GB in nicht allzu ferner Zukunft schon knapp werden und ich haette 12 GB Speicher (die aller Wahrscheinlichkeit nach ja nicht kommen werden) eigentlich fuer optimal angesehen.

Trotzdem kann man natuerlich mit den 8 GB noch leben, wenn man evt. noch auf ein spaeteres Navi 20 Upgrade (mit 16 GB dann) in 2020 schielt, mit "Next Gen"/"Arcturus" rechne ich noch nicht vor Anfang 2021 (wenn solche GPUs doch Ende 2020 kommen sollte, waere das schon eine Ueberraschung und wer weiss, wie weit HBM3 in der Entwicklung ist?).

Die o.g. Preise waeren schon sehr fair in Anbetracht dessen, was die entsprechenden nVidia-Turing-(RTX)-Modelle aktuell noch kosten.
 
Taxxor schrieb:
Ja und wenn die generelle Leistung um 15% gestiegen ist, dann können 15% IPC nur sein, wenn Takt und Kernzahl gleich geblieben sind.
Da der Takt aber auf 4,5ghz erhöht wurde, käme das schon nicht hin.

Das Thema hatten wir doch schon beim CES Sample, 15% IPC könnten nur sein, wenn es mit 4,1ghz gelaufen ist

Ehm dir ist schon klar wie solche Aussagen zustande kommen? Nehmen wir an in einem synthetischen Bench rennt die neue CPU 25% besser als der Vorgänger. Die neue CPU fährt aber 10% mehr Takt... Dann kommt der Rest 15% aus IPC.... Von daher widersprechen sich die Aussagen bisher nicht...
 
Novasun schrieb:
Ehm dir ist schon klar wie solche Aussagen zustande kommen? Nehmen wir an in einem synthetischen Bench rennt die neue CPU 25% besser als der Vorgänger. Die neue CPU fährt aber 10% mehr Takt... Dann kommt der Rest 15% aus IPC.... Von daher widersprechen sich die Aussagen bisher nicht...
Klar widersprechen sie sich, da es in dem Fall heißen müsste, dass die CPU generell 25% schneller arbeitet.
Dann kommt man auf 15% IPC.
Aber es heißt sie ist generell 15% schneller bei 4,5GHz Takt. Da entfallen schon mal mindestens 5% auf den Takt(wenn man vom 2700X ausgeht) und bleiben 10% für IPC.

Was man sich noch fragen könnte, und da bräuchte man einen chinesen hier, wie den dieses "generell" zu bewerten ist.
Denn wenn von "generell 15% schneller" die Rede ist, könnte man es auch so interpretieren, dass damit gemeint ist, sie ist unabhängig von den Taktraten nochmal generell 15% schneller, was dann IPC bedeuten würde.
 
Zuletzt bearbeitet:
Zurück
Oben