News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

RYZ3N schrieb:
@Holt geht einfach etwas weniger euphorisch, dafür realistischer an die Sache ran.

Ich glaube niemand hier hätte etwas dagegen, wenn AMD zur CES verkünden würde, dass man zukünftig 16C/32T mit 5,1 GHz Boost für 499,— Euro plus Steuern erwerben kann.
Genauso ist es und 16C/32T mit 5,1 GHz Boost für 499,— Euro +19% würde ich auch nehmen.
anexX schrieb:
die Frage ist nur wie es aussieht wenn AMD mal einen Punkt kommt wo sie in wirklich allen Belangen schneller als Intel sind - bleibt man dann wirklich noch preisbewusst oder macht man es dann wie Intel in der Vergangenheit und hält nur noch überteuert die Hand auf ?
Da es eine Aktiengesellschaft ist und Gewinn machen muss, zumal bei dem Schuldenberg den AMD hat, wird AMD nichts verschenken und die Preise verlangen die sich am Markt durchsetzen lassen, ein paar Prozent unter Intels Preisen, aber nicht zu sehr. Das war in der Vergangenheit zu sehen und ist auch jetzt zu sehen, z.B. gerade beim 2990WX, der trotz seiner 32 Kerne ja bei weiten nicht bei jeder Anwendung vor Intel 18 Kernern liegt.
usb2_2 schrieb:
Dazu noch 13-17% mehr Takt, der locker drin sein dürfte, da 7nm effizienter ist und die aktuellen den Takt ja auch mit höherer TDP halten könnten.
7nm wird effizienter sein, aber nur bei bestimmten Taktbereichen in denen die GPUs arbeiten, aber eben nicht unbedingt bei sehr hohen Taktraten von 4GHz und mehr. Das hatte ich doch schon lang und breit erklärt, aber obwohl hier niemand einen Gegenbeweis bringt, wird es nicht geglaubt. Es kommen allenfalls unbelegte Aussagen von angeblich 4,5Ghz bei TSMC, aber ohne einen Link dazu. Es gab von GF eine offizielle Aussagen von 5Ghz für deren 7nm Prozess bezogen, die sind so nicht einfach so auf TSMC übertragbar und weil die auch 7nm Prozesse haben.
usb2_2 schrieb:
Ich bleibe dabei, dass 25% mehr Leistung ggü. 14nm Ryzen drin sind.
Mit den zusätzlichen Kernen bei der Multithreadperformance auf jeden Fall und sogar mehr als 25%.
RYZ3N schrieb:
Natürlich wird der Ryzen 3000 und [allgemein] ZEN2 in Sachen IPC, Single- und Multicore-Performance vor Ryzen 2000/ZEN+ liegen.
Bei der Singlethreadperformance haben ich da meine Zweifel, einfach weil ich die Taktraten nicht für realistisch halte, die würden weit über denen liegen die alle anderen Chips aus der 7nm Fertigung von TSMC kommen, denn das sind alles Chips die eben nicht so hoch takten.
Taxxor schrieb:
Ob dir Holt da zustimmen würde? Der Absatz, in dem er erklärt, dass die Taktraten beim Sprung auf den kleineren Prozess wohl eher fallen werden, weil es bei Intel ja schließlich auch so war
Und nicht nur bei Intel war es so, das Beispiel des FX 9590 hatte ich doch genannte und es zeigt das auch GF die 32nm SOI bei sehr hohen Frequenzen besser war als selbst der aktuelle 14nm in seiner optimierten Version als 12nm, denn die hohen Taktraten des FX 9590 bekommt ein RYZEN nur bei noch deutlich Leistungsaufnahme hin, obwohl er viel sparsamer ist wenn man beide auf 2 oder 3GHz getaktet laufen lässt. Das ist der Taktbereich in dem der neue Prozess viel mehr Effizienz und damit mehr Takt bei gleicher Leistungsaufnahme oder mehr Komplexität (Kerne/Shader) bei gleichem Takt und gleicher Leistungsaufnahme ermöglicht, nicht aber bei weit über 4GHz, obwohl es der Leading Performance genannte Prozess ist:
Was hatte GF für den 14nm LPP (nein, auch das ist nicht ein Low-Power sondern ein High-Performance Prozess, der Low-Power ist der LPE, hatte ich aber schon geschrieben und belegt) versprochen:
Können die CPUs deswegen um 55% höher takten? Ein Athlon X4 860K (Kaveri) hat 3.7GHz Basis- und 4.0 Turbotakt, die RYZEN hätten nach der Logik der Leute die Performancesteigerungen als Steigerung des maximalen Taktes verstehen, ja bis über 6GHz Boosten müssen, tun sie aber nicht.

GF schreibt aber auch ganz richtig, dass es um die "device performance" geht, also die Leistung des Chips und die steigt eben nur so stark, wenn man die Chips an einem bestimmten Betriebspunkt, als bei einer bestimmten und eher moderaten Taktrate betreibt, weil der Prozess dann eben effizienter ist, aber eben nicht bei jedem beliebigen Takt und dies gilt für alle Halbleiterprozesse.
usb2_2 schrieb:
Und dabei war das bei Intel der Wechsel von 22nm refresh auf 14nm bei 95w zu 65w TDP. Das hat natürlich keiner beachtet.

Der Vergleich wäre quasi 4770 zu 5775c oder?
Eben, der 5775C war die ersten Generation an 14nm Desktop CPUs von Intel, nicht Skylake und die Desktop kamen viel später als die CPUs für mobile Anwendungen, es gab sogar Gerüchte würde gar keine Broadwell für den Desktop anbieten.
Taxxor schrieb:
Der Vergleich von Holt war ja der zwischen 4790K und 6700K, wie du sagst 22nm Refresh zu neuem 14nm.
Er ging zu beiden und der 6700K war eben nicht die ersten Generation des neuen 14nm Prozesses, sondern die zweite und Intel hat den sicher schon besser im Griff gehabt, aber eben nicht umbenannte, wobei sich die relevanten Abstände von 14nm auf 14n+ gar nicht geändert haben, erst bei 14nm++ wurden da ein Abstand geändert und sogar wieder größer um mehr Takt zu ermöglichen.
Banned schrieb:
So machen z.B. nicht wenige 6700K 4,8GHz. Der 4790K hingegen fast nie.
Eine zuverlässige Statistik wie viele CPU wie gut übertaktbar sind, wird sich nur schwer auftreiben lassen, aber 4,8GHz waren beim 4790K durchaus möglich und es gab den 4790K preselected mit 5GHz, der Vorgänger 4770K hatte damit Probleme dies zu schaffen.

Der Vergleich muss hier aber zwischen den am höchsten getakteten Chips aus der 16nm oder 10nm Fertigung von TSMC sein, wie hoch takten die?
 
  • Gefällt mir
Reaktionen: NMA
Ja, AMD könnte für einen 16-Kern Ryzen 9 3850X wohl deutlich mehr als 500€ verlangen und immer noch genug Käufer finden. Sie werden es aber nicht tun, genausowenig wie sie den Ryzen Threadripper 2990WX für 2000€ verkaufen. Das hat mit AMDs Unternehmenskultur zu tun.

Ich empfand AMDs Preise immer als fair, auch wenn sie die Leistungskrone hatten, etwa zu Athlon-Thunderbird- oder Radeon 7970-Zeiten.
 
Holt schrieb:
GF schreibt aber auch ganz richtig, dass es um die "device performance" geht, also die Leistung des Chips
Und was schreibt TSMC?
20% speed improvement, und zwar verglichen mit dem vorherigen Prozess, nicht bezogen auf spezielle Produkte.

Holt schrieb:
Der Vergleich muss hier aber zwischen den am höchsten getakteten Chips aus der 16nm oder 10nm Fertigung von TSMC sein, wie hoch takten die?

Ich zitiere dich mal
Holt schrieb:
Herleitungen auf Aussagen zu GPUs sind eben nicht auf die CPUs übertragbar

Wenn man sagt, 20% mehr Transistor Performance und dann zeigt, dass das bei den GPUs auch so hin kommt, dann kommst du an und sagst, dass man das nicht auf CPUs anwenden kann, nur weil es bei GPUs so ist.

Wenn du aber belegen willst, dass die CPUs nicht so hoch takten können, ist dein einziges Argument, dass TSMC bisher nur GPUs mit 1800MHz als höchst taktende Produkte mit dem Prozess hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, cookie_dent und usb2_2
@Shoryuken94 Warum versteifst du dich eigentlich so auf das Zahlengeschubse? CUs, Shader, Takt, TFLOPs?

So lange wir keine genaueren Informationen haben, wie tiefgreifend die Eingriffe in die GCN Architektur sind/waren, nutzt das doch herzlich wenig. Du hast ja selber schon mehr als genug Beispiele dafür gegeben, dass die Werte bei NVidia und AMD zu komplett anderen Ergebnissen führen können.

Vlt. hat man bei Vega einfach einen GCN Fork erstellt, der die grundlegende Architektur zum Computing hin optimiert hat und jetzt mit Navi ein Fork, der eben auf Gaming optimiert ist.

Das ist ja nicht zwangsläufig chronologisch und darum muss Navi auch nicht zwangsläufig näher an Vega, als an Polaris sein. Das wird wohl erst die entsprechende Präsentation zeigen.


Fred_EM schrieb:
[...]
Intel arbeitet an dem Nachfolger von CMOS
- wenn das sich realisierten sollte, dann bringt das wesentlich mehr als alles andere.

Aber hey, aber das ist noch weit weg ...
würde aber auch erklären warum Intel sich zurückhält
in CMOS noch weiter viele viele Milliarden zu investieren (zu versenken).

Wenn MESO sich in Volumenproduktion bringen lässt (das dauert noch Jahre),
dann werden viele mutige Kapital-Investitionen in CMOS über mittleren Zeitraum ziemlich notleidend.

CMOS nähert sich von der Physik her so langsam aber ganz sicher einer Glass Wall an,
so beeindruckend die Erfolge der Halbleiter-Industrie mit immer noch kleineren CMOS Strukturen auch erscheinen wollen.
[...]

Das liest sich zwar sehr schön, aber ob und wann das massentauglich ist, steht noch in den Sternen.

Könnte sich 2035 vlt. ein heißes Rennen mit CPUs auf Kohlenstoffnanoröhrchen Basis liefern nur um dann 2050 wie Technik aus der Steinzeit auszusehen, neben dem neuen Quantencomputer.
 
chithanh schrieb:
Ich empfand AMDs Preise immer als fair, auch wenn sie die Leistungskrone hatten, etwa zu Athlon-Thunderbird- oder Radeon 7970-Zeiten.

Das hätte hier aber nix mehr mit fair zu tun. Das wäre fast geschenkt. ;)


In meinen Augen ist es immer noch komplett abwegig: 800MHz mehr Takt und die Kerne verdoppelt. Dazu kommt noch, dass es wirtschaftlich nicht schlau wäre, gleich sein ganzes Pulver zu verschießen (ein Zwölfkerner mit den Werten würde völlig reichen, um Intel das nächste Jahr zu vermiesen).

Da glaube ich eher an den Osterhasen.
 
Zuletzt bearbeitet:
DerWeisseFisch schrieb:
Warum werden hier Fake News gebracht?
Frage? Weisst du überhaupt was FakeNews sind?
Wenn man mehr als die Überschrift liest, dann steht da: "Gerüchte" und vor allem Annahmen und das die Redaktion lange drüber diskutiert hat. Also wenn das FakeNews wären, dann würde da kaum so eine lange Argumentation stehen ;)

Ich gehe da mit Banned mit. nen R9 12 Kerner lass ich mir gefallen, allerdings eher bei 600-700€ .. Die Abverkaufspreise eines 1920X kann man nicht nehmen, also orientiere ich mich am TR4 2920X, der ja bei 650€ liegt.
Wenn AMD wirklich 6C /12T als I3 Konkurrenz bringt, dann müsste man mit Intel in den Preiskampf (was AMD nur verlieren kann) und man würde sehr viel Potenzial unnötig raushauen. Intel plant bei CML einen 10 Kerner, also warum sollte auf einmal AMD 16 kerne brauchen um Intel in Schach zu halten?
 
Chismon schrieb:
Die wenigsten Leser werden sich die gefilterten Einzelbenchmarks anschauen, viele ueberfliegen den Artikel und dann ist das Urteil kurz und knapp getroffen

ja, das is richtig. Aber sie ja auch nicht, das Rating stimmt ja auch ungefiltert. Es gibt ja nen Performance Index über möglichst viele Titel an, da sollte man kaum hingehen und Ausreißer ausklammern.

Klar, wenn zb ein Titel nicht lauffähig ist muss man das nicht unbedingt als "0" werten. Mehr Games glätten die Ausreißer weg. Die mögen zwar nicht normal-verteilt sein und ggf bei AMD öfters negativ einschlagen als bei Nvidia, aber das Rating hat nun mal als Aufgabe den Ist Zustand abzubilden, da ist Vorfilterung meist einfach eher der falsche Ansatz. Aber da gehen die Meinungen halt außeinander.

Bei jeder Forderung dieser Art, genau wie z.B. der häufig erwähnten Forderung nach schnellerem Ram im Testsystem, solle man sich immer erst folgende Frage stellen:

"Was ziehe ich als Kriterium für meine Entscheidung heran?"

Bezogen auf Ram also :

"welchen Ram nehm ich? Welche Timings? Subtimings? Wenn ich schon OC teste, muss der Takt dann gleich sein wie bei der Konkurrenz die aber ggf mehr Takt ab kann? Teste ich AMD also mit 3400 Memory und Intel mit 3800? Welchen Wert lege ich fest, wie wähle ich meinen Ram also deterministisch? Nehme ich einfach ein gutes Kit und prügle auf jeder Plattform das Max raus? + Begründung für alles davon."

Bezogen auf Ausreißer / Gameworks im Rating:

"Ab wann ist es ein Ausreißer? Welche Karte ist meine "Referenz" Wie weit darf ich vom Mittel abweichen? Wie viele Titel setzt mein Mittel voraus? Kann ich damit leben dass ich dem Final Fantasy User keinen Wert in Rating packe und will ich wirklich Partei über Vorfilterung ergreifen?"
 
  • Gefällt mir
Reaktionen: v_ossi
Banned schrieb:
Das hätte hier aber nix mehr mit fair zu tun. Das wäre fast geschenkt. ;)[...]

Sagt wer?

Vlt. haben Intel und NVidia ja das Preisgefüge auch einfach nur durch ihre Quasi Monopolstellung so lange ruiniert, dass wir* gar nicht mehr einschätzen können, was fair ist und was nicht.

Intel hat immerhin vom der 2000er Generation bis zur 7000er quasi den gleichen Prozessor** angeboten und dafür Pi mal Daumen immer das Gleiche verlangt.

Sofern AMD die Prozessoren mit einer ordentlichen Gewinnmarge anbietet, ist der Preis auch fair.

*also die Konsumenten am Ende der Nahrungskette
**zur Veranschaulichung stark übertrieben
 
  • Gefällt mir
Reaktionen: Acedia23, Nager47 und cookie_dent
@v_ossi
Ich glaube nicht an diese Preise.
Das ist ja 7nm und das kostet Geld.
AMD kann natürlich eine neue HD4850 bringen, aber ich bin grade wegen des Fertigungsprozesses eher skeptisch. Vega 56/64 Leistung bei 150W klingen nicht mal so unrealistisch, wenn man den Boost der CPUs auch auf GPUs adaptiert, ist das sogar machbar. Aber ob da 250$ am ende stehen? Mhh, da bin ich unsicher... Man würde ja mit der 2070 konkurrieren müssen, die bei 550€ mehr oder weniger liegt.. Wenn AMD etwas langsamer wäre bei 400€, wäre das eben immer noch Fair.. Aber Navi auf Vega64 Niveau für 250$? Never..
 
  • Gefällt mir
Reaktionen: Banned
Holt schrieb:
Das hatte ich doch schon lang und breit erklärt, aber obwohl hier niemand einen Gegenbeweis bringt, wird es nicht geglaubt. Es kommen allenfalls unbelegte Aussagen von angeblich 4,5Ghz bei TSMC
Schön und gut aber ich rechne noch immer mit 3 zu 3,4 GHz oder 3 zu 3,6 GHz. Das wird der 7nm Prozess schaffen. ARM Chips auf dem Prozess schaffen ja schon 2,8GHz.


Holt schrieb:
Mit den zusätzlichen Kernen bei der Multithreadperformance auf jeden Fall und sogar mehr als 25%.
Warum wiederspricht du mir dann, wenn ich von 25% mehr Leistung rede? Weil du es realistisch siehst jedenfalls nicht. Die werden auch noch mehr, als 25% drauflegen. Alleine ein noch besseres Boost ändert da sicher was. Unser Vergleich ist ja noch immer Ryzen 1000, da wir 14 und 7 nm vergleichen, wie AMD es auch macht.

Holt schrieb:
Der Vergleich muss hier aber zwischen den am höchsten getakteten Chips aus der 16nm oder 10nm Fertigung von TSMC sein, wie hoch takten die?
Da wurden keine gebaut, die auf Takt ausgelegt waren. Höchstens GPUs, die auf Takt ausgelegt waren, wobei die immer niedriger takten, als CPUs.

GP 104 schafft ja locker 2,1 GHz und mehr. Wie viel schafft denn GP 107? Dann kannst du etwas rechnen und kommst sicher darauf, dass TSMC und Globalfoundries bei GPUs etwa den gleichen Text erreicht haben.

Also wäre das bei CPUs ja auch so? Nein das kann man nicht vergleichen, da CPUs und GPUs zu verschieden sind. Was also der höchste Takt bei TSMC 16nm war kann man nicht so genau sagen. Vielleicht kennt sonst jemand da etwas ich weiß keinen Chip.

Holt schrieb:
Eben, der 5775C war die ersten Generation an 14nm Desktop CPUs von Intel, nicht Skylake
Und eine CPU mit 65w TDP, weshalb man die mit anderen CPUs mit 22nm vergleichen muss. An sich sogar mit den ersten 22nm CPUs. Das wäre dann ein 3770? Der hat aber 77w TDP. Also kannst du hier gar nichts vergleichen.

Nächstes Problem: Die hatten einen geringeren Takt und eine kaum höhere IPC doch in ihrem Anwendungsgebiet (Spiele, Mainstream) waren sie weit überlegen. Wieso sollte man da den Takt vergleichen? Dann lieber wieder zurück zu Skylake oder mobilen CPUs ohne eDRAM.

Das kann ich mir später gerne Mal angucken. Dann aber die 2. Generation aus 22nm mit Skylake bei gleicher TDP.
Ergänzung ()

v_ossi schrieb:
Intel hat immerhin vom der 2000er Generation bis zur 7000er quasi den gleichen Prozessor** angeboten und dafür Pi mal Daumen immer das Gleiche verlangt.
Intel hat immer kleinere Prozessoren auf neueren und bis auf 14nm* günstigeren Prozessen angeboten.

*Zumindest am Anfang.
 
psYcho-edgE schrieb:
Ich hab doch eindeutig in diesem Thread erwähnt, dass ich selbst nicht dran glaube.

Wenn aber so ein Produkt käme, wäre der Kundschaft der Stromverbrauch Hupe, wenn die Karte nur günstig genug ist.

Was ist eigentlich jetzt das Problem? :rolleyes::p
Dass ich nicht 500 Beiträge durchgelesen habe. ;)
Wie auch immer, dieses "hätte, wäre, wenn" können wir denke ich abhaken. :)

usb2_2 schrieb:
16% in Cinebench. Der 2700x kostet etwa 53% des i9 9900k. Das ist mehr, als bei highend GPUs, wenn man die Titan ausnimmt. Sonst müssen wir doch noch den Threadripper mit dem anderen i9 vergleichen, wenn die Titan zählt. Die über nicht für gaming gedacht. Der i9 9900k wird aber damit beworben und der R7 ist Intels ersuchte Konkurrenz.
Wie bereits erwähnt sind die Preise bei Intel aktuell ungewöhnlich hoch und nicht selten über der UVP. Daher sollte man das nicht überbewerten. Außerdem kannst du auch einen 8700k nehmen. Der zersägt einen 2700X ebenfalls in Spielen und ist deutlich günstiger als der 9900K. Vor einem halben Jahr war er im Preisbereich des 2700X. Das zeigt, dass es aktuell an etwas bei Intel hapert, was nicht normal ist. Und den 9700K dürfen wir auch nicht vergessen, dessen P/L ist wesentlich besser.
Und dass unsere "Cinebencher" mal wieder hervorkriechen war nicht anders zu erwarten. :rolleyes:

dr. lele schrieb:
Wenn man sich Epyc und Xeon Gold anschaut sieht es fast so aus. Epyc kostet weniger, verbraucht weniger und ist von der Geschwindigkeit vergleichbar.
Ich glaube du hast eine Sache vergessen: wir reden hier nicht von Epyc. Das ist auch ein ganz anderes Segment auf dem AMD Fuß fassen möchte.
 
Zero_Point schrieb:
Und dass unsere "Cinebencher" mal wieder hervorkriechen war nicht anders zu erwarten. :rolleyes:
Was sollte man denn sonst nehmen? Cinebench ist zuverlässig, fair für die Architekturen, nutzt alle Threads gut aus und skaliert ziemlich gut mit Takt. Das alles auf einmal muss ein Benchmark nunmal bieten. Klar kann es für einzelne Sachen bessere geben, Cinebench ist aber nunmal Standard. Jeder nutzt es. Willst du mir was besseres vorschlagen, dann tu das gerne. Dann aber auf Linux und nicht mit der Out of the Box Konfig, sondern manuell optimiert. Dann auch mit den higend CPUs, da beide annähernd das gleiche kosten. Dann gucken wir nicht nach absoluter Leistung sondern Leistung zu einem Preispunkt der UVP (max -3%, für das Produkt das länger auf dem Markt ist, die Preise sinken ja immer etwas. Ist das speziell fairer? Da kannst du mir gerne Feedback zu geben.) Dann gucken wir noch auf den Verbrauch über alles und den Verbrauch pro Leistung.

Oder wie bleiben eben bei Cinebench, da das fair ist. Da ist der i7 8700k langsamer und trotzdem teurer. Wenn es nur um spiele geht, dann braucht man auch nur den aktuellen Preis angucken. Sonst wäre der i5 8600k(8400) fast immer der Gewinner.


Zero_Point schrieb:
Vor einem halben Jahr war er im Preisbereich des 2700X
Vor einem halben Jahr war er auch kein potenzieller Bestandteil in einem Weihnachtsgeschenk und somit für ganz viele Leute unzugänglich. Heute ist er das natürlich auch, da er so teuer ist. Das ist aber wieder was anderes.

Als Coffee Lake raus kam hätte ich fast meinen gaming PC aufgerüstet und einen i5 gekauft. Die waren aber einfach zu teuer. Jetzt ist Weihnachten da kommt das wieder in Frage aber die Preise von Ryzen 2000 sind nichts für mich, wen Ryzen 3000 ansteht. Da warte ich lieber. Wenn Intel dann noch was bringt, wenn ich denn dann wirklich was kaufe nehme ich auch das. Kommt auf den Preis und die Leistung an. Meine GPU ist eh zu langsam um den Unterschied zu merken.
 
usb2_2 schrieb:
Cinebench ist aber nunmal Standard. Jeder nutzt es.
Also ich nutze ihn nicht. Und ich würde behaupten, dass das auf 99% der Nutzer ebenfalls zutrifft.

usb2_2 schrieb:
Willst du mir was besseres vorschlagen, dann tu das gerne.
Ganz einfach: das Leistungsrating. Nur das ist fair. Alles andere (insbesondere der Cinebench) sind reines Cherrypickung ohne jegliche Aussagekraft. Ausnahme: Cinebench SC-Leistung. Aber da sieht es beim 2700X auch wieder düster aus...
 
Raycrate schrieb:

In #350 schreibt Volkimann über IA64. Ich wiederhole meine Bitte nach einem Link zum angeblichen Preis der 580 von 130€. Bzw. wir können das ganze auch abkürzen. Du kannst weitere Nebelkerzen abfeuern und auch gerne anfangen durch persönliche Anmache vom Thema abzulenken - oder einfach nur klar stellen dass Du Dich vertan hast und es abgesehen von Lockangeboten keine 580 für 130 Euro gibt.
 
@Hayda Ministral
Für 130€ gab und gibt es meines Wissens nach keine, aber es gab die letzten Wochen einige Angebote bei denen die Karte ca. 140€ gekostet hat. Kannst auch mal bei mydealz nach RX580 suchen. Aktuell gibt es bei Mindfactory sogar eine mit 8GB für 180€ Hier noch ein Beispiel:
 

Anhänge

  • BAC52A26-D6EB-4532-BD3B-2681D93C7D71.png
    BAC52A26-D6EB-4532-BD3B-2681D93C7D71.png
    1,7 MB · Aufrufe: 404
Zero_Point schrieb:
Und ich würde behaupten, dass das auf 99% der Nutzer ebenfalls zutrifft.
Für Benchmarks natürlich. Da nutz es jeder.

Zero_Point schrieb:
Ausnahme: Cinebench SC-Leistung. Aber da sieht es beim 2700X auch wieder düster aus...
Das kann ja keine Ausnahme sein, wenn niemand Cinebench nutzt.

Wenn du sagst ein Leistungsrating, darf ich dann trotzdem die Benchmarks raussuchen und ein eigenes bauen? Weil Leistungsratings sind auch nicht aussagekräftig, wenn dort einfach nur bekannte Benchmarks genutzt werden.

Stell dir vor jemand baut, sagen wir um das jJahr 2001 herum, ein best of 3 und das ist sysmark 2001 drin. Oder im Jahr 2002 ein best of 5 und nimmt dann sysmark 2001 und 2002. Am besten dann noch mit POV-Ray 3.6 drin. Hättest du dem dann geglaubt?

Also müssen es Benchmarks sein, die Multicore gut können und weder HT noch AMDs SMT bevorzugen. Dazu müssen sie über Kerne und Takt etwa gleich gut skalieren.

Ein Leistungsrating mit den falschen Benchmarks hilft nicht. Also lieber eins, das überall gut läuft und bei Intel im Reviewers Guide steht. Wenn die das empfehlen kann es sie nicht benachteiligen. Daher Cinebench.
 
Holt schrieb:
Man befürchten das Takt und IPC Steigerung nicht reichen

Man? Wer ist "man"?

weil es mehr Kerne geben wird

Ach so ja. Also ich glaub ich habs nun kapiert. Intel, IBM, Sun,.... verbauen mehr Kerne weil sie es können und dadurch einen Mehrwert schaffen. Nur AMD nicht, bei denen sind mehr Kerne ein Zeichen dafür das Takt und IPC Steigerung nicht reichen.
 
Zuletzt bearbeitet:
Zurück
Oben