News AMD-Gerüchte: Navi-PCB aus der Fertigung, X570 im technischen Detail

MK one schrieb:
Gerüchten zufolge soll der X570 40 mal PCIe 4.0 Lanes erhalten ...
http://www.pcgameshardware.de/AMD-Z...-technischen-Eckdaten-und-Mainboards-1280787/
ich halte ja eher 20 mal 4.0 PCIe Lanes ( 16+4) deren Bandbreite auf 40 mal 3.0 aufgeteilt werden kann für wahrscheinlich , aber sollten tatsächlich 40 mal 4.0 kommen = der Hammer...

Ja gut, dasselbe macht Intel wie gesagt auch und da is das Geheule immer groß dass die Anbindung an CPU also DMI dann der Flaschenhals is. Wichtiger sind in meinen Augen aber die Lanes und AMD weiß dass sie da was machen müssen. 40 wäre schon sehr viel, aber bei nem recht einfachen PCIe Switch im Chipset is da die Menge recht einfach und günstig realisierbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Balikon schrieb:
würde es keine Radeon VII geben, da bin ich mir sicher.

für uns wohl nicht....natürlich gäbe es mi50 und mi60 aber die preise, sind ja dann für konsumenten kaum zu stemmen.

wenn eine pro user karte gerne mal 5 stellig kostet, kommen die hersteller aus beiden lagern kaum noch vor lachen in den schlaf.

die radeon 7 war gut, um auch dem letzten hinz und kunz zu zeigen, wo die reise mit 7nm hin geht. nicht mehr, nicht weniger.

die brot und butter karten kommen doch erst noch. jetzt muss man hoffen, dass weniger handy´s verkauft werden damit bei tsmc mehr kapazitäten frei werden und keine traum preise mehr aufgerufen werden (angebot und nachfrage).

so lange ein top smartphone über 1k euro kostet, werden grakas nicht mehr "preiswert" werden. warum sollte ich einen graka chip bauen, wenn ich einen winzig (billig) handy chip für mehr geld verkaufen kann?

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King und Balikon
SlaterTh90 schrieb:
Naja, AM4 muss nicht unbedingt voll belegt sein mit den aktuellen CPUs - AMD hat ja mit längerer Lebenszeit geplant. Aber zur Not gibts ja noch Threadripper ^^.

Egal ob vollbelegt oder nicht. AM4 is alt (pre Ryzen 1) , das war schon immer auf das ausgelegt was man sieht. Auch Ryzen 1 hätte mehr pcie Lanes rausführen können, jede Die hat ja 32 - 4 für HT. Mehr als 20 ging aber vermutlich wegen dem Pinout nicht
 
  • Gefällt mir
Reaktionen: Mcr-King
SKu schrieb:
Navi ist kein Nachfolger für Vega,
Teralios schrieb:
Wobei die Gerüchteküche in der Richtung ja durchaus brodeln.
Damit dann alle wieder lange Gesichter ziehen. Die einen werden von "Riesenenttäuschungen" jammern, die anderen werden "ich hab es Euch ja gleich gesagt" rülpsen, aber man wird sich wieder einig sein: Schuld ist AMD, nicht etwa Gerüchte, die ganz falsche Erwartungen geweckt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, derSafran und Rockstar85
Eben, deswegen einfach nicht immer so viel Erwarten. Wenn es wie Polaris eine Alternative zur 1660 Ti und RTX 2060 wird ist doch alles prima.

Der Big Chip dann mit 2080 Leistung Anfang 2020 und vielleicht eine SKU mit 300 Watt TDP 10 bis 15% hinter einem hypothetischen Vollausbau von TU102.
 
  • Gefällt mir
Reaktionen: Mcr-King
KlaraElfer schrieb:
Wenn es wie Polaris eine Alternative zur 1660 Ti und RTX 2060 wird ist doch alles prima.

Das dürfte leider nicht reichen, sieht man sich die Marktanteile von 1050 / 1060 in Relation zu den Amd-Pendants an. Ich bin da auch der Meinung, dass man mit Navi hier nicht die Schiene wie mit der Radeon 7 fahren kann und sich einfach preislich einfügt. Das hilft Amd nicht weiter, denn Status quo kann nicht das Ziel sein.
 
  • Gefällt mir
Reaktionen: duskstalker
mylight schrieb:
Letztendlich gehts vllt 15-20% schneller als die 2000er Reihe. Große Sprünge sind nicht zu erwarten .
Und warum sind die nicht zu erwarten? An der Architektur wurde genug geändert um diese 15% schon ohne Latenz und Taktveränderungen realisieren zu können.


mylight schrieb:
Hier gibts wohl echt Leute die glauben Nen 3400er wäre schneller als ein 1800er... oder gar 100% schneller, oder das ein AMD CPU Intels Flaggschiff schlagen wird
Wenn noch Kerne dazukommen, wird ein 3400er definitiv schneller sein als ein 1800er denn schon ein 2600 ist(in Spielen) schneller als ein 1800X bei 6 gegen 8 kernen und auf dem Papier etwas weniger boost Takt.
Und die Taktraten eines 3400 werden nicht niedriger ausfallen als die des 2600.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
Holt schrieb:
Wieso eine gerade Zahl? Schon der allererste IBM XT PC hatte 9 Bit RAM Anbindung: Schade nur, dass man die Fehlererkennung des RAMs dann bei den Nachbauten nicht mit übernommen hat.
8Bit ohne und 9Bit mit Parity. Waren ja auch 9 (oder 18/27/36) ICs auf dem PCB der Parity-Speicherriegel.
 
Taxxor schrieb:
Und warum sind die nicht zu erwarten?

Weil nichts, aber auch gar nichts darauf hindeutet. Es werden ungefähr die üblichen 10 bis 15% und das ist bereits sehr viel für den Entwicklungsstand.

Ab dem Zeitpunkt wo ein Prozessor Befehle innerhalb eines Taktes abarbeiten kann, Caches und Latenzen sich an einen Zyklus immer weiter annähern, die Sprungvorhersage auf einem hohen Niveau arbeitet, wird es bei legacy Code keine großartigen Verbesserungen mehr geben.

Intel legt diesen Herbst ihre 10te Generation auf.
Das bedeutet Intel schläft nicht und wenn man ein bisschen in die Zukunft blickt kann man mit Comet Lake 5 Ghz auf 8 Kernen und 16 Threads erwarten.

Wenn es gut läuft sind das 9900K + 10%.
9900K Prozessoren laufen mit 5Ghz und vernünftiger Spannung ohne Verbrauchexplosion, dazu kann Intel noch die RAM Karte spielen, dort sind DDR4 2667 Standard, hier könnte man auf DDR4 3200 CL16 hochgehen.


Den Abgesang der hier auf Intel stattfindet, finde ich schon bemerkenswert, dabei muss AMD erst einmal liefern.

Wer weiss wie gut Intel den 14nm Prozess noch ausnutzen kann, AMD hatte auch 2010 mit den Phenom II 6 Kernern noch einen unerwarteten Sprung geliefert.

Für das, dass Zen 2 so stark werden soll ist es ein paar Wochen vor dem kolportierten Release, ausgesprochen ruhig.

Seit der CES Anfang des Jahres kam nichts mehr.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Mcr-King
KlaraElfer schrieb:
... Es gibt nicht eine spielbare Version des Crytek Ansatzes.
AMD setzt sich bezüglich Raytracing was die drei veröffentlichten Spiele angeht, dann einfach ins gemachte Nest.
Den negativen Unterton deinerseits bei solch wichtigen Entwicklungen wie RT, hab ich noch nie verstanden, merkliche Unterschiede gibt es schon heute. Für das Beleuchtungsmodell in Metro und die Spiegelungen in Battlefield gibt es kein gleichwertiges, spielbares Beispiel.

Grafikrevolutionen passieren immer schleichend, anders ist das gar nicht möglich.

Dann schau Dir die nVidia RTX Demos und die CryTek Demo an. Natuerlich gibt es noch keine Spiele mit der CryTek-Loesung, weil in die aktuelle Engine dieses bisher noch nicht vollstaendig integriert ist, aber daran wohl gearbeitet wird.

Von "ins gemachte Nest setzen" kann hier ueberhaupt keine Rede sein und wenn Du aufmerksam meine vorherigen Beitraege gelesen haettest, dann waere Dir auch aufgefallen, dass ich gerade angemerkt habe, dass man bei Microsofts DXR eben nicht einfach einen Knopf drueckt, so dass es dann spielend unter DX12 auf beiden, nVidia RTX und AMD/RTG Navi GPUs, funktioniert, da eben (treiber-aehnlich) die GPU-architekturspezifische Anpassung notwendig ist.

Du hast (wie alle anderen ausserhalb AMDs/RTGs) doch keinen blassen Schimmer, wie die RT-Raytracing Loesung von AMD/RTG aussehen wird, sondern raetst einfach nur ins Blaue hinein.

Niemand hat nVidia/Huang gezwungen peinlich mit Superlativen zur Einfuehrung von Turing RTX Karten um sich zu schmeissen und dann Monate spaeter gerade einmal halbgare GPU-/Spiele-Kost liefern zu koennen.

Das passiert eben ab und zu, wenn man sich zu weit aus dem Fenster lehnt, mit Bescheidenheit/moderaterem Auftreten hat es der nVidia CEO ja auch nicht wirklich :lol: ... die Schuhe soll sich nVidia bitte selber anziehen und wenn man Mist baut, nicht wieder alles auf AMD/RTG abgewaelzt werden.

Den "negativen Unterton" (so wie Du es nennst) musst Du auch nicht verstehen, vielleicht liegt es auch nur daran, dass ich mich weniger hypen lasse ... erzaehlen koennen Huang & Co. viel wenn der Tag lang ist, aber an den Resultaten muessen sich sich messen lassen und diese sind bisher nur durchwachsen und rechtfertigen m.M.n. nicht diese massive/n Preistreiberei/GPU-Aufpreise.

Begeistern kann man sich fuer RT-Raytracing eben insbesondere dann (noch) nicht, wenn anfaenglich nur halbgare Kost geboten wird und man lieber noch eine Generation haette warten koennen, damit dann in allen GPU-Klassen ein Einstieg gelingt und dann auch schon eine befriedigende Auswahl (mindestens ein halbes Dutzend) an Spieltiteln, die das Potential aufzeigen zum Marktstart vorhanden ist.

Wie das mit RT-Raytracing in Zukunft/kommenden GPU-Generationen gelingt, wird man sehen muessen ... bisher ist der Leistungshunger noch viel zu gross und die Hardware viel zu eingeschraenkt dafuer, als dass es sich lohnen wuerde (die Aufpreise dafuer zu zahlen).

In ein paar Jahren spaestestens duerfte einem vermutlich eine RT-Raytracing-faehige GPU nebst massivem Aufpreis aufgezwungen werden und man als Kunde keine Wahl mehr haben.

Meist ist eine schleichende Entwicklung der Fall, aber bei RTX Turing Werbeveranstaltung hat man sich ja so hingestellt, als ob das anders waere und ja, wenn man bspw. an Crysis denkt, gab es auch schon sichtbare Grafikknaller/-umsetzungen, die eben nicht schleichend kamen.

Ob das CryTek noch einmal schaffen kann, ist zu bezweifeln, aber eine Alternative zu den personalstarken, offenen Engine-Marktfuehrern (Unreal/Epic und Unity) duerften sie ja idealerweise mit einem Alleinstellungsmerkmal am besten begegnen und wenn eine Kompromissloesung aehnlich gut aussieht wie reines RT-Raytracing, aber deutlich weniger Hardware-Leistung verlangt, waere das eine Win-Win Situation fuer CryTek, AMD/RTG und vor allem die Kundschaft (abseits glaeubiger/uneinsichtiger Kaeufer von RTX Turing Karten natuerlich, denen das gehoerig gegen den Strich ginge).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
KlaraElfer schrieb:
Weil nichts, aber auch gar nichts darauf hindeutet. Es werden ungefähr die üblichen 10 bis 15% und das ist bereits sehr viel für den Entwicklungsstand.
Es deutet schon seit Monaten alles auf eine 10-15% gesteigerte IPC durch Architektur Verbesserungen hin(erst vor ein paar Tagen nochmal von Boardpartnern quasi bestätigt) Dann deutet der 7nm Prozess auf höhere Taktraten hin(ebenfalls von den Boardpartnern bestätigt durch ein frühes 4C sample mit 4,5 GHz, dort sind 1. die Taktraten noch nicht final und 2. bekamen die 6+8 Kerner bisher immer noch Mal mehr Takt).
Dann deuten die Verbesserungen am infinity fabric auf verbesserte Latenzen hin, wenn das chiplet Design diese nicht komplett auffrisst.

Richtig es deutet aber auch gar nichts drauf hin.


KlaraElfer schrieb:
Für das, dass Zen 2 so stark werden soll ist es ein paar Wochen vor dem kolportierten Release, ausgesprochen ruhig.

Seit der CES Anfang des Jahres kam nichts mehr.
Wozu auch? Man ist mit einer 65W CPU mit dem Intel Flaggschiff gleichgezogen, diesmal sogar ohne auf mehr Kerne gehen zu müssen. Das reicht an Futter bis zur Computex.

Dieser Gleichstand bedeutet übrigens auch 15% Vorsprung des 65W 8C Samples auf der CES zum 105W 2700X.
Noch ein Punkt, der ganz klar für mehr als 15% Steigerung für den direkten Nachfolger, einen 3700X mit 105W, spricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
KlaraElfer schrieb:
[...]9900K Prozessoren laufen mit 5Ghz und vernünftiger Spannung ohne Verbrauchexplosion[...]

Lol, vlt. noch mal den Test zum 9900k lesen. Ich zitiere mal die wichtigste Stelle zu dem Thema:

Das Power Target und dessen Auswirkungen werden schnell sichtbar: Ohne die Einstellung im BIOS nimmt ein Core i9-9900K in Prime95 sogar weniger Leistung auf als ein Core i7-9700K, weil der Core i9 automatisch auf 4,5 GHz eingebremst wird, während der Core i7 weiterhin mit 4,6 GHz rechnen darf. Mit dem im BIOS aufgehobenen Limit wird das erwartete Bild dann wiederhergestellt und die vorab in der Gerüchteküche gehandelten Werte von rund 210 Watt zeigen sich mit einem Package Power von 218 Watt für den Core i9-9900K eindrucksvoll.

Also mit 95 Watt Power Target sind es noch 4,5 GHz und ohne PT sind es dann ~210 Watt.

Das kann man schon als 'Verbrauchsexplosion' bezeichnen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, greeny112, [wege]mini und 2 andere
Chismon schrieb:
Von "ins gemachte Nest setzen" kann hier ueberhaupt keine Rede sein und wenn Du aufmerksam meine vorherigen Beitraege gelesen haettest, dann waere Dir auch aufgefallen, dass ich gerade angemerkt habe, dass man bei Microsofts DXR eben nicht einfach einen Knopf drueckt, so dass es dann spielend unter DX12 auf beiden, nVidia RTX und AMD/RTG Navi GPUs, funktioniert, da eben (treiber-aehnlich) die GPU-architekturspezifische Anpassung notwendig ist.

Ich hatte die Aussage ins Nest setzen auch unabhängig von deinen Beiträgen geschrieben, damit warst du nicht gemeint.
Chismon schrieb:
Du hast (wie alle anderen ausserhalb AMDs/RTGs) doch keinen blassen Schimmer, wie die RT-Raytracing Loesung von AMD/RTG aussehen wird, sondern raetst einfach nur ins Blaue hinein.

Da DXR von AMD und NVidia sowie Microsoft verabschiedet wurde und Microsoft generell mit ihren FLs auf Konformität setzt, würde ich für die Beschleunigung der BHV Traversierung auch eine ähnliche Lösung erwarten.

Ohne dedizierte fixed function units wird das nicht wirklich performant laufen, für Navi Desktoo ist ja selbst noch kein Raytracing vorgesehen, eventuell kann erst der Nachfolger damit umgehen.
Chismon schrieb:
Niemand hat nVidia/Huang gezwungen peinlich mit Superlativen zur Einfuehrung von Turing RTX Karten um sich zu schmeissen und dann Monate spaeter gerade einmal halbgare GPU-/Spiele-Kost liefern zu koennen.

Wen interessiert das Marketinggelaber von Su oder Huang oder Sweeney oder irgendwelche anderen CEOs.
Keine Ahnung wie man sich daran 9 Monate nach Launch noch immer aufreiben kann, interessiert doch keinen.

Chismon schrieb:
... DIese sind bisher nur durchwachsen und rechtfertigen m.M.n. nicht diese massive/n Preistreiberei/GPU-Aufpreise.

Wieder eine Preisdiskussion, echt?
Ohje... :D

Chismon schrieb:
... man lieber noch eine Generation haette warten koennen, damit dann in allen GPU-Klassen ein Einstieg gelingt und dann auch schon eine befriedigende Auswahl (mindestens ein halbes Dutzend) an Spieltiteln, die das Potential aufzeigen zum Marktstart vorhanden ist.

Wenn du eine Generation wartest, dann hast du genau die selben Probleme die du jetzt hast, von daher ist das einfach nicht logisch. Warten bringt gar nichts.

Chismon schrieb:
Wie das mit RT-Raytracing in Zukunft/kommenden GPU-Generationen gelingt, wird man sehen muessen ... bisher ist der Leistungshunger noch viel zu gross und die Hardware viel zu eingeschraenkt dafuer, als dass es sich lohnen wuerde. .

Das ist leider einfach unwahr und wurde schon oft von ZeroZerp mit guten Argumenten und Fakten widerlegt.
Ich mache jetzt dieses Fass nicht schon wieder auf, aber grundsätzlich ist nicht die Leistung der RT Cores das Problem, sondern die derzeitigen angeflanschten Implementierungen und das generelle Faktum dass RT nunmal rechenintensiv ist aber an dem Punkt wo Raster basiertes Rendering für mehr Trick Qualität ineffizient wird, dann Arbeit spart und sehr effizient ist.

Metro und Battlefield 5 laufen mittlerweile für die Qualität der Reflektionen und Beleuchtungen hervorragend und mehr gute Implementierungen werden kommen.

Ob sich das für den einen lohnt oder nicht, ist wieder eine ganz andere Frage.

Lohnt es sich ein Dürüm statt einen Döner zu holen?

Chismon schrieb:
wenn eine Kompromissloesung aehnlich gut aussieht wie reines RT-Raytracing, aber deutlich weniger Hardware-Leistung verlangt, waere das eine Win-Win Situation fuer CryTek, AMD/RTG und vor allem die Kundschaft (abseits glaeubiger/uneinsichtiger Kaeufer von RTX Turing Karten natuerlich, denen das gehoerig gegen den Strich ginge).

Hä? Mein Güte beschäftige dich doch mal mit dem Thema Bitte und lass mal diese ständige Markendiskussion bleiben.
Wo ist Cryteks Lösung effizienter, es gibt doch gar keine Vergleichsmöglichkeit.
Man hört von dir auf der einen Seite immer nur wenn, eventuell, in der Zukunft, hypothetisch und auf der anderen Seite wenn eine Lösung mit DXR schon entwickelt wurde, ist das plötzlich unausgegoren, zu teuer, schlecht weil vom falschen Hersteller eingeführt und was weiss ich nicht alles.

Nimm dir doch mal vor eine Spur neutraler zu sein.
 
Klara, ich sag dir, warum AMD Navi, wenn nötig ohne Gewinn, aggressiv platzieren muss.

AMD verliert seit der Rx580 stetig Marktanteile und rutscht jetzt langsam in die irrelevante zone - der Trend ging leicht in die andere Richtung, aber mit dem mining boom und dem daraus entstandenen 1 jährigen nvidia Monopol ist das ding gründlich nach hinten losgegangen. Gleich gut und günstiger oder gleich teuer und besser zieht bei den Kunden nicht. Polaris ist heillos gegen schlechtere nvidia Karten gescheitert. Das muss man so klar sagen. Mehr Rohleistung, bessere Performance in modernen Titeln, freesync, mehr vram und ein niedrigerer Preis ging 13:1 für die gtx 1060 aus. Selbst wenn die karten nur gleich gut wären, hätte man mindestens mit 2/3 zu 1/3 rechnen können, wenn der Markt nicht komplett im Eimer wäre. Für jede verkaufte Rx580 wurden laut steam 13 gtx 1060 verkauft.
Es haben mehr Leute eine gtx 1080ti als Rx580 zum spielen im Rechner.

AMD muss viel besser UND günstiger sein, damit nvidia nicht einfach so durchs rumsitzen ins Monopol gekauft wird.

Wenn Navi in jeder Hinsicht n neuer polaris wird, kann AMD das Desktop gaming Segment von RTG noch dieses Jahr dicht machen, weil nvidia bis Ende 2019 über 90% der Marktanteile haben wird. Das einzige, was da momentan den damm dicht hält sind die Ramschpreise für polaris und vega. Und dann kommen die nvidia 7nm Karten und fegen den traurigen Rest vom Markt.

Ein weiter so gibt's nicht, ein weiter so ist die Kapitulation vor dem unausweichlichen.

AMD kann nicht bei jedem Release Däumchen drehen, aus Unfähigkeit nvidia anzugreifen, die karten in einem passiven Modus 10% günstiger anbieten, warten bis der Ruf der Generation ruiniert ist, um dann wegen der bleiartigen Eigenschaften des Inventars nach der halben Lebenszeit den Ramschausverkauf zu starten.

Glaubst du die momentanen vega Preise sind was anderes als abgeschriebener Verlust bei AMD? Natürlich nicht. Wir haben hier mehrmals die Produktionskosten hochgerechnet, und der Endkundenpreis einer v56 unterschreitet schon die geschätzten Kosten. Vega 56 war für 350€ nur gerade so oder nicht mehr kostendeckend und das ist jetzt mit 250€ bestimmt nicht besser geworden.

Das ist ok? Aber gleich von Anfang an einen kampfpreis ansetzen ruiniert AMD? Erstmal noch schlechte Presse und schlechte verkaufszahlen mitnehmen, bevor man mit den Produkten doch nix verdient? Soll das so mit den radeon gaming Karten weitergehen? Wahnsinn ist, immer das selbe zu tun, und ein anderes Ergebnis zu erwarten. Wenn Navi wieder mit blower Kühler kommt, so im Markt platziert wird wie polaris und wieder unnötig negativpresse kassiert, braucht man sich kein weiterbestehen von AMD gaming Karten wünschen. Da kann man sich auch unter einen Wasserfall setzen und hoffen, dass man trocken bleibt.

Nvidia ist jetzt durch die turing Preise und schlechte Performance angreifbar. Wenn AMD hier nicht reagiert und den selben Mist wie die letzten 6 Jahre macht, ist das ausscheiden mehr als verdient.

Und hier liegt der Knackpunkt. Ich glaube nicht, dass AMD so dämlich ist, und genau so weitermacht, wie bisher. Offensichtlich funktioniert es nicht und freesync hat man auch an nvidia verloren. Wenn Navi nix reisst, wars das. Und hier überlegt man sich wohl besser zwei mal, ob man die rtg teilweise für bissl Marge gegen die Wand fährt, oder ob man eine nullmarge oder Verluste für einen erfolgreichen wiedereintritt bezahlt. AMD kann jetzt nvidia als absoluten deppen dastehen lassen, wenn Navi richtig platziert wird. Die Chance auszulassen kann man mit Geld nicht aufwiegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, USB-Kabeljau, Rockstar85 und eine weitere Person
Taxxor schrieb:
Es deutet schon seit Monaten alles auf eine 10-15% gesteigerte IPC durch Architektur Verbesserungen hin(erst vor ein paar Tagen nochmal von Boardpartnern quasi bestätigt)

Dafür hätte ich jetzt gerne mal eine Quellenangabe, auch wenn ich weiss dass da nichts kommen wird.

Es ist rein gar nichts bekannt in welchem Umfang die IPC bei legacy code ansteigt.
Alles andere wäre für mich ein ganz neuer Stand.
Taxxor schrieb:
Wozu auch? Man ist mit einer 65W CPU mit dem Intel Flaggschiff gleichgezogen, diesmal sogar ohne auf mehr Kerne gehen zu müssen. Das reicht an Futter bis zur Computex.

Abwarten, in erster Linie wurde nur ein Benchmark gezeigt, Cinebench, mit rund 15% mehr Leistung.
Taktraten unbekannt, Leistung in anderen Anwendungen ebenso unbekannt.
 
KlaraElfer schrieb:
Dafür hätte ich jetzt gerne mal eine Quellenangabe, auch wenn ich weiss dass da nichts kommen wird.
Es wäre ja auch zu einfach noch weiter zu lesen, der Bericht über die Boardpartnern die 15% IPC bestätigen ist gerade Mal 2 Tage alt und den habe ich auch hier schon Mal verlinkt. Genau unter @MK one Beitrag über das frühe 8c Sample mit 4,5ghz im letzten jahr.

Anfang des Jahres gab es ebenfalls schon Twitter Posts von AMD nahen Personen die über die Samples 10-15% gesagt haben
 
Ich glaube, ich werde mit meiner 1080 noch sehr lange glücklich sein.
Der Graka Markt ist aber auch seltsam geworden...

Für mich die Meldung des Jahrhunderts bleibt nach wie vor, dass NVIDIA sich für Free Sync geöffnet hat.
Ich dachte an diesem Tag, dass die Hölle zugefroren ist :evillol:
 
v_ossi schrieb:
Also mit 95 Watt Power Target sind es noch 4,5 GHz und ohne PT sind es dann ~210 Watt.

Das kann man schon als 'Verbrauchsexplosion' bezeichnen.

Vergleichst du jetzt ernsthaft Cinebench mit 95 Watt TDP Target und Prime 95 mit AVX2 Small FFTs, einen Power virus miteinander?

In Cinebench sind das mit offener TDP und 4,7 GHz allcore vielleicht 120 Watt für den 9900K und 2700X, die ziehen da ja gleich viel, also kann man da 300 MHz mehr schon erwarten, dann eben mit 125 Watt TDP, damit das etwas ehrlicher ausfällt.
 
KlaraElfer schrieb:
also kann man da 300 MHz mehr schon erwarten, dann eben mit 125 Watt TDP, damit das etwas ehrlicher ausfällt.
Als ob, dann wurde unter einfach den Baseclock auf 3Ghz senken um weiterhin 95W dran schreiben zu können

Außerdem sind es im cinebench laut CB Test ca 150W bei 4,7GHz(184W system)
 
Taxxor schrieb:
Es wäre ja auch zu einfach noch weiter zu lesen, der Bericht über die Boardpartnern die 15% IPC bestätigen ist gerade Mal 2 Tage alt und den habe ich auch hier schon Mal verlinkt.

Ich fragte nach einer Quelle und nicht wccftech, da kann man leider gar nichts drauf geben. Board Partner ist das auch keiner.
 
Zurück
Oben