Locuza
Lieutenant
- Registriert
- Dez. 2010
- Beiträge
- 570
Laut OBR (Quellenverweis) nicht laut PCGH.Gabbermafia schrieb:Laut PCGH soll der FX8350 ca. 9 % schneller sein, als der FX8150.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Laut OBR (Quellenverweis) nicht laut PCGH.Gabbermafia schrieb:Laut PCGH soll der FX8350 ca. 9 % schneller sein, als der FX8150.
digitalangel18 schrieb:Das der Hobel nicht nennenswert flotter rechnet als ein uralter Phenom X4 ist aber...öhm...erschreckend?
mosesAK schrieb:mal abwarten was noch kommt. ich freu mich allerdings auf hsa! weil so weit ich das richtig verstanden hab bedeutet das, dass die apu selbst entscheidet wo was berechnet wird. das sollte eine bessere skalierbarkeit bringen.
Butz schrieb:Somit verliert AMD den Anschluss an Intel um ein weiteres. Ich verstehe nicht, das AMD so auf die Modul-Technik beharrt!
C4rp3di3m schrieb:Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt.
Den letzten Satz solltest du richtig fett markieren. Die FPU Units sind unglaublich Latenzarm und optimiert. Da kommt eine GPU noch lange nicht hin. Neben der Latenz ist auch der Takt einer CPU durchschnittlich rund 3 mal höher, was man ebenso zu der "globalen Latenz" dazu zählen kann.Matzegr schrieb:Eines der Ziele ist, dass in Zukunft Sachen wie SSE / AVX / XOR / ect instructions nicht mehr von der SIMD FPU unit berechnet werden sondern von der iGPU, die ja nichts anderes ist als ein großer SIMD array. Grundlagen dazu, dass es irgendwann funktioniert hat man ja schon geschaffen, Bei den CPUs hat man FPU units reduziert (was noch ein riesen Nachteil ist) und bei den Grafikkarten die GCN-Architektur eingeführt. Jetzt folgt halt Schritt für Schritt bei der Verbesserung.
Sandy -> Ivy war leistungsmäßig auch nicht mehr.
Das Modul-Konzept geht dann auf, wenn die iGPU (GCN-Architektur) die Aufgabe der FPU übernimmt. Das dauert aber noch.
Gut das jeder Laie immer noch nicht die ganze Wahrheit fassen kann.C4rp3di3m schrieb:Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt.
C4rp3di3m schrieb:Jeder Laie weis Heute dass die Modulbauweise an den fehlenen FPU´s krankt.
mfg
Zwei symmetrische 128-Bit-FMAC-Gleitkommapipelines pro Modul, die bei Bedarf in eine 256-Bit-Einheit umfunktioniert werden können...
Schon früher tauchte die Vermutung auf, dass der - von beiden Kernen gemeinsam benutzte - Dekoder zu wenig Befehle dekodieren kann. Pro Takt und pro Kern schafft er im Schnitt maximal nur zwei x86 Instruktionen. Im schlimmsten Fall, falls externe x86-Instruktionen in mehr als eine CPU-interne Macro-Instruktion (Macro-Op) übersetzt werden müssen, sinkt der Durchsatz aber. Bei Befehlen, die durch die Microcode-Engine dekodiert werden müssen, steht der ganze Dekoder außerdem für ein paar Takte komplett still und blockiert damit den zweiten Kern. (p3dn)
Execution units, dass es von den - offiziell vier - Pipelines trotz optimistischer Zählweise eigentlich doch nur zwei sind, die die Arbeit verrichten, also eine weniger als bisher bei den letzten Chips... (P3DN)
Fishlike schrieb:17% Verbesserung in iTunes und 14% in Paint.Net
Conclusion: The Pentium 4 Must Go (alternatively: Kill The Pentium 4!)
Weiß gar nicht was du willst. Die CPU-Bezeichnung wurde doch nur minimal geändert, so dass keienr auf die Idee kommt, da wäre was bahnbrechend Neues gekommen. Dass der Codename nun ein anderer ist sollte klar sein...Voyager10 schrieb:Ist schon traurig was AMD da abliefert , die Bulldozer CPU hätte so garnicht umbenannt werden müssen bei 4% Mehrleistung durch leichte Änderungen.