News AMD arbeitet an neuem High-End-CPU-Design

Zotac2012 schrieb:
AMD und Jim Keller haben sich eigentlich schon klar dahingehend geäußert, das die Prozessor Architektur der Modultechnik wie sie im "Bulldozer" als auch beim "Vishera" verwendet wurde, eingestellt wird.
nein, das hat er nicht gesagt, nicht immer irgendwelche aussagen andichten...

welche leute hetzen den aktuell gegen bulldozer/CMT?
sind es vielleicht DAUs die von dem thema keine ahnugn haben?

merkt man ja schon daran, daß diese leute nichtmal die architektur von der fertigung unterscheiden können.
da wird die architektur für die mangelhafte fertigung verantwortlich gemahct, gehts noch?

es ob es bei bulldozer bleibt, etwas ganz neues kommt oder man bulldozer nur stark überarbeitet, nichts davon löst die probleme bei der fertigung!
und wenn man eine konkurrenzfähige fertigung zur verfügung hat kann man auch bei excavator oder einem nachfolger eine APU mit mehr kernen auf den markt werfen.
 
Zuletzt bearbeitet:
Was will man denn mit mehr Kernen? Die bringen einem so wenig, ohne mehr "pro Takt-Leistung" bleiben AMD Prozessoren für viele uninteressant. Das gilt auch für die APU's.
 
da ein i7 quadcore auch 8 threads hat wäre es total egal ob AMD 8 kerne hat.
kommt für die software aufs selbe raus.

udn die IPC ist von piledriver auf steamroller eh schon gestiegen, >20% ist nicht so schlecht, dafür das man die kerne eigentlich noch nicht überarbeitet hat.
 
@Krethi & Plethi

Das Jim Keller die Modultechnik nicht weiter verfolgen wird gilt in den Fachkreisen schon als sicher, was man eigentlich auch schon klar feststellen kann, das man jetzt bei AMD davon spricht wieder völlig neue Wege zu gehen. Und Jim Keller war schon immer ein vorreiter und verfechter der SMT Technik und das wird er ausbauen und fortsetzen, davon kannst Du ausgehen, auch wenn Du das nicht glaubst.

Nicht umsonst hat AMD ein Zeitfenster von mindestens zwei Jahren gesetzt, weil der Umstieg auf einen neue Prozessor Architektur nun mal nicht von Heute auf Morgen zu bewältigen ist. Wäre Jim Keller von der Modultechnik überzeugt, würde man schon viel früher mit CPU`s auf den Markt kommen, aber das ist Er eben nicht.

mfg Zotac2012
 
und wieder nur behauptungen von dir, es bleiben aber gerüchte.

und nochmal:
SMT schließt CMT nicht aus...

fällt eigentlich niemandem dieser blödsinn in der quelle auf?
K12 which is their latest x86 ARM core architecture

Wccftech ist eben eine Satireseite!
 
Zuletzt bearbeitet:
Wenn in den nächsten Jahren nichts grundsätzlich Neues in der Chiptechnik kommt wird sich der Fertigungsvorteil von Intel egalisieren. Und Intel läuft gerade in Gefahr sich in einen Mehrfrontenkrieg zu verzetteln.
 
den "mehrfrontenkrieg" hat intel ja schon, nur gegen AMD können sie leicht ankommen, aber irgednwann werden kleine gegner auch zuviel wenn die zahl überhand nimmt.

qualcomm, mediatek, samsung, da sind auch einige relative schwergewichte dabei die nicht so schnell aufgeben werden.

falls SamSemi den FinFET-prozess so hinbekommt wie sie es geplant haben wäre der fertigungsvorteil eh geschichte, die nächsten 6 monate werden es zeigen:}

der fertigungsvorteil wird auch etwas überbewertet:
https://www.semiwiki.com/forum/content/3473-intel%92s-manufacturing-lead-explained.html
 
Zuletzt bearbeitet:
Intel hat einfach den riesen Vorteil, dass die eine große und funktionierende Marketingabteilung haben. Dazu kommt noch, dass die auf jeden Fall – wenn nötig – die Preise für ihre Technik reduzieren könnten ohne Verluste zu machen.
Ich persönlich finde eh, dass das Unternehmen schon lange unter Aufsicht gehört, die Machenschaften von denen waren noch nie koscher.
 
preise reduzieren geht aber auch nur weil man durch den aktuell noch großen fertigungsvorteil einfach eine extrem kleine Die im vergleich zu AMD hat.

deswegen bringt ja auch ein kaveri mit 3-4 modulen nichts, der wäre gewaltig groß udn intel könnte problemlos einen i7 6core um 200€ anbieten ohne damit verluste zu machen.

den vorteil werden sie wohl noch einige zeit behalten, aber es reicht ja schon wenn er nicht mehr so groß ist!
 
Krethi & Plethi schrieb:
irgednwann werden kleine gegner auch zuviel wenn die zahl überhand nimmt.

qualcomm, mediatek, samsung, da sind auch einige relative schwergewichte dabei

Relative Schwergewichte ist gut. Allein Samsung ist 5x so groß wie Intel.

Intel ist der große Fisch im kleinen x86-Teich. Aber außerhalb dieser Insel der Glückseligen ist Intel nur ein Mitspieler unter vielen und verglichen mit den richtig großen Weltkonzernen eher einer der kleinen Fische.

Deshalb hab ich auch nie viel davon gehalten, wenn Leute AMD geraten haben, doch lieber auf den ARM-Markt auszuweichen, um Intels Übermacht zu entkommen. Speziell die Welt der ARM-Prozessoren ist kein jungfräulicher Bereich, der nur darauf wartet, dass ein CPU-Bauer aus dem PC-Markt kommt und allen zeigt wo es lang geht.
Nvidia versucht seit Jahren gezwungenermaßen ein zweites Standbeim im ARM-Segment zu schaffen, aber bisher nur mit sehr mäßigem Erfolg. Auch AMD würde es da nicht besser gehen, Die haben nur eine Chance gegen die alteingesessenen Riesen, wenn sie sich eine spezielle kleine Nische suchen. (In AMDs Fall sollen das ARM-basierte Server sein und Nvidia versucht mit seiner Grafik zu punkten.) Aber leicht wird es auch dann nicht.

AMD ist gut beraten, den Schwerpunkt weiterhin auf den x86-Markt zu legen. Egal wie schwer sie sich gegen Intel tun.
 
nvidia hat auch keine erfahrungen im serverbereich.
 
Krethi & Plethi schrieb:
wie kommst du darauf?
die vorgänger davon hatten nie CMT, also hat man sich von nichts verabschiedet...
Ergänzung ()

PCIe 3.0 gibt es schon bei kaveri, also ist dein "endlich mal" fehl am platz!
DDR4 wird kommen sobald es preislich sinn macht, also mit carrizo für DDR3/4.
USB3.0 ist in den aktuellen chipsätzen auch schon integriert, also ist das "endlichmal" wieder fehl am platz.

ist es so schwer sich einfach bevor man postet zu informieren.
Ergänzung ()

warum nicht?
aktuell spricht nur die fertigugn dagegen, in 20nm könnte man problemlos APUs mit 8 kernen anbieten.
K12 = ARM, also nichts für gamer...

Ich meinte nicht die APU-Plattform, sondern die "normale" Desktopplattform und da ist nunmal USB3.0 in den Chipsätzen nicht integriert.
Und PCI-E 3.0 sollte dann auch von den neuen CPU´s unterstützt werden.
 
es wird in zukunft aber nur noch "APUs" geben, aber warum haben so viele vor einer iGPU angst?

für dich ist dann ein i7 mit iGPU also auch nichts "normales"?
 
Zuletzt bearbeitet:
ob man CMT aufgibt ist reine spekulation, davon hat AMD bis heute nichts gesagt.
 
Mario2002 schrieb:
Ich meinte nicht die APU-Plattform, sondern die "normale" Desktopplattform und da ist nunmal USB3.0 in den Chipsätzen nicht integriert.
Und PCI-E 3.0 sollte dann auch von den neuen CPU´s unterstützt werden.
Was für ein Unsinn....die APU Plattformen sind die normalen Desktop Plattformen. Und übrigens war USB 3.0 noch vor Intel in den Chipsätzen integriert.
 
@Krethi & Plethi

Und es ist eine noch größere Spekulation, zu glauben das AMD mit CMT weitermacht. Und wer hat Dir eigentlich geflüstert, das es demnächst nur noch APU`s gibt, was heißt denn demnächst 5.Jahre / 10. Jahre. Ich glaube das nicht, solange dezidierte Leistungsstarke GPU`s für den High End Markt hergestellt werden, solange wird es auch "normale" CPU`s geben. Erst wenn man einen Weg gefunden hat APU`s annähernd so Leistungsstark in die CPU zu integrieren wie derzeit eine dezidierte Grafikkarte, wird sich das ändern. Nur soweit ist die Entwicklung in diesem Bereich noch längst nicht.

mfg Zotac2012
 
merkst du eigentlich welchen unsinn du schreibst?

die iGPU bremmst laut dir also die CPU aus?
erklär das doch bitte mal!
 
Außer ein paar verirrten Xeons bekommt man doch auch bei intel nur noch "APUs". Eigentlich hätten die CPUs bei AMD schon nach Bulldozer sterben sollen, so stand es zumindest mal auf einer alten Folie. Vishera ist eher ein ausrutscher, wohl ein Zugeständniss an die von Bulldozer enttäuschten AM3+ Käufer.

Was ich eher denke ist das AMD bei den FX Nachfolgern mit der Vorgabe schnelle CPU -> schnelle GPU bricht und da etas abgespeckte Grafikeinheiten einbaut. Aber ganz verzichten werden sie wohl nicht. Ziel ist ja die interne GPU als Coprozessor zu etablieren, dann hat sie auch trotz dGPU eine Berechtigung.
 
Zurück
Oben