News AMD liefert Lebenszeichen zu „Vishera“ und „Virgo“

und warum sollte eine server cpu keinen kern bekommen der eine höhere leistung erzielt?
Naja höhere Performance stimmt, aber ja wie gesagt abwarten. AMD wird seine Prioritäten wissen und auch nicht grundlos handeln. Sowas können wir Kunden gar nicht so leicht nachvollziehen, und wenn man das will, benötigt das eine gewisse Zeit (Beobachtung).

Kann genauso sein, dass AMD schon seit FX Einführung an einem besseren Stepping arbeitet. Nun will man das bessere Stepping noch ausnützen, und den Piledriver nachschieben. Ich weiß nicht wie Realistisch das ist, aber möglich wäre es.
Man sprach ja auch davon, dass Piledriver lange am Markt sein wird und 2013 eine verbesserte Version auf den Markt kommen soll.
Also ich für mein Teil werde was die FX angeht einfach mal abwarten, wobei ich höchstwahrscheinlich nicht aufrüsten werde. Am interessantesten dürfte aber die 95 watt tdp Varianten sein.
Toll wäre es wenn der FX 8300 die Performance des FX 8150 erreichen würde. Alleine das würde ich schon als guten Fortschritt sehen.

Etwas was noch interessant sein könnte, wäre der Turbo. Es wäre schon eine Tolle sache, wenn dieser ähnlich wie bei Trinity einfach besser arbeitet.
 
Diesselben Gespräche gab es irgendwie schon die ganzen letzten Jahre , wo die AMD Fans große Hoffnungen in Bulldozer gesetzt hatten, der floppte, dann setzte man große Hoffnungen in Trinity , der hatte auch nichts gerissen und jetzt setzt man wieder aufs nächste Pferd und aller Vorrausicht nach wird das dasselbe Theater wie immer werden, eine stagnierende Performance bei gleichem Takt.
 
@Elkinator

Dennoch kann man doch nicht einfach, die doch auffallende Parallele zwischen den gezeigten DIE-Shots, und dem "Test" von OBR unter den Tisch fallen lassen. Die DIE-Shots zeigen ja angeblich, dass z.B. die Sprungvorhersage beim Trinity Piledriver größer ist als beim vermeintlichen Vishera Piledriver. Benchmarks gewisser Seiten zeigen bei Trinity einen IPC-Zuwachs von ca. 15-17%, während bei Vishera nur noch 5% über bleiben.

Auch wenn das alles Spekulationen sind, sind die von unterschiedlichen Quellen stammenden Gerüchte doch irgendwie passend zu einander. Und genau das macht mir Sorgen ...
 
pipip schrieb:
O._.O

Die FPU war damals wie schon oft erwähnt, kein bestandteil der CPU.

Damals. Damals. Damals? Ernsthaft? D.h. du argumentierst, um die FX-Kerne als vollwertige Kerne zu verkaufen, ernsthaft mit dem 80er Jahre Stand der Technik, also zu 286er Zeiten - und ignorierst die letzten 20 Jahre, in denen die FPU natürlich ein integraler Bestandteil eines CPU Kerns war? Wow. O.k., dann macht es für mich keinen Sinn, dort weiter zu argumentieren.

pipip schrieb:
Selbst wenn ein core im Modul vieles mit einem anderen core teil, sind es trotzdem 2 integer cores mit eigenen l1 cache.
Weiteres man kann auch CMT deaktivieren. Tatsache ist aber, es ist egal ob ich kern 0 oder kern 1 in einem Modul deaktiviere, denn beide cores sind real vorhanden.
Bei Intel's HTT kann ich einen Thread ohne dem echten core nicht laufen lassen.

Ich habe nie bestritten, dass eine 8-Kern FX CPU 8 Integer Kerne hat - nur ist ein Integer Kern meines Erachtens ungleich einem CPU Kern.

Einfaches Beispiel: Laste 2 Threads eine 8-Kern FX mit einer sehr gut skalierenden Software aus. Du hast Leistung X. Laste nun 4 Threads eines 8-Kern FX, du bekommst die doppelte Leistung, denn du nutzt ja doppelt so viele vollwertige Kerne. So, nun lastest du aber auch noch die weiteren 4 Pseudo-Kerne des 8 Kerners aus. Wären es echte Kerne, müssten sie bei der unterstellten Skalierbarkeit die doppelte Leistung bringen - tun sie es? Nein. Sie liefern je nach Anwendung 20-80% extra Leistung - im Mittel grob 50%. Wieso liefert also der eine Kern weniger Leistung als der andere Kerne? Weil es keine echten, vollwertigen Kerne sind. Da mag sich das AMD Marketing noch so drehen und winden, wie sie wollen. Die Fakten sprechen nun mal für sich. Zumindest auf einer Fachebene. Natürlich könnte AMD auch noch 4 Kirschkerne in die "8-Kern" CPU Box legen und sagen, nun ist es ein 12-Kerner - sprachlich korrekt, aber fachlich falsch.

Mir persönlich ist es übrigens völlig egal, wie viele Kerne eine CPU braucht, um ihre Leistung zu erzielen. Ich halte auch die AMD FX CPUs für alle Anwendungen für schnell genug. Nur dies Verunglimpfen von Intel Kernen als "Fake-Kerne" durch Numrollen hat mein Gerechtigkeitsempfinde getriggert, denn wenn eine CPU Fake-Kerne besitzt, sind es nun mal AMDs FX CPUs.

Aber wie gesagt, das ist völlig egal. Wichtig ist, was am Ende an Leistung bei akzeptablen Stromverbrauch bei rauskommt. Und mit Vishara ist AMD wieder auf einem guten Weg.
 
Zuletzt bearbeitet:
dann setzte man große Hoffnungen in Trinity
Erkläre das bitte mal

O._.O
um die FX-Kerne als vollwertige Kerne zu verkaufen
Ja meine ich ernst. Schau doch mal in ET-Bücher, da wirst du zwar gewisse Gesetze aufgreifen können, aber merken dass viele Beschreibungen und Einheiten anders sind (eben Autor abhängig, Universität abhängig ect)
Wenn AMD nun mal einen integer core als core bezeichnet dann ist das so, und man sollte das respektieren, denn immerhin forschen sie in diesem Gebiet und haben Bereich MultiCore auch einiges geleistet.
Das einzige Problem dass ich sehe, dass die Leute hier, eben deutlich schwerer tuen, Prozessoren zu vergleichen, deshalb kommen solche Beinamen wie "fake core" zusammen, weil man eben nicht besser weiß es zu benennen.

Es steht nirgendwo fest geschrieben dass eine Core Bezeichnung integer core plus FPU ist. Falls doch, dann zeig her, und komm bitte nicht mit einer Beschreibung einer einzelnen Firma (Intel).
Was ist denn eigentlich ein Core mit einem integer core und 2 FPUs ? ein ultra core ?

Btw, weil schon über quadcore aus zwei DIE oder AMD Phenom Natvie Quadcore gesprochen wurde. Intel hat ebenso seine eigene Bezeichnungen für Multicores. Wer es nicht glaubt, kann es doch mal nachlesen.

Also hört mal lieber mit den "fake cores" auf, denn das ist in meinen Augen einfach nur lächerlich machen.

Btw "vollwertige Kerne " habe ich nicht mal gesagt lol. Bleib bei meiner Aussage, dass Firmen die ein Konzept entwickeln, auch dessen Technik selber bezeichnen darf, auch wenn es der 0815 Mensch schwer nachvollziehen kann. Denn nein CB und ähnliche Seiten sind nicht die Basis dafür, wie was genannt werden darf. Obwohl wie du schon sagtest:
Aber wie gesagt, das ist völlig egal.

Ich schätze mal, man will nicht von cores sprechen, weil die Performance bei Programmen die keinen Vorteil von den 8 integer cores holen können nicht dafür sprechen ?.
Weil Games oder gewisse Programme mehr von der FPU profitieren hm ? Interessant aber, dass ein Trinity scheinbar gut gegen Llano behaupten kann. Zwar bei FPU lastigen Programmen hinter her, aber das könnte auch daran liegen dass gewisse Befehle noch nicht (optimal) verwendet werden können.

Anders wäre wenn AMD und Intel und andere Firmen sich treffen und einheitlich das dokumentieren. Falls es sowas gibt, könnt ihr mir gerne die Information geben.

Bin gespannt, wenn mal die Zeit kommt, in der CMT kein Nachteil mehr ist (Software) und sich dann dank der Platzersparnis auf einmal als Vorteil entpuppt.
Aber das Konzept kann ja nur Erfolgreich sein (in Foren) wenn Games mit einem Modul umgehen kann. Naja mit Steamroller sollte das hoffentlich besser werden.

Und schön dass du ein Bsp gibst, das hat aber nichts mit der Bezeichnung zu tun ^^

Btw laste doch mal 8 cores aus, wenn es optimal läuft, liefern alle 8 cores die selbe Performance.

Naja, ich nehme das mal mit Humor.
Finde es nur interessant, wieso dann Intels HTT so eine lächerliche Beinamen "virtuelle Cores" verdient, aber ein Modul von Bulldozer mit "fake cores" beschrieben wird.
Was mich jetzt aber interessiert, was ist besser, ein "virtueller core" oder ein "fake core" das ist hier die Frage ^^

Wären es echte Kerne, müssten sie bei der unterstellten Skalierbarkeit die doppelte Leistung bringen - tun sie es?
Wieso, weil du mit einem fiktiven 8 core Phenom II vergleichst, der zufällig mit Intel Core Beschreibung ähnlich ist ?
Vllt ist diese Beschreibung auch "altmodisch".
 
Zuletzt bearbeitet:
HL2Striker schrieb:
AMD hat es immerhin gewagt eine gänzlich neue CPU Architektur zu erschaffen, die durchaus Potenzial hat.

Aha interessant, und das macht Intel nicht.? :rolleyes:
 
Hat sich ja auch nicht unbedingt als Nachteil für Intel herausgestellt, das Rad nicht ständig neu zu erfinden, sondern auf bewährten Architekturen aufzubauen und sie schrittweise zu erweitern. So ist man wenigstens halbwegs sicher, dass die neue Architektur nicht langsamer und ineffizienter ist, als die alte.
An Grenzen scheinen sie dabei bisher nicht wirklich zu stoßen. Im Prinzip basieren alle aktuellen Intel-CPUs auf dem Pentium Pro und es ist nicht in Sicht, dass in absehbarer Zukunt ein radikaler Architekturwechsel nötig wäre.

Aber zurück zu AMD und der Spekulation, dass Vishera auf einer weniger leistungsfähigen Architektur basieren könnte, als Trinity.

Es könnte durchaus eine gewisse Logik dahinter stecken, dass AMD sich auf APUs konzentriert. Das passt zu den Gerüchten, dass AMD zukünftig keine FX-CPU mehr für den Performance- und High-End-Markt plant. Das heißt ja nicht, dass AMD den Performance- und High-End-Markt Intel überlässt, sondern wahrscheinlicher, dass AMD versuchen wird, auch den mit APUs zu bedienen.
Schließlich setzt AMD ja voll auf HSA, GPGPU und Co. Es wäre nicht besonders klug, ausgerechnet die eigenen High-End-CPUs davon auszuklammern.

Ich halte es für gut möglich, dass Vishera die letzte reine CPU in diesem Leistungssegment sein wird und danach die Zukunft komplett bei den APUs liegt (mit FMx-Plattform).
Intel integriert schließlich auch schon länger GPUs in Performance- und High-End-CPUs. (SB-E zähle ich mal als Enthusiasten-Modelle. Mit denen muss AMd nicht unbedingt konkurrieren.) Warum sollte AMD nicht auch APUs bauen, die es mit 3770K und dessen Nachfolgern aufnehmen sollen?

Vishera wäre dann nur noch ein letztes Zugeständnis an die Besitzer von AM3+-Boards, das ohne viel Aufwand aus den entsprechenden Opterons abgeleitet wird.
 
Da bin ich auf die Benchmarks gespannt :freaky: Vishera könnte mein nächster werden :freaky:

Solange der Preisunterschied nach dem Einführungspreis min. so hoch ist wie der Abstand zu Intels Pendant (falls sie wieder zurückliegen), passt das doch. Ob 90 FPS bei Games oder 120 FPS ... das juckt mich nicht die Bohne, solange die Anschaffung günstiger ist.
 
AMDs 15% werden sich in Etwa aus 10% Takt + 5% IPC zusammensetzen. Vermutlich reichen allein etwas optimierter µCode für diese 5% IPC aus.

Dass ein Vishera einem Bulldozer C Stepping entspricht ist praktisch quasi sicher, aber auch verständlich und richtig wenn sich AMD dafür auf Steamroller konzentrieren kann.
 
Diese ewige HT / Kerndiskussion nervt.
Wichtig ist was am Ende an Leistung rauskommt, was sie kostet und wieviel Strom verbraten wird.
Ob 1 oder 100 Kerne, ob mit oder ohne HT spielt dabei keine Rolle.
 
@O._.O: Was hälst mal davon dir Infos zu besorgen?
Dann würdest wissen das beim Phenom/Athlon nur kern 1 mit 100% und jeder weitere mit 80% gerechnet wird und die Leistung auch bringt.
Beim Bulldozer soll ein Kern im Modul ne Leistung von 100% bringen,der Zweite rund 80%.
Wie kommst also auf das doppelte?

Vishera wird interessant,besondes deswegen da AMD ja förmlich gezwungen wurd ne Server CPU (Bulldozer) auf den Markt zu schmeißen.Das die Unterstützung erst nach und nach kommt war auch klar,siehe Win Rar und jetzt das kommende CineBench.Es werden sicherlich auf Desktopebene noch weitere kommen,wenn nicht schon gekommen sind.
Interessanter (da Bulli vorhanden) ist für Mich aber Trinity und da muss ich mal sehen ob ich diesen noch unterm Baum schmuggeln kann:D
 
Zuletzt bearbeitet:
Bartonius schrieb:
@Elkinator
Dennoch kann man doch nicht einfach, die doch auffallende Parallele zwischen den gezeigten DIE-Shots, und dem "Test" von OBR unter den Tisch fallen lassen./QUOTE]
doch, da die fotos von OBR kommen kann und soll man das sogar...
 
Voyager10 schrieb:
Diesselben Gespräche gab es irgendwie schon die ganzen letzten Jahre , wo die AMD Fans große Hoffnungen in Bulldozer gesetzt hatten, der floppte, dann setzte man große Hoffnungen in Trinity , der hatte auch nichts gerissen und jetzt setzt man wieder aufs nächste Pferd und aller Vorrausicht nach wird das dasselbe Theater wie immer werden, eine stagnierende Performance bei gleichem Takt.

Eben genau das!

Wobei ich Trinity bzw. Llano als eine sehr gute Alternative sehe. Hab ja in meinem Lappi den kleinen 2 Kerner Llano und der hat bis jetzt so ziemlich jedes Game, dass ich mal testweise drauf laufen ließ auch gut abgespielt. Bei BF3 würde er natürlich in die Knie gehen, allein weil es nur ein 2 Kerner ist mit relativ niedrigem Takt, aber die Architektur zeigt da Potenzial.

Das Problem ist nur, dass die sehr stark von Dual Channel Ram profitieren und meist mit einem Speicherriegel verkauft werden, woduch bis zu 60% an Performance verloren geht. Dachte auch erst man was is das für ne Krücke, dann den Ram umgerüstet und das Teil rannte jedem anderen Low Budget Lappi davon.

Klar in CPU Benchmarks schlägt ein I3 ihn dann aber dafür ist die IGP deutlich schwächer als die APU und die CPU Leistung eines A4 3300M z.b. reicht perfekt für alle Office Anwendungen.

Was mich aber eher stört ist, dass man sich quasi bei AMD auf dem Dekstopmarkt immernoch mit den Sandy Bridge CPUs messen muss, ich hab meinen I7 2600k inzwischen seit März 2011 und die CPU erschien schon Ende 2010!

Er geht ohne Mühe seine 5ghz mit einer Luftkühlung, weiter habe ich nicht getestet, weil es auch unnötig ist da er ja selbst mit 3,4ghz sehr schnell ist und ich kann mit Sony Vegas etwas umwandeln und gleichzeitig noch sowas wie Aion nebenbei spielen.

Sprich nach über 2 Jahren kommt man vielleicht mal langsam da hin wo Intel seit 2 Jahren ist. Noch dazu habe ich damals für die CPU 220 € bezahlt, weil da gerade dieses Gesabbel mit den Bugs war in den Mainboards. Für das Geld einfach eine unschlagbare Performance und dank B3 Stepping vom Board auch keinerlei Probleme mit dem besagten Bug.

Ich wollte mir ja damals den Bulli holen und bin inzwischen sehr froh, dass ich mich für den I7 entschieden habe, denn das war einfach eine gute Investition in die Zukunft. Selbst wenn man jetzt in Sachen Performance da dran kommt ist der Stromverbrauch dann immernoch deutlich höher und dafür muss man nichtmal Ivy Bridge zum zuge kommen lassen.
 
O._.O schrieb:
Damals. Damals. Damals? Ernsthaft? D.h. du argumentierst, um die FX-Kerne als vollwertige Kerne zu verkaufen, ernsthaft mit dem 80er Jahre Stand der Technik, also zu 286er Zeiten - und ignorierst die letzten 20 Jahre, in denen die FPU natürlich ein integraler Bestandteil eines CPU Kerns war? Wow. O.k., dann macht es für mich keinen Sinn, dort weiter zu argumentieren.



Ich habe nie bestritten, dass eine 8-Kern FX CPU 8 Integer Kerne hat - nur ist ein Integer Kern meines Erachtens ungleich einem CPU Kern.

Einfaches Beispiel: Laste 2 Threads eine 8-Kern FX mit einer sehr gut skalierenden Software aus. Du hast Leistung X. Laste nun 4 Threads eines 8-Kern FX, du bekommst die doppelte Leistung, denn du nutzt ja doppelt so viele vollwertige Kerne. So, nun lastest du aber auch noch die weiteren 4 Pseudo-Kerne des 8 Kerners aus. Wären es echte Kerne, müssten sie bei der unterstellten Skalierbarkeit die doppelte Leistung bringen - tun sie es? Nein. Sie liefern je nach Anwendung 20-80% extra Leistung - im Mittel grob 50%. Wieso liefert also der eine Kern weniger Leistung als der andere Kerne? Weil es keine echten, vollwertigen Kerne sind. Da mag sich das AMD Marketing noch so drehen und winden, wie sie wollen. Die Fakten sprechen nun mal für sich. Zumindest auf einer Fachebene. Natürlich könnte AMD auch noch 4 Kirschkerne in die "8-Kern" CPU Box legen und sagen, nun ist es ein 12-Kerner - sprachlich korrekt, aber fachlich falsch.

Mir persönlich ist es übrigens völlig egal, wie viele Kerne eine CPU braucht, um ihre Leistung zu erzielen. Ich halte auch die AMD FX CPUs für alle Anwendungen für schnell genug. Nur dies Verunglimpfen von Intel Kernen als "Fake-Kerne" durch Numrollen hat mein Gerechtigkeitsempfinde getriggert, denn wenn eine CPU Fake-Kerne besitzt, sind es nun mal AMDs FX CPUs.

Aber wie gesagt, das ist völlig egal. Wichtig ist, was am Ende an Leistung bei akzeptablen Stromverbrauch bei rauskommt. Und mit Vishara ist AMD wieder auf einem guten Weg.
und wann hat man deiner meinung nach die zählweise geändert?

du meinst also das es keine echten kerne sind weil sie zu langsam sind, wenn sie mehr leistung bringen würden wären es also echte kerne?

kannst du den schwachsinn auch erklären?
Ergänzung ()

Captain_Awesome schrieb:
Aha interessant, und das macht Intel nicht.? :rolleyes:
nein, machen sie nicht.
Ergänzung ()

Krautmaster schrieb:
Dass ein Vishera einem Bulldozer C Stepping entspricht ist praktisch quasi sicher, aber auch verständlich und richtig wenn sich AMD dafür auf Steamroller konzentrieren kann.
warum soll das sicher sein?
nur weil der lügenbaron OBR das behauptet und die welt mit alten die shots verarscht?
 
@ Casi030

WinRAR ist wohl eher ein Beispiel für Software, die schlecht für Intels Hyperthreading optimiert ist. Deaktiviert man per Windows-Powermanagent das Coreparking, dann rennen die Intel-CPUs den Bulldozern plötzlich auch in WinRAR davon.
Als Quelle zwar wieder der berüchtigte OBR, aber man kann es ja auch leicht selbst ausprobieren.

Aber generell stimmt es natürlich, dass es der meisten Software an Optimierung für Bulldozer fehlt. Aber das ist auch normal, wenn diese Architektur nur einen sehr geringen Marktanteil hat. Die Programmierer optimieren halt eher für 80% des Marktes, nicht für 20% oder gar noch weniger und erst Recht nicht im Vorraus für eine neu erscheindende CPU, von der sie nicht mal sicher wissen, ob die jemals einen nennenswerten Marktanteil erobern wird.

Vor diesem Henne-Ei-Problem (die neue CPU verbreitet sich erst mit Softwareunterstützung und die gibts nur für verbreitete CPUs) steht grundsätzlich nicht nur AMD. Intels bisher größter Flopp, der Pentium Pro, litt ebenfalls extrem darunter. Und das Problem der nur langsam aufkommenden Unterstützung für Multithread-CPUs betrifft beide gleichermaßen.

Wie man dieses Henne-Ei-Problem elegant umgeht, hat AMD mit dem Athlon64 vorgemacht. Mit dem neuen Feature 64Bit-Erweiterung konnte die Software erst viele Jahre später etwas anfangen. Trotzdem wurde der Athlon64 ein riesen Erfolg, denn er war auch als 32Bit-CPU absolut topp. Und mit diesem Erfolg aufgrund konventioneller Stärke puschte er dann letztlich auch die AMD64-Unterstützung (so sehr, dass dann sogar Intel AMDs Technik übernehmen musste).

Aber Bulldozer überzeugt einfach nicht ohne optimierte Software und deshalb habe ich Zweifel, ob es diese optimierte Software überhaupt jemals geben wird.
 
Herdware schrieb:
Das passt zu den Gerüchten, dass AMD zukünftig keine FX-CPU mehr für den Performance- und High-End-Markt plant.
das gerücht ist unsinn, das ist entstanden weil jemand ein zitat falsch übersetzt hat, von amd wurde soetwas nie gesagt.
das wurde auch schon widerlegt.

und nur weil amd plant zukünftige ausschließlich apus zu verkaufen bedeutet das, das sie sich zurückziehen?
wer denkt sich so einen schwachsinn aus?
 
@ Elkinator
Das Gerücht wird allerdings auch von den AMD-Raodmaps unterstützt, auf denen nach Vishera keine FX-CPUs mehr vorkommen.
Und wenn man AMDs Antwort darauf genau liest, versichern sie nur, dass sie den Performance-Markt selbstverständlich nicht aufgeben wollen, aber über die Zukunft der FX-CPUs sagen sie nichts.

Wie gesagt, ich stimmt dir vollkommen zu, dass es eben kein Rückzug aus dem Performance- und High-End-Markt ist. Den bedient AMD dann halt auch mit APUs.

Deshalb habe ich auch die Aufregung über dieses Gerücht nie verstanden. AMD hat schon seit Jahren immer wieder gesagt, dass sie in den APUs die Zukunft sehen. Es war absehbar, dass sie irgendwann keine reinen CPUs mehr bauen werden.

Ob das jetzt wirklich schon nach Vishera so sein wird, oder ob vielleicht doch noch mal FX-CPUs mit Steamroller (oder auch nur einem vollwertigen Piledriver) kommen werden... langfristig wird es sowas definitiv nicht mehr geben. Jedenfalls nicht, wenn AMDs HSA-Initiative erfolgreich ist. Wenn sie floppt, hat AMD sowieso ein riesiges Problem und muss seine ganze Strtegie nochmal überdenken.
 
Herdware schrieb:
Aber Bulldozer überzeugt einfach nicht ohne optimierte Software und deshalb habe ich Zweifel, ob es diese optimierte Software überhaupt jemals geben wird.
Ist nichts neues.
AMDs GPU-Sparte überzeugte bei gewissen Experten auch nicht seit R600/RV670. Überzeugt konnten sie nur werden, als die 1 Ghz-Edition mit so +10% deutlich vor der Konkurrenz liegt. Zwischen RV670 und heute wurden auch nie der Kontenuierliche Fortschritt von gewissen Experten weder erkennt noch anerkannt.

Und für die Leute, die die R600/RV690/Pre-RV770 Zeit nicht kennen. Damals sah es mit der AMD-GPU-Sparte viel schlimmer aus, sodass es für etliche Leute nicht einmal Wert war, AMD/ATI als Konkurrenz zu sehen. Selbst Nvidias CEO richtete sein Marketing nicht mehr auf die GPU-Konkurrenz sondern er legte sich schon mit Intel an.

Die Architektur sieht da schon viel besser als, als R600/RV670 vs. G80, wo GT200 quasi der AMD-GPU-Sargnagel sein soll. Und ja, der Vergleich mit GPU ist auch richtig, da Software genauso entweder für 1D-Shaders oder für VILW-5-Shaders optimiert werden muss. Dazu kommt noch die PhysX und Cuda-Software, die AMDs Stellung für lange Zeit in den Schatten stellte.

Bulldozer hat eben nicht Intels Fertigung, die auch mit 3-4 Ghz eine Spannung von 1,1 Volt haben kann. Dazu muss Bulldozer mit 3D-Transistoren, gegen noch weiteren Fertigungs-Vorteilen ankämpfen, die ATI mit RV670 & Co damals nicht hatte. Großes Problem bei Many-Core-Dies sind die Interconnections. Bis heute wissen wird nicht, warum der Uncore-Bereich so groß ist und bei Intel nicht. Und das hat eben überhaupt nichts mit der Bulldozer-Architektur zu tun.

Das Problem von den größten Bulldozer-Kritiker ist, dass sie hauptsächlich mit Dingen daherkommen, die nicht primär mit der Bulldozer-Architektur zu tun haben. Nicht umsonst wurde ihr Wissen völlig in Frage gestellt, als Trinity daherkommt. Denn Trinity hat eben nicht die Probleme der hohen Spannnungen und das Problem der Interconnects zwischen den Cores, sodass die CPU-Effizienz und Flächen-Die-Effizienz bei Trinity erheblich besser aussieht.

Technik-Amateure erkennt man eh sofort, wenn sie eine Architektur bewerten, wenn sie nichteinmal Tests vorhanden sind. Da erkennt man eben, dass die Wichtigkeit bei diesen Leuten nicht im Finden der richtigen CPU-Bewertung liegt, sondern das Produkt von Haus aus schlechtzureden.

Ob eine Architektur-Entwicklung schlecht, mittelmäßig oder gut ist, kann man erst mit Tests erfahren, wo man mit dem Vorgänger und der Konkurrenz vergleicht. Wobei man es natürlich der Realität vergleichen muss. Und eine Architektur bzw. Architektur-Entwicklung ist nicht schlecht, wenn Piledriver jetzt nicht Intels 2012er Steigerung von 22nm-Fertigung auch noch vollständige überbieten kann. Aber genau diese Absurde Ansicht, ist völlig normal bei Bulldozer-Architektur-Kritiker, weil es in ihrer Welt AMD automatisch die Möglichkeit hatte, langfristig mit einem anderen Weg besser zu gehen.

Das Problem ist ja, der K10 hatte ja auch ein Front-End-Problem. Weil Bulldozer wieder ein Front-End-Problem hat, träumen ja viele, dass AMD bei einer K10-Weiter-Entwicklung automatisch das Front-End-Problem gelöst hätte.
 
Herdware schrieb:
@ Elkinator
Das Gerücht wird allerdings auch von den AMD-Raodmaps unterstützt, auf denen nach Vishera keine FX-CPUs mehr vorkommen.
Und wenn man AMDs Antwort darauf genau liest, versichern sie nur, dass sie den Performance-Markt selbstverständlich nicht aufgeben wollen, aber über die Zukunft der FX-CPUs sagen sie nichts.

Wie gesagt, ich stimmt dir vollkommen zu, dass es eben kein Rückzug aus dem Performance- und High-End-Markt ist. Den bedient AMD dann halt auch mit APUs.

Deshalb habe ich auch die Aufregung über dieses Gerücht nie verstanden. AMD hat schon seit Jahren immer wieder gesagt, dass sie in den APUs die Zukunft sehen. Es war absehbar, dass sie irgendwann keine reinen CPUs mehr bauen werden.

Ob das jetzt wirklich schon nach Vishera so sein wird, oder ob vielleicht doch noch mal FX-CPUs mit Steamroller (oder auch nur einem vollwertigen Piledriver) kommen werden... langfristig wird es sowas definitiv nicht mehr geben. Jedenfalls nicht, wenn AMDs HSA-Initiative erfolgreich ist. Wenn sie floppt, hat AMD sowieso ein riesiges Problem und muss seine ganze Strtegie nochmal überdenken.
die amd roadmap geht halt nicht weiter, nach der logik bauen sie dann auch keine apus mehr.

das vishera keine piledriver kerne hat wurde bis jetzt noch nirgendst belegt, die warscheinlichkeit das er piledriver enthält ist da höher.

es ist auch logisch das amd irgendwann nur noch cpu´s mit integrierter gpu verkauft, dann haben halt die bis zu 8/10 kerne.
 
Zurück
Oben