News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

So schlecht ist das doch gar nicht. Gegenüber einem gleichgetakteten Zambezi sind's im Cinebench ca. 8% mehr. TH hat mit Integer-Benchmarks ca. 15% mehr gemessen. Dann kommen noch 11% mehr Takt drauf bei gleicher TDP. Für eine minor revision finde ich das nicht übel. Und man darf nicht vergessen, dass es sich um ein engineering sample handelt.

Sofern das denn alles stimmt...
 
Voyager10 schrieb:
... nur über den "Takt" rausholen muss und kann und bei der Effizienz hat sich im Wesentlichen auch nichts getan.

Wenn man bei gleichen Verbrauch, mehr Takt zur Verfügung hat, muss sich ja in Sachen Effizienz was getan haben oder?

Was neg. auffällt ist der CPU-Z Screenshot. 0,95V bei 1,4 GHz sind viel zu viel. Da ist noch viel Verbesserungspotential, wenn mal die Fertigung ordentlich laufen würde.

SHEG schrieb:
Ich verstehe einfach nicht, wieso AMD da so hinterher hängt.

Weil Intel wesentlich größer ist, die können viel mehr Geld in R&D investieren als AMD.
Wenn man mal die finanziellen Mittel von AMD und Intel vergleicht, dann müsste Intel eigentlich viel weiter weg sein, als sie es sind.
 
Zuletzt bearbeitet:
Voyager10 schrieb:
Wenn der Prozessor nur im Server eine Aufgabe schneller addieren kann dann soll er auch im Server bleiben und hat nichts im Desktop verloren .

Ich bin sowieso fest davon überzeugt, dass es für den Desktop Prozessor wie wir ihn heute kennen, keine Zukunft gibt. Das werden alles die APUs übernehmen.

Es ist doch in jeder Hinsicht besser, einen Chip zu verwenden, der aus vielen hochspezialisierten Recheneinheiten besteht, die alle nur die eine Aufgabe übernehmen, für die sie integriert wurden, anstatt einen hochgezüchteten Mehrkerner anzuheizen, der alles mit der Brechstange erledigt.

Es ist ähnlich dem Schritt von Single-Core auf Multi-Core: Warum einen Pentium 5 mit 5Ghz bauen, wenn ein Core2Duo mit 1,8Ghz vielfach schneller ist und dabei auch noch deutlich weniger Strom verbraucht? Jetzt kommt halt bald der Zeitpunkt, wo ein paar Streamprozessoren und ein zusätzlicher ARM Kern mehr Leistung bringen werden als eine stumpfe Takt- und Kernzahlerhöhung.

Wenn man sich mal genauer anguckt, wie sich AMD und Intel verhalten, dann ist diese Entwicklung ein absolut logischer Schritt: AMD designed alle Architekturen mit der Full-Fusion im Hinterkopf und Intel steckt einen Großteil der Ressourcen nur noch in die IGP.

Ich denke anstatt drauf los zu bashen sollte man einfach mal Hinterfragen, ob AMDs Produktentwicklung nicht auch Methode hat. Vor der Einführung der Multi-Cores war es doch genauso, nur mit vertauschten Rollen: Da wurde Intel gebasht und hinterher hat sich herausgestellt, dass Intel kurzfristig die Rolle des Losers übernommen hat, damit sie langfristig erfolgreich sind.
 
SHEG schrieb:
woran liegt es eigentlich, dass Intel-CPUs pro Takt und Watt so viel Leistungsfähiger sind? Ist da einfach die Chip-Architektur (Ist damit eigentlich vollstens vereinfacht die Schaltung der Transistoren mit gemeint?) das Maß der Dinge? Oder ist heutige Software in irgendeiner Form Intel-optimiert, indem sie Befehlssätze nutzt, die AMD in der Form nicht bietet....

Ich verstehe einfach nicht, wieso AMD da so hinterher hängt. Es kann natürlich sein, dass man sich verstärkt auf die kleineren APUs konzentriert und die Leistungskrone bewusst Intel überlässt. Trotzdem finde ich es irgendwo schade, weil so nur über den Preis eine gewisse Konkurrenz gegeben ist.

Trotz allem werde ich mir auch weiterhin AMD-System zusammenstellen. Manche werden mich für blöd erklären, aber unzufrieden war ich nie mit meinem Computern.
https://www.computerbase.de/forum/threads/erste-benchmarks-zum-vishera-desktop-prozessor-von-amd.1094987/page-2#post-12486561

Hut ab für deine Treue an AMD. ;)

guckmalrein schrieb:
Richtig wäre, dass es sich bei der TDP um einen Richtwert für die Kühlung handelt der nicht 1:1 der elektrischen Leistungsaufnahme entsprechen muss. Eine CPU mit 125 Watt TDP muss folglich nicht auch maximal 125 Watt verbrauchen, wenn diese aber "nur" 100 Watt verbraucht wäre es nur schlüssig auch die TDP auf 100 Watt abzusenken.
Nun kann man natürlich nicht für jede CPU und jede Fertigungscharge eine "eigene" TDP angeben - also bleibt die TDP ein ungenauer, in der Regel zu hoher Wert.
Es bleibt aber dabei, dass eine CPU mit 125 Watt TDP mit absoluter Sicherheit mehr verbraucht als eine CPU mit 65 Watt. Umgekehrt weiss ich, dass eine Intel CPU mit z.B. 35 Watt TDP auch nicht mehr als 35 Watt Leistung aufnimmt - eher weniger natürlich. Ich kann aber bei der Planung des Netzteiles davon ausgehen, dass die CPU nicht mehr als 35 Watt aufnimmt.

Die TDP lässt also Rückschlüsse auf den Verbrauch zu. Es ist und bleibt aber ein Richtwert, der natürlich auch etwas davon abhängt wie die Hersteller die TDP ermitteln bzw. messen.
Mit der TDP nahmen es aber einige Hersteller nicht so genau. Fiese Lastspitzen und starke Auslastung haben durchaus zu einer Überschreitung der TPD führen können.
 
Oh Mann =/

Das Szenario 100% Load über alle Module betrachtet ja schon den Idealfall, eigentlich müsste da die Architektur doch abgehen wie Schnitzel wenn man alle Module voll auslasten kann... und was kommt dabei rum. 5.73 - bei 3,3 Ghz.

So dermaßen schwach hatte ich mir Vishera eigentlich nicht vorgestellt. Wenige % über die Architektur ist und bleibt zu wenig, Takt hin oder her.

Vor allem dämpft das die Erwartungshaltung an weitere Optimierung. Da scheint die Modulbauweise ja schon praktisch am Limit... wenn nur wenige % in einem Jahr bei einer jungen Architektur drin sind.

In Anbetracht wie lange Bulldozer schon in Entwicklung ist kann man sich vorstellen, dass AMD schon seit Jahren Hände und Füße ringend um das ein oder andere % bei der Architektur kämpft. Schade dass die Erfolge offensichtlich so klein ausfallen.

Stromsparend wird Vishera auf keinen Fall, dafür ist die Plattform zu fett. Sockel 2011 Niveau. Ein System auf Basis 1155 ist praktisch immer, mitunter deutlich sparsamer (abh. vom Board). Idle wie auch Last.

Darüber braucht man gar nicht groß diskutieren. FM2 wird mit 1155 vergleichbar sein. AM3+ mit Sockel 2011. Beim Verbrauch, nicht bei Leistung.

Dass das Topmodell seine TDP auch praktisch zu 100% ausschöpfen wird, davon kann man ausgehen. erst recht bei 4,2 Ghz Basis Takt.
 
Zuletzt bearbeitet:
SHEG schrieb:
woran liegt es eigentlich, dass Intel-CPUs pro Takt und Watt so viel Leistungsfähiger sind? Ist da einfach die Chip-Architektur (Ist damit eigentlich vollstens vereinfacht die Schaltung der Transistoren mit gemeint?) das Maß der Dinge? Oder ist heutige Software in irgendeiner Form Intel-optimiert, indem sie Befehlssätze nutzt, die AMD in der Form nicht bietet....

Beides.

Zum Einen hat Intel seit dem Core2 in Sachen Rechenleistung pro Core und pro Takt deutlich die Nase vorn. Davor war es noch genau anders herum. Da ließen die Athlon64 die Pentium4 schlecht aussehen.

Bulldozer hat leider nicht allzuviel dazu beigetragen, Intels derzeitigen Vorsprung zu verringern. Im Gegenteil. Vielleicht hat diese neue Architektur auf lange Sicht mehr Zukunftspotential als K10, aber fürs Erste ist sie in den meisten Anwendungsfällen eher ein Rückschritt.

Auf der anderen Seite ist aber auch die meiste heutige Software auf Intel optimiert. Das gilt auch für Cinebench 11.5 und die entsprechenden Cinema-Produkte.

"You should be aware that Cinebench 11.5 is using Intel openMP (libguide40.dll), which does not support AMD-NUMA"

Das ist auch nicht verwunderlich, wenn Intel um die 80% Marktanteil bei x86-CPUs hat. Bei Servern sogar 95%. Das ist keine böse Verschwörung, um AMD schlecht aussehen zu lassen, sondern ganz pragmatisch.

Deshalb sehe ich in diesem Fall auch eher erstmal AMD in Zugzwang und nicht die Softwareentwickler. AMD muss seine CPUs so auslegen, dass sie auch mit dieser schlecht optimierten Software gut zurecht kommt. Darauf zu hoffen, dass die Entwickler ihre Software netterweise speziell für die kleine Minderheit der AMD-CPUs optimieren, ist nicht realistisch.

Das bedeutet nicht, dass man keine neuen Features/Erweiterungen bringen kann, aber die müssen immer als zusätzliche Option auf die solide "Grundleistung" oben drauf kommen.

Eine CPU wird durch ihre Stärke bei konventioneller, nicht optimierter Software erfolgreich und wenn sie dann erstmal Erfolg (großen Marktanteil) hat, kommt die Unterstützung der neuen Features von ganz allein dazu.
So lief es z.B. beim besagten Athlon64 mit seiner 64Bit-Erweiterung.
 
Im Übrigen stimmen die Cinebench-Werte in dem Bild nicht. Da steht der i7-2700k mit 8,8 Punkten bei angeblichen 3,5 GHz. Wenn ich die Werte google, erhalte ich aber 6,6 Punkte bei 3,5 GHz für den i7-2700k. Das ist also schonmal gefälscht.

Sollten die 5,73 Punkte für den 3,3GHz-Vishera stimmen, würden sich bei 4 GHz (FX-8350) insgesamt 6,9 Punkte (wenn man es einfach linear hochrechnet) und somit mehr als der i7-2700k ergeben!
 
Zuletzt bearbeitet:
Traurig, traurig, die kommende Spitzen-CPU von AMD ist langsamer als mein AMD X6, dessen Architektur schon Jahre alt ist. Ich warte nur noch drauf, dass AMD aus Verzweiflung eine Server-CPU mit 6 Modulen auf den Desktop bringt, um einigermaßen mit den 4-Kernern von Intel mithalten zu können. So wie damals Intel im Pre-Core-Zeitalter mit dem Pentium 4 Extreme Edition, der ja auch nur ein umgewandelter Xeon mit riesen Level3-Cache war um den damals überlegen AMD-CPUs einigermaßen Paroli bieten zu können.
 
@Herdware

joa, das kann man so unterschreiben.

Ich frage mich seit Bulldozer Release was die Architektur für die Zukunft bringen kann. 10-15% mehr IPC pro Kern bei selbem Takt zu Bulldozer wären ein Schritt in die richtige Richtung gewesen, aber immer noch zu wenig. Sollten jetzt nur 2-5% dabei rumkommen, bedeutet das für mich dass das Potential der Modulbauweise schneller erschöpft ist, als angenommen. Da hilft es auch wenig wenn die Architektur in Spezialfällen richtig punkten kann.

Ausgehend von den technischen Daten muss da einfach mehr bei rauskommen, da man sich nicht mal vom Vorgängen auf K10 absetzen kann. Würde man dazu 1/3 weniger Transistoren und Fläche, oder Takt nötig wäre, der Verbrauch entsprechend geringer ausfallen würde, wäre das vollkommen in Ordnung, aber mit 32nm zu 45nm, mit 50% mehr Transistoren und Takt, kann man sich kaum von K10 losreden...

Naja, hoffen wir dass es besser ausfällt als bei diesem "leak". Wobei Coolaler nicht für gefälschte Werte steht.
 
Zuletzt bearbeitet:
Mahlzeit,

hier mal ein Blick in die Denke des aktuellen CEO bei AMD Rory Read:

http://www.silicon.de/41558689/ceo-rory-read-amd-hat-sich-gewandelt/

Ich denke, da ist klar, wo der Weg hin gehen wird. Und der heisst nicht, Leistung um jeden Preis. AMD hat erkannt, dass es hierfür ein wenig zu spät ist. Also konzentriert man sich auf das was in der Businesswelt nunmal wichtig ist. Umsatz. Und den erzielt man leider nicht mit Highend oder Enthusiast CPU´s, sondern mit Produkten die eine möglichst große Kundengruppe ansprechen. Also: Teenager mit Ihrer Facebooksucht, Familien und ältere Menschen die sich erst in das Thema EDV einarbeiten. Und das dort eher Tablets oder kleine Rechner zum Tragen kommen ist auch klar. Oder meint ihr die Kooperation mit ARM dient wirklich nur dem Einsatz der Sicherheitstechniken der Briten?

Mal im Ernst: Wieviel Prozent der deutschen Bevölkerung benötigen auch nur 30% der Leistung eines i7? Und warum sollen die dann die nicht genutzte Leistung auch noch zahlen? Fakt ist: Preis/Leistungstechnisch gesehen ist AMD immer noch führend.

Und was den Geschwinsigkeitsvorteil des X6 angeht: Warten wir doch einfach mal die finalen Benches ab und sehen dann weiter.

Viele Grüße,

ein Intel User.
 
Dann lag ich ja gar nicht mal so falsch :)

Dass Intel natürlich deutlich mehr Geld bewegen kann leuchtet auch ein. Im Umkehrschluss zu dem, was Matzegr geschrieben hat, ist es eigentlich eine beachtliche Leistung, was AMD mit den "wenigen" Mitteln hibekommen hat ;)
 
8% mehr Grundleistung bei Cinebench und 11% mehr Takt bei gleicher TDP ist kein Fortschritt für Dich???

Und ich zitiere mich nochmal selbst:

DinciVinci schrieb:
Im Übrigen stimmen die Cinebench-Werte in dem Bild nicht. Da steht der i7-2700k mit 8,8 Punkten bei angeblichen 3,5 GHz. Wenn ich die Werte google, erhalte ich aber 6,6 Punkte bei 3,5 GHz für den i7-2700k. Das ist also schonmal gefälscht.

Sollten die 5,73 Punkte für den 3,3GHz-Vishera stimmen, würden sich bei 4 GHz (FX-8350) insgesamt 6,9 Punkte (wenn man es einfach linear hochrechnet) und somit mehr als der i7-2700k ergeben!
 
Zumal Intel mit den Mitteln was die haben auch nicht mehr als 10% mehr Leistung hat bei gleichen Takt (Sandy vs Ivy). Die nächste Gen von AMD liegt also im soll.
 
DinciVinci schrieb:
Und ich zitiere mich nochmal selbst:

ich bilde mir die meinung natürlich anhand der Fakten in den News. Wenn die nicht stimmen sollten, kann ich auch schlecht was dafür. Sollte dein Beispiel der Wahrheit entsprechen, steht das Ganze natürlich unter nem andern Stern. Aber man weiss ja nie...
 
schade dass die AMD CPUs immer gleich hässlich aussehen, da muss ich immer an meinen alten 3200+ denken
 
DinciVinci schrieb:
Im Übrigen stimmen die Cinebench-Werte in dem Bild nicht. Da steht der i7-2700k mit 8,8 Punkten bei angeblichen 3,5 GHz. Wenn ich die Werte google, erhalte ich aber 6,6 Punkte bei 3,5 GHz für den i7-2700k. Das ist also schonmal gefälscht.
...

Wenn mich nicht alles täuscht, dann zeigt Cinebench in dieser internen Balkengrafik immer nur den Standardtakt der jeweiligen CPU an, auch dann, wenn sie übertaktet ist.
 
Zurück
Oben