News Kaby Lake: Intels Skylake-Nachfolger zum Großteil erst 2017

Der Landvogt schrieb:
Ja, weil man Limits überschritten hatte und die Architektur längst in der Sackgasse war (Intel). Bei AMD sank die Leistungsaufnahme nicht wirklich, die Mehrleistung betrug 10-15%. "Massiv" ist was anderes.
In Spielen vielleicht, die aber auch immer schon eine Paradedisziplin des Athlon XP waren, aber die sind ja beileibe nicht der einzige Fokus:

http://www.xbitlabs.com/articles/cpu/display/prescott-tests_13.html#sect1

Teilweise weit mehr als 25% mit Spitzen um die 50%. Und das ist massiv, da es durch die Bank weit nach oben ging, Intel würde sich heutzutage die Finger danach lecken.
 
10% in Spielen, bis 14% in Anwendungskategorien, 8% insgesamt. Siehe CB-Test. 50% allenfalls bei bestimmter Software. Schön wenn man diese den ganzen Tag nutzt, blöd wenn nicht. Die späteren Modelle haben dann richtig gezogen, ich beziehe mich jedoch auf den Release.
Intel könnte mehr wenn sie wollten, wollen sie aber nicht, da sie nicht müssen.
 
Also nochmal zu Kaby Lake. Bei Wikipedia habe ich das hier gefunden:

Kaby Lake will add native USB 3.1 support, whereas Skylake motherboards require a 3rd-party add-on chip in order to provide USB 3.1 ports.[3] It will also feature a new graphics architecture to improve performance in 3D graphics and 4K video playback.[4]

Kaby Lake will add native HDCP 2.2 support.[5]

Finde ich jetzt eher mau. Denke mit Skylake ist ein guter Zeitpunkt zum Umrüsten gefunden. Natürlich nicht für alle Sandy-Bridger. Da lohnt es nicht. Aber gibt auch Leute (so wie ich ;) ), die noch was älteres hatten.
 
Der Landvogt schrieb:
10% in Spielen, bis 14% in Anwendungskategorien, 8% insgesamt. Siehe CB-Test. 50% allenfalls bei bestimmter Software. Schön wenn man diese den ganzen Tag nutzt, blöd wenn nicht. Die späteren Modelle haben dann richtig gezogen, ich beziehe mich jedoch auf den Release.
Intel könnte mehr wenn sie wollten, wollen sie aber nicht, da sie nicht müssen.

Nur um das richtig zu verstehen: Du beziehst dich die ganze Zeit auf den Athlon 64 3200+ mit S754 und Single Channel?
 
Lord_Helmi schrieb:
Nur um das richtig zu verstehen: Du beziehst dich die ganze Zeit auf den Athlon 64 3200+ mit S754 und Single Channel?
Dual CHannel reißt es auch nicht raus. Schau mal bei deinem Link auf Seite 1 Tabelle ganz unten, letzte Spalte. ;)

Laut deinem Link hat der A64 im Schnitt 11% Mehrleistung (0,94 vs. 1,04). Ist jetzt nicht gerade "massiv" und bestätigt meine Aussage nur.
 
Der Landvogt schrieb:
Dual CHannel reißt es auch nicht raus. Schau mal bei deinem Link auf Seite 1 Tabelle ganz unten, letzte Spalte. ;)
Und? Was willst du mir damit sagen? Das man die Architekturen untereinander einfach vergleichen kann wenn man einerseits die lowspec Variante nimmt und andererseits den Vollausbau? Wirklich?
Es ist ein Architekturenvergleich, da spielen Preise keinerlei Rolle falls du damit kommen willst.

Der Landvogt schrieb:
Laut deinem Link hat der A64 im Schnitt 11% Mehrleistung (0,94 vs. 1,04). Ist jetzt nicht gerade "massiv" und bestätigt meine Aussage nur.
Man beachte die Ausreißer.
Schau dir zb einfach mal im CB Benchmark die Skalierung an, wenn die Grafik mal NICHT bremst (damals wurden CPU Tests öfter mal im GPU Limit gemacht):

Commanche 4 + 29%
Quake 3 A + 24%
SS + 25% // minfps + 23%
UT 2003 + 30/31%
Wc3 min fps + 21%

Wenn das nicht massiv ist...
Aber ja, der Athlon 64 war keine Revolution und hat auch niemals nie Intel dazu gebracht ihren Netburstfehltritt schneller ad acta zu legen. Ist klar.
 
Lord_Helmi schrieb:
Und? Was willst du mir damit sagen? Das man die Architekturen untereinander einfach vergleichen kann wenn man einerseits die lowspec Variante nimmt und andererseits den Vollausbau? Wirklich?
Es ist ein Architekturenvergleich, da spielen Preise keinerlei Rolle falls du damit kommen willst.
Mit Geld kann man sich (fast) alles erkaufen. Es ist unsinnig eine 1000€ Plattform mit einer 200€ Plattform zu vergleichen. Wenn dann vergleicht man den direkten Nachfolger der 200€ Plattform. Für 1000€ bekommt man logischerweise immer mehr. Sollte man zumindest.
Was kommt als nächstes? Wird jetzt noch der Itanium herangezogen? Der kostet zwar zig Tausend Euro, aber egal, er ist ja besser.

Lord_Helmi schrieb:
Man beachte die Ausreißer.
Ja, die Ausreißer. Die sind leider derart vereinzelt, dass sie kaum eine Rolle spielen. Wie bereits erwähnt, wenn man eines dieser Spiele/Programme hat ist es super, wenn nicht dann halt nicht. Für einen Allrounder zählt nur das Gesamtrating und nicht einzelne Spitzen. Wenn ich einmal die Woche für 2 Minuten ein Archiv packe aber stundenlang mit Lame encodiere habe ich von einem A64 verdammt viel gehabt...

Der A64 war eine Grundlage für die Zukunft, das ist unbestritten, zu Release gab es aber auch keinen extremen Sprung. Ausreißer hast du auch mit Skylake, nur will die dann plötzlich niemand mehr wahr haben...
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Mit Geld kann man sich (fast) alles erkaufen. Es ist unsinnig eine 1000€ Plattform mit einer 200€ Plattform zu vergleichen. Wenn dann vergleicht man den direkten Nachfolger der 200€ Plattform. Für 1000€ bekommt man logischerweise immer mehr. Sollte man zumindest.
Was kommt als nächstes? Wird jetzt noch der Itanium herangezogen? Der kostet zwar zig Tausend Euro, aber egal, er ist ja besser.
Der Athlon 64 FX 51 kostete damals knapp 700 US Dollar, der 3200+ etwas über 400 US Dollar. Der XP 3200+ kostete 470 US Dollar bei Einführung. Und beide waren damals High End. Werde mal realistisch...

Der Landvogt schrieb:
Ja, die Ausreißer. Die sind leider derart vereinzelt, dass sie kaum eine Rolle spielen.
Hab ich dir eben nicht von den 8 CB Benchmarks (synthetische ausgenommen) 5 genannt die ÜBER 20% zulegen? Da du so auf Durchschnitte stehst: Das sind 62,5% aller getesteten Spiele die mehr als 20% zulegen! Der Rest legt auch zu, aber halt nur im Rahmen der Limitierung (GPU). Dazu solltest du noch bedenken das der Athlon XP immer schon stark in Spielen war - somit ist dies nochmals bemerkenswerter.
Der Landvogt schrieb:
Der A64 war eine Grundlage für die Zukunft, das ist unbestritten, zu Release gab es aber auch keinen extremen Sprung. Ausreißer hast du auch mit Skylake, nur will die dann plötzlich niemand mehr wahr haben...
Zeig mir die Skylake "Ausreißer" beim Gaming, wenn du da irgendwo 20%+ findest :)
 
Lord_Helmi schrieb:
Der Athlon 64 FX 51 kostete damals knapp 700 US Dollar, der 3200+ etwas über 400 US Dollar. Der XP 3200+ kostete 470 US Dollar bei Einführung. Und beide waren damals High End. Werde mal realistisch...
Gut, war von mir etwas überspitzt. Hast du in deiner Rechnung auch Sockel 940 Board (anstatt eins für Sockel A welches man für 30€ bekam) und Registrered RAM einkalkuliert? Allein die CPU einzurechnen ist eine pure Milchmädchenrechnung.

Lord_Helmi schrieb:
Hab ich dir eben nicht von den 8 CB Benchmarks (synthetische ausgenommen) 5 genannt die ÜBER 20% zulegen? Da du so auf Durchschnitte stehst: Das sind 62,5% aller getesteten Spiele die mehr als 20% zulegen! Der Rest legt auch zu, aber halt nur im Rahmen der Limitierung (GPU). Dazu solltest du noch bedenken das der Athlon XP immer schon stark in Spielen war - somit ist dies nochmals bemerkenswerter.
Da wir ja auch von Effizienz reden sollte man bedenken, dass der AXP weniger Strom zieht. Wenn du das bereinigst wirst du da eh weniger haben. Ich sehe kein Spiel wo der A64 über 20% zulegen konnte. Wenn du wieder mit dem FX kommst: Der ist nicht der Nachfolger vom Athlon XP. Oder vergleichst du den 5960X mit einem 4790k?
Abgesehen davon war 1024x768 damals eine Standardauflösung, 1280x1024 verbreitete sich immer mehr. Und da schmilzt der Abstand wieder. Aber du wirst mir sagen, dass du damals in 640x480 gepielt hast.

Lord_Helmi schrieb:
Zeig mir die Skylake "Ausreißer" beim Gaming, wenn du da irgendwo 20%+ findest :)
Jetzt zählt also nur noch Gaming?
 
Der Landvogt schrieb:
Gut, war von mir etwas überspitzt. Hast du in deiner Rechnung auch Sockel 940 Board (anstatt eins für Sockel A welches man für 30€ bekam) und Registrered RAM einkalkuliert? Allein die CPU einzurechnen ist eine pure Milchmädchenrechnung.
Mit dem 30€ Board hattest du damals bestimmt viel Spaß. Ich habe damals schon lieber ein paar € mehr investiert.

Aber davon abgesehen: Architekturenvergleich, schrieb ich aber schon.

Der Landvogt schrieb:
Da wir ja auch von Effizienz reden sollte man bedenken, dass der AXP weniger Strom zieht. Wenn du das bereinigst wirst du da eh weniger haben.
True dat.
Der Landvogt schrieb:
Ich sehe kein Spiel wo der A64 über 20% zulegen konnte.
UT 2003, 20,2% ;D
Der Landvogt schrieb:
Wenn du wieder mit dem FX kommst: Der ist nicht der Nachfolger vom Athlon XP. Oder vergleichst du den 5960X mit einem 4790k?
Nö, mit dem 4960X.
Es ist die jeweils schnellste CPU ihrer Architektur, nicht mehr und nicht weniger. Und als Sonderfall dazu ein halbes Jahr später Mainstream (S939).

Laut deiner Logik darf man zb nie den Bloomfield mit dem Yorkfield vergleichen, da erst die wesentlich später erschienen Lynnfields den eigentlichen Nachfolger darstellten? Hat aber damals jeder gemacht, selbst CB.
Oder den C2D, vergleichen wir den denn nun mit dem P4 EE oder mit dem P4D? Überhaupt, Lynnfield gegen Sandy Bridge, oder kramen wir da wieder den Bloomfield raus? Und gegen was tritt eigentlich der Sandy Bridge E an?
Antwort darauf: Es tritt an was verfügbar ist, WENN man schon Architekturen vergleicht.

Der Landvogt schrieb:
Abgesehen davon war 1024x768 damals eine Standardauflösung, 1280x1024 verbreitete sich immer mehr. Und da schmilzt der Abstand wieder. Aber du wirst mir sagen, dass du damals in 640x480 gepielt hast.
1024x768 war das was heute 1080 p ist, 1280x1024 wäre equivalent zu 1440p und 1600x1200 wäre wohl das damalige 4k.

Ich verweise dann einfach mal auf die heutigen CPU Tests in Games, ok? 720p. Wohl kaum Standard heutzutage, es sei denn man ist Konsolero. Damals wäre ein CPU Test mit 800x600 super gewesen um ein GPU Limit auszuschliessen.

Der Landvogt schrieb:
Jetzt zählt also nur noch Gaming?
Du hast doch damit angefangen. Als Worst Case gegen den Vorgänger (wie gesagt, eine Stärke des Athlon XP) aber durchaus geeignet. In anderen Anwendungen hat der A64 noch durchaus mehr Potenzial gegenüber seinem Vorgänger gezeigt.
Skylake hat weniger "Ausreißer" nach oben, und wenn, dann meist bedingt durch neue Befehlssätze (Dann aber durchaus ordentliche). Der Athlon 64 hat die "Ausreißer" nach oben alleine schon im Gaming bei 5 von 8 Spielen, komisch nicht wahr?
 
Lord_Helmi schrieb:
Mit dem 30€ Board hattest du damals bestimmt viel Spaß.
Ja, hatte ich. Ich war selbst erstaunt was es geleistet hat. Mehr als 70€ hat man aber auch nicht investiert. Und zeig mir da mal ein S940-Board.

Lord_Helmi schrieb:
Nö, mit dem 4960X.
Von mir aus auch mit dem. Nur kam der bereits ein Jahr früher raus und ist neben bei ein Ivy-E. Ich nehme das was aktuell ist/war. Alten Krempel kaufe ich eher selten, v.a. in dem Preissgment.

Lord_Helmi schrieb:
Antwort darauf: Es tritt an was verfügbar ist, WENN man schon Architekturen vergleicht.
Es tritt an was vergleichbar bzw. bezahlbar ist. Was habe ich von einer Architektur die in ihrer max. AUsbauform nicht ansatzweise bezahlbar ist? Richtig, nichts. Da kannst du gleich mit sauteuren Architekturen kommen die noch so effizient und schnell sind. Bringt mir nichts. Und das ist was zählt und nicht solche Papiertiger.

Lord_Helmi schrieb:
1024x768 war das was heute 1080 p ist, 1280x1024 wäre equivalent zu 1440p und 1600x1200 wäre wohl das damalige 4k.
Wie gesagt, 1280 war stark im kommen, wesentlich mehr als heute 1440p.

Lord_Helmi schrieb:
Ich verweise dann einfach mal auf die heutigen CPU Tests in Games, ok? 720p. Wohl kaum Standard heutzutage, es sei denn man ist Konsolero. Damals wäre ein CPU Test mit 800x600 super gewesen um ein GPU Limit auszuschliessen.
Diese Tests sind sinnlos da sie die Realität nicht wiederspiegeln. Was habe ich davon wenn ein Spiel in 720p bei min. Details 50% schneller läuft, in 1920x1200 (meine Auflösung) aber nur 5%? Richtig, nichts. Das ist allenfalls ein Indikator für die Zukunft. Nur war damals eine CPU nach 2 Jahren eh längst überholt. Wegen Minisprüngen hat man nicht alles neu gekauft. Den A64 hat man beim Neukauf gerne genommen, eine Revolution war er aber nicht in Sachen Leistung. Sprünge und Verbesserungen gab es mit jeder neuen Generation, wäre ja sonst auch sinnlos.

Lord_Helmi schrieb:
Der Athlon 64 hat die "Ausreißer" nach oben alleine schon im Gaming bei 5 von 8 Spielen, komisch nicht wahr?
Ja, 10-15%. Ist jetzt nicht massiv. Nicht zur damaligen Zeit. Die CPU war nach nicht mal 3 Jahren eh hoffnungslos überholt.
 
Lord_Helmi schrieb:
Athlon XP vs Athlon 64 -> massivst gestiegene Leistung und dabei gesunkene Leistungsaufnahme

Meine Beispiele bezogen sich immer auf denselben Fertigungsnode, da so die Vergleichbarkeit am besten ist. Und wenn man sich da den AthlonXP und den Athlon64 jeweils in der 2,2GHz Variante anschaut gab es im 130nm Node bei ähnlicher Leistungsaufnahme im Schnitt 15% mehr Leistung.

Lord_Helmi schrieb:
Pentium 4 vs Core 2 -> extreme Leistungszunahme bei viel weniger Leistungsaufnahme

Ein Singlecore mit einem Dualcore zu vergleichen ist nicht wirklich sinnvoll.


Lord_Helmi schrieb:
Dieses rummorkeln (Sandy -> Ivy -> Haswell -> Broadwell -> Skylake) bringt fast nix

Dann vergleichen wir doch mal einfach die IPC von Dothan bis Broadwell:

Intel-Prozessoren-Single-Thread-IPC-Performance.png

Quelle: 3DCenter

Wo war da Sandy was Besonderes? Von allen Tocks (Merome, Nehalem, Sandy, Haswell) gab es bei Sandy den kleinsten IPC-Zuwachs. Zumal zwischen Sandy und Nehalem ganze 3 Jahre lagen.

Bei Spielen war Sandy ein massiver Gewinn und alles danach bewegt sich bis auf ein paar Ausnahmen (z.B. GTA5, Ryse) im Bereich 0-5%.

Schaut man sich mal Abseits von Spielen den Skylaketest auf CB an dann ist dort z.B. ein i5-6600K mit ähnlichen Takt aber ohne HT im Vergleich zum Sandy i7-2600K bei Videokonvertierung bis zu 28% schneller. Vergleichen wir noch Blender dann ist der i5-6600K einen Tick schneller als der Sandy i7. Wobei das Sandy-System ganze 50% mehr Strom braucht. Im Vergleich zum Skylake i7 braucht das Sandy i7 System im Blender ganze 64% mehr Energie für die Aufgabe. Abseits von Spielen gab es bei Intel nach Sandy sehr wohl deutliche Verbesserungen.
 
Naja,

Nötig ist ohnehin mehr die GPU Rohleistung.

In Sachen CPU gibt's Reserven, AMD kann aktuell nicht gegenhalten. Und die Hardware bleint länger aktuell. Gut für alle, denk ich :)
 
Der Landvogt schrieb:
Ja, hatte ich. Ich war selbst erstaunt was es geleistet hat. Mehr als 70€ hat man aber auch nicht investiert. Und zeig mir da mal ein S940-Board.
Nach 3(!!) verstorbenen Mainboards zu Sockel A Zeiten habe ich lieber etwas mehr investiert. Ganz zu schweigen von den Inkompatibilitäten. Ein 30€ Brett kommt mir nicht ins Haus, es sei denn es geht nicht anders.

Ein Sockel 940 Mainboard hat damals übrigens weniger gekostet [~170 € / S754 zum Vergleich ab ca 120 € zur Einführung) als heute so manches Sockel 1151 Brett :D
Als nächstes kommst du aber eh mit dem Speicherpreisen^^
Nochmal: Bei einem Leistungsvergleich von Architekturen schere ich mich 0,0 um den Preis. Es geht rein um die technische Leistungsfähigkeit und erst danach, in der Kaufentscheidung, kann ich Preis/Leistung abwägen FALLS mich das interessieren sollte bei einem Vergleich dieser Art.

Der Landvogt schrieb:
Von mir aus auch mit dem. Nur kam der bereits ein Jahr früher raus und ist neben bei ein Ivy-E. Ich nehme das was aktuell ist/war. Alten Krempel kaufe ich eher selten, v.a. in dem Preissgment.
Da Intels "E" Plattformen derzeit immer hinter den non "E" Plattformen hinterherhecheln kannst du die trotzdem untereinander vergleichen, es gibt keine feste Deadline zum Vergleichen, es sei denn du setzt dir eine (zb Neukaufzeitpunkt).

Der Landvogt schrieb:
Es tritt an was vergleichbar bzw. bezahlbar ist. Was habe ich von einer Architektur die in ihrer max. AUsbauform nicht ansatzweise bezahlbar ist? Richtig, nichts. Da kannst du gleich mit sauteuren Architekturen kommen die noch so effizient und schnell sind. Bringt mir nichts. Und das ist was zählt und nicht solche Papiertiger.
Nix Papiertiger. Architekturenvergleich.

Der Landvogt schrieb:
Wie gesagt, 1280 war stark im kommen, wesentlich mehr als heute 1440p.
Quelle?

Der Landvogt schrieb:
Diese Tests sind sinnlos da sie die Realität nicht wiederspiegeln. Was habe ich davon wenn ein Spiel in 720p bei min. Details 50% schneller läuft, in 1920x1200 (meine Auflösung) aber nur 5%? Richtig, nichts.
Was kann deine CPU dafür wenn die GPU bremst? Aber was kann deine CPU machen wenn du die GPU wechselst? Richtig, immer noch schnell genug sein. CPUs hielten auch damals schon länger als GPUs, gerade wegen den Refreshcyclen.

Der Landvogt schrieb:
Ja, 10-15%. Ist jetzt nicht massiv. Nicht zur damaligen Zeit. Die CPU war nach nicht mal 3 Jahren eh hoffnungslos überholt.
Was aber an etwas ganz anderem lag: Multicore.

Matzegr schrieb:
Meine Beispiele bezogen sich immer auf denselben Fertigungsnode, da so die Vergleichbarkeit am besten ist. Und wenn man sich da den AthlonXP und den Athlon64 jeweils in der 2,2GHz Variante anschaut gab es im 130nm Node bei ähnlicher Leistungsaufnahme im Schnitt 15% mehr Leistung.
Laut deiner Liste unten ist eine IPC Steigerung von 15% massiv.

Matzegr schrieb:
Ein Singlecore mit einem Dualcore zu vergleichen ist nicht wirklich sinnvoll.
Pentium 4 gab es auch als Dualcore.


Matzegr schrieb:
Dann vergleichen wir doch mal einfach die IPC von Dothan bis Broadwell:

Intel-Prozessoren-Single-Thread-IPC-Performance.png

Quelle: 3DCenter

Wo war da Sandy was Besonderes? Von allen Tocks (Merome, Nehalem, Sandy, Haswell) gab es bei Sandy den kleinsten IPC-Zuwachs.
Nehalem war Enthusiast + niedrige Taktraten.
Sandy Bridge ist Mittel/Oberklasse (Sandy E ist Enthusiast) + hohe Taktraten.

Sandy Bridge brachte erstmals bessere Performance als die vorherige Enthusiast Plattform in der Ober/Mittelklasse. Das wäre so als ob heutzutage ein i7 5960X vom i7 6600K durchweg geschlagen werden würde, was nicht der Fall ist.

Matzegr schrieb:
Zumal zwischen Sandy und Nehalem ganze 3 Jahre lagen.
NOPE.

Nehalem 18.11.2008, Sandy Bridge 09.01.2011. Sind nur minimal mehr als 2 Jahre!

Matzegr schrieb:
Schaut man sich mal Abseits von Spielen den Skylaketest auf CB an dann ist dort z.B. ein i5-6600K mit ähnlichen Takt aber ohne HT im Vergleich zum Sandy i7-2600K bei Videokonvertierung bis zu 28% schneller. Vergleichen wir noch Blender dann ist der i5-6600K einen Tick schneller als der Sandy i7. Wobei das Sandy-System ganze 50% mehr Strom braucht. Im Vergleich zum Skylake i7 braucht das Sandy i7 System im Blender ganze 64% mehr Energie für die Aufgabe. Abseits von Spielen gab es bei Intel nach Sandy sehr wohl deutliche Verbesserungen.
Das streite ich nicht ab, Performance/Watt technisch ist Skylake meilenweit vorraus. Leistungstechnisch genauso in allen Fällen wo neue Instruktionen hilfreich sind.
Allerdings liegen da mittlerweile auch 4,5 Jahre und eine andere Ausrichtung dazwischen.
 
Lord_Helmi schrieb:
Nach 3(!!) verstorbenen Mainboards zu Sockel A Zeiten habe ich lieber etwas mehr investiert. Ganz zu schweigen von den Inkompatibilitäten. Ein 30€ Brett kommt mir nicht ins Haus, es sei denn es geht nicht anders.
Mein hat jahrelang gehalten, keine Inkompatibilitäten. Aber selbst wenn du 70€ investiert hast war die Differenz groß.

Lord_Helmi schrieb:
Als nächstes kommst du aber eh mit dem Speicherpreisen^^
Ja. Die waren definitiv heftig, da man damals schon viel RAM gebrauchen konnte. Ist nicht so wie heute wo man zur Not mit 40€ davon kommt.

Lord_Helmi schrieb:
Nochmal: Bei einem Leistungsvergleich von Architekturen schere ich mich 0,0 um den Preis. Es geht rein um die technische Leistungsfähigkeit und erst danach, in der Kaufentscheidung, kann ich Preis/Leistung abwägen FALLS mich das interessieren sollte bei einem Vergleich dieser Art.
Dann nimm einfach die neueste Superduper-Architektur die was weiß ich was kostet. Dann würdest du ja nie eine CPU für 300€-1000€ kaufen weil du feststellen müsstest, dass die bzw. deren Architektur eigentlich totaler Schrott ist. Nur was kaufst du dann? Eine CPU für 10000€ aufwärts?

Lord_Helmi schrieb:
Was kann deine CPU dafür wenn die GPU bremst? Aber was kann deine CPU machen wenn du die GPU wechselst? Richtig, immer noch schnell genug sein. CPUs hielten auch damals schon länger als GPUs, gerade wegen den Refreshcyclen.
Wie gesagt, der A64 war eh nach nicht mal 3 Jahren wieder komplett überholt. Früher oder später ist man eh auf den Core2 umgestiegen. Ob ein E6600 in 2006 oder ein Q9550 in 2008 ist egal. Aber 2008 hast du mit nem A64 3200+ wohl kaum aktuelle Spiele ohne Einbußen gespielt.

Lord_Helmi schrieb:
Was aber an etwas ganz anderem lag: Multicore.
Auch bei der Singlecoreleistung. Multicore kam nochmal obendrauf.

Lord_Helmi schrieb:
Pentium 4 gab es auch als Dualcore.
Nö, jedenfalls nicht mit dem Namen "Pentium 4".
 
Der Landvogt schrieb:
Mein hat jahrelang gehalten, keine Inkompatibilitäten.
Schön für dich, das Glück hatte ich leider nicht :(

Der Landvogt schrieb:
Dann nimm einfach die neueste Superduper-Architektur die was weiß ich was kostet. Dann würdest du ja nie eine CPU für 300€-1000€ kaufen weil du feststellen müsstest, dass die bzw. deren Architektur eigentlich totaler Schrott ist. Nur was kaufst du dann? Eine CPU für 10000€ aufwärts?
Nochmals: Es ist ein Architekturvergleich, wen interessiert der Preis im Nachhinein? Es geht darum was damals technisch möglich war.


Der Landvogt schrieb:
Wie gesagt, der A64 war eh nach nicht mal 3 Jahren wieder komplett überholt. Früher oder später ist man eh auf den Core2 umgestiegen. Ob ein E6600 in 2006 oder ein Q9550 in 2008 ist egal. Aber 2008 hast du mit nem A64 3200+ wohl kaum aktuelle Spiele ohne Einbußen gespielt.
2008 ist aber 4-5 Jahre später. Welche CPU hat damals überhaupt solange gehalten? KEINE, das dem A64 vorzuhalten ist nicht fair. Nichtmal der C2D hat lange gehalten im Nachhinein betrachtet. Jedenfalls wenn man es mit heute vergleicht!

Wenn ich überlege wie oft man damals seine CPU tauschte und das Mainboard behalten hat, ist das kein Vergleich mit heute wert. Und noch schlimmer bei den Grafikkarten, wo fast jede Generation große Sprünge brachte, reine Refreshs aussen vor gelassen. Ich habe damals wesentlich öfter GPU als CPU getauscht (3200+ -> 4200+) (GF4 TI -> GF 5600 -> GF 6600GT -> 7800GS).

Der Landvogt schrieb:
Auch bei der Singlecoreleistung. Multicore kam nochmal obendrauf.
Intel kam knapp 2 Jahre lang (bis zum erscheinen des C2D) nicht wirklich an AMD ran. Es gab in dieser Zeit kaum Steigerungen ausser Takt und bissl Cache hier und da.

Der Landvogt schrieb:
Nö, jedenfalls nicht mit dem Namen "Pentium 4".
Whoa, dann sind es halt 2x "Pentium 4" die ich zusammen nun "Pentium D" nenne. Ändert nichts am Kern der Sache, der Architektur. Das ist nun wirklich Korinthenkackerei^^
 
Lord_Helmi schrieb:
Nochmals: Es ist ein Architekturvergleich, wen interessiert der Preis im Nachhinein? Es geht darum was damals technisch möglich war.
Damals wäre noch viel mehr als als ein FX51 möglich gewesen, auch von der Architektur her.
Selbst wenn wir bei den Consumerprodukten bleiben (was ja deiner Meinung nach sinnlos ist, da Geld keine Rolle spielt), dann muss man sagen, dass der erste P4 RD-RAM hatte. Darauf basierend wäre mehr möglich gewesen.

Lord_Helmi schrieb:
2008 ist aber 4-5 Jahre später. Welche CPU hat damals überhaupt solange gehalten? KEINE, das dem A64 vorzuhalten ist nicht fair.
Ich sage ja spätestens. Eher bereits 2006. Das waren max. 3 Jahre gewesen.

Lord_Helmi schrieb:
Nichtmal der C2D hat lange gehalten im Nachhinein betrachtet.
Aber locker hat er das wenn man wollte. In jedem Fall um Welten besser als der 3200+.

Lord_Helmi schrieb:
(GF4 TI -> GF 5600 -> GF 6600GT -> 7800GS).
Selbst Schuld, man konnte auch damals eine Generation überspringen.
Was ich aber nicht verstehe: Dicke und teure CPU drin, aber bei GPU abgeizen und zur Mittelklasse greifen? Und sich dann jedes Jahr über zu geringe Leistung wundern?

Lord_Helmi schrieb:
Intel kam knapp 2 Jahre lang (bis zum erscheinen des C2D) nicht wirklich an AMD ran. Es gab in dieser Zeit kaum Steigerungen ausser Takt und bissl Cache hier und da.
Stimmt, gekauft wurden die Dinger trotzdem wie irre.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Damals wäre noch viel mehr als als ein FX51 möglich gewesen, auch von der Architektur her.
Selbst wenn wir bei den Consumerprodukten bleiben (was ja deiner Meinung nach sinnlos ist, da Geld keine Rolle spielt), dann muss man sagen, dass der erste P4 RD-RAM hatte. Darauf basierend wäre mehr möglich gewesen.
Oh ja. Dazu noch mehr Pentium EE artige Designs und die IPC wäre ordentlich geboosted geworden.

Der Landvogt schrieb:
Aber locker hat er das wenn man wollte.
Wenn man massiv an Takt zugelegt hat (OC), selbiges kann aber auch über den 3200+ (spätere Steppings) gesagt werden.

Der Landvogt schrieb:
Selbst Schuld, man konnte auch damals eine Generation überspringen.
Bei den damaligen Mittelklasse Preisen musste man das aber nicht. GPUs kamen mir damals sehr viel günstiger vor, gerade in der Mittelklasse.
Der Landvogt schrieb:
Was ich aber nicht verstehe: Dicke und teure CPU drin, aber bei GPU abgeizen und zur Mittelklasse greifen? Und sich dann jedes Jahr über zu geringe Leistung wundern?
Das ist eine Aufrüstung pro Jahr mit jeweils ordentlichem Leistungszuwachs bei sehr gutem Preis. War für meine damaligen Ansprüche mehr als genügend (RTS).
Die FX war im Nachhinein ein Fehlgriff, aber DX9 musst halt sein xD
Eine 6800 GT/Ultra (>400€) brachte nur ca. 30% mehr als eine 6600GT (~200€).
Und die 7800GS war sinnvoll, da AGP Mainboard vorhanden war und sie ordentlich OC Spielraum nach oben aufwies.

Und wie siehts heute aus? Schon eine GTX 970 ist 50% schneller als eine GTX 960, ganz zu schweigen von den Modellen darüber. Wenn du heute was unter der Oberklasse kaufst hast du immer irgendwo einen Pferdefuß dran, ganz im Gegensatz zu damals.
 
Lord_Helmi schrieb:
Wenn man massiv an Takt zugelegt hat (OC), selbiges kann aber auch über den 3200+ (spätere Steppings) gesagt werden.
Später, später, später. Ja, später gabs dann auch mal den Skylake. ;) Wir reden logischerweise über den Releasezeitpunkt den A64. Der war auch in sofern ein Griff ins Klo, weil eine spätere Aufrüstung nicht möglich war (von 3200 auf 3700 lohnt sich halt nicht). Andauernd neue Sockel waren halt auch nicht so das wirklich Wahre.

Lord_Helmi schrieb:
Bei den damaligen Mittelklasse Preisen musste man das aber nicht. GPUs kamen mir damals sehr viel günstiger vor, gerade in der Mittelklasse.
Finde ich nicht, in der Mittelklasse hat sich preislich wenig getan. Klar, es gab mal Schwankungen, aber letztendlich ist man heute doch viel besser dran, schließlich hält so eine Karte ja Jahre.
Von der 6600GT zu 6800GT waren es übrigens 50%:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-6800-gs-test.509/seite-18

Du hattest ja nach Quelle gefragt die besagt, dass die 1280er Auflösung 2003 im kommen war. 2002 hat CB in dieser bereits getestet:
https://www.computerbase.de/artikel/grafikkarten/connect3d-radeon9700-pro-test.133/seite-16
Zusätzlich auch manchmal in der 1600er. Das tut man kaum wenn es nicht gefragt wäre.

Lord_Helmi schrieb:
Und wie siehts heute aus? Schon eine GTX 970 ist 50% schneller als eine GTX 960, ganz zu schweigen von den Modellen darüber. Wenn du heute was unter der Oberklasse kaufst hast du immer irgendwo einen Pferdefuß dran, ganz im Gegensatz zu damals.
Nun, die 960 ist ein blödes Beispiel, weil sich leistungsmäßig ggü. dem Vorgänger nichts getan hat. Es kam aber auch nie eine 960Ti. EIn Umstand den wir wohl AMD zu verdanken haben.
 
Der Landvogt schrieb:
Finde ich nicht, in der Mittelklasse hat sich preislich wenig getan. Klar, es gab mal Schwankungen, aber letztendlich ist man heute doch viel besser dran, schließlich hält so eine Karte ja Jahre.
Der Abstand zur Topkarte ist immer größer geworden mit der Zeit.
Der Landvogt schrieb:

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-6600-gt-fuer-agp-test.408/seite-14

30% in 1024er, meine Auflösung damals zu Release der 6600GT.
Der Landvogt schrieb:
Du hattest ja nach Quelle gefragt die besagt, dass die 1280er Auflösung 2003 im kommen war. 2002 hat CB in dieser bereits getestet:
https://www.computerbase.de/artikel/grafikkarten/connect3d-radeon9700-pro-test.133/seite-16
Zusätzlich auch manchmal in der 1600er. Das tut man kaum wenn es nicht gefragt wäre.
Und jetzt nochmal nachweisen das 1280er in 2003 wesentlich mehr genutzt wurde als 1440p heute.

Der Landvogt schrieb:
Nun, die 960 ist ein blödes Beispiel, weil sich leistungsmäßig ggü. dem Vorgänger nichts getan hat. Es kam aber auch nie eine 960Ti. EIn Umstand den wir wohl AMD zu verdanken haben.
Eine GTX 760 ist 50% von einer stinknormalen 780 entfernt, zur 780 TI sinds knappe 80%.
Sieh doch einfach ein, das die eigentliche preisliche Mittelklasse mit jeder Generation immer weiter von der Topkarte entfernt sitzt.
 
Zurück
Oben