Test Test: Intel Core i7-980X Extreme Edition

Kasmopaya schrieb:
Die paar Watt?? Schau mal auf deine GPU, das ist beeindruckend! Da sind dann gleich mal ein paar hundert Watt eingespart worden im Verhältnis zur Rechenleistung...
Alles klar Mister GPGPU,CUDA;ATI Stream .... so na dann fangen wir wieder bei den Baics an was macht ne CPU was ne GPU wofür ist was optimiert ?
Warum zieht die GPU bei den GPU Programmen an der CPU vorbei, ahh ! richtig da war ja was ... Den warum kann die GPU die CPU nicht ersetzen, auch wenn sich Nvidia das vielleicht wünschen würde :D
MfG

P.S. Und das argument des Verbrauches zieht auch nicht, weil der 965 Be selber 257W brauch und damit auch keine Energiesparlampe ist :D
@ CD Mods, Sorry wenn das immer wieder in so ein geflame ausartet, aber wenn ich Lese "And the winner in Anno,MW2,Dirt 2,RE5 is AMD Phenom II X4 ! " könnt ich heulen :-(
@ Volker Wieso verbraucht der 965 BE im Test 257W und jetzt nu nur noch 216 W ?
 
Zuletzt bearbeitet:
brabe schrieb:
Liegt es eventuell nicht eher am Board?
Ich denke eher das manchmal es nicht verstanden wird wofür diese CPU eigentlich gedacht sind. Für GAmer eher weniger sonder für WS und/oder Semiprofibereich(meine Auffassung/VErständniss). Für HArdcore Gamer reicht doch der i750 oder 955BE locker aus, gute Graka vorrausgesetzt.

Ich denke, das man in den ganzen Anwendungsgeschichten oder anders ausgedrückt"Dinge mit dehnen man Geld verdient", wie Volker schon selber gesagt hat, Zeit und damit Geld spart. Desweitern kann man den Ablegern des XX ja vllt den einen oder anderen Rechner in der Firma einsparen. Dann sieht die Effizienzrechnung, Kosten/LEistungsrechnung wieder ganz anders aus.

Andererseits sollte man langsam anfangen in anderen Bahnen zu denken da die gebotene Leistung eigentlich selbst bei kleineren CPU´s vollkommen ausreicht, da hat kasmopaya vollkommen Recht.

Nicht nur grünes MArketing ist gefragt sondern auch grüne Entwicklungsrichtungen.

Zum Beispiel:

Energieverbräuche senken, den Einsatz von Rohstoffen bei der Herstellung minimieren, giftige Verbindungen versuchen nicht mehr zu nutzen, NAchhaltigkeit usw.

Das wäre grün(wobei ich mit dieser Farbe in politischer Richtung nichts zu tun habe) und auch förderlich für alle. Aber man kann scheinbar nicht alles haben.
 
Zuletzt bearbeitet:
Schau mal auf deine GPU, das ist beeindruckend!
Was ist daran beeindruckend? Da wird auch nur mehr und mehr Kerne auf ein DIE gepackt - juhu!

Sicherlich waren alle Werten irgendwie im erwarteten Bereich, aber dem ganzen eine Nutzlosigkeit bei parallelisierbaren Anwendungen zu attestieren weil es GPUs gibt ist dermaßen lächerlich.

Jede aktuelle GPU und selbst Fermi hat nur beschränkte Caching Möglichkeiten, oder die Algorithmen lassen sich gar nicht erst an diese "dummen" Shader Prozessoren anpassen, dieser Art Probleme gibt es genug, sonst hätte man schon ewig auf Grafikkarten setzen können.
Ist ja nicht so das man CUDA oder Stream gebraucht hat um GPUs nutzen zu können.

Wenn wir schon bei unpassenden Vergleichen sind - man könnte ja auch ein DSP für die entsprechende Aufgabe nutzen! Der wäre noch schneller als eine GPU!
 
Schöner Test, schön zu sehen, dass die Software sich langsam wirklich gut an die Multi CPUs anpasst.
Für mich ist das Ding definitiv nichts.

Cu
Lasyx
 
@mike Lowrey

Was ist denn ein DSP? Kenne das nur von meine Yamaha Home Cinema Receiver. DAnke!
 
XRJPK schrieb:
@ Volker Wieso verbraucht der 965 BE im Test 257W und jetzt nu nur noch 216 W ?

Wo verbraucht der 257W? Man beachte, dass wir Ende Dezember nen neues Testsystem aufgebaut haben, und wenn die Graka im Idle halt 40 Watt weniger verbraucht, sind vorherige Messungen nicht mehr wirklich vergleichbar.
Deshalb neu: https://www.computerbase.de/2009-12/test-prozessoren-2009/25/#abschnitt_leistungsaufnahme
>>
Alt: https://www.computerbase.de/2009-08...black-edition/29/#abschnitt_leistungsaufnahme
Zumal sich auch noch das Stepping des 965 geändert hat, von C2 auf C3.


@ unter mir: Ähm war der nicht gestern auch mal kurz auf 930? Ich glaube ja. Es ist halt immer eine Momentaufnahme vom Vortag oder dem davor, je nachdem wie weit man gerade ist und Zeit hat um kurz in den Preisvergleich zu schauen. Aber die 30 Euro ändern da letztendlich eh nix, zu teuer ist zu teuer^^
 
Zuletzt bearbeitet:
XRJPK schrieb:
Und das argument des Verbrauches zieht auch nicht, weil der 965 Be selber 257W brauch und damit auch keine Energiesparlampe ist :D
@ CD Mods, Sorry wenn das immer wieder in so ein geflame ausartet, aber wenn ich Lese "And the winner in Anno,MW2,Dirt 2,RE5 is AMD Phenom II X4 ! " könnt ich heulen :-(
@ Volker Wieso verbraucht der 965 BE im Test 257W und jetzt nu nur noch 216 W ?

Du versuchst aber auch nicht irgendwie zu flamen?

Hast du dir mal die verschiedenen Testsysteme angeschaut? Anscheinend nicht, sonst hätten sich deine Fragen gar nicht aufgeworfen.


@Volker

finde es etwas eigenartig, dass bei den Prozessorpreisen nicht wie im Text beschrieben die zu empfehlenden Boxed-Versionen angegeben sind, sondern die eher unvorteilhaften Tray Versionen (Garantiebeschränkung) zum Vergleich herangezogen werden. Als Produkt wird ja auch jeweils die Boxed Version vorgestellt. Hier solltest du zumindest deine Bemerkung abändern.
Dabei wurde der Preis ausschließlich von lieferbaren Boxed-CPUs inklusive Kühler und voller Herstellergarantie berücksichtigt.
Zumindest auf dem CB Preisvergleich stimmen deine Zahlen nur für die Tray Versionen.
 
Kasmopaya schrieb:
Das neue ach so tolle 32nm Prachtstück ist wieder auf den Idle Verbrauchswerten der schlechten Core i7 920er Zeiten zurückgekehrt! Und ich dachte die Zeiten in denen der Stromverbrauch im Idle steigt sind nun endgültig vorbei -> denkste. Schon allein der Punkt macht die 6 Kerner für 2010 zum nogo.

sehe ich nicht wirklich so. Der hohe Verbrauch resultiert vom Chipsatz. Macht die Sache nicht wirklich besser da es noch keine Alternativen gibt, das stimmt. Die CPU an sich istjedoch gut

Noch dazu hat die CPU(wie jede), ein extrem schlechtes Performance per Watt Verhältnis. Dazu noch einen netten aus der Luft gegriffener Preis von Intel und fertig ist der Hammer? ->Ne, nicht wirklich.

Die CPU hat ein hervorragendes Leistung/W Verhältnis. Jedenfalls dort wo sie gebraucht wird. Dh wenn parallelisierte Anwendungen zum Einsatz kommen und die CPU wirklich 50% davonziehen kann. Siehe Server Bereich.
3,6Ghz bei 90W und 6 Kernen und 12 Threads. Dagegen steht AMD zur Zeit bei 125W und 3,4 Ghz bei 4 Kernen und 4 Threads da. Klar geht da auch Untervolting. Aber 90W bei 3,4 ghz wären dann doch zuviel des Guten.

Die paar Watt?? Schau mal auf deine GPU, das ist beeindruckend! Da sind dann gleich mal ein paar hundert Watt eingespart worden im Verhältnis zur Rechenleistung...

Du wirst nie eine CPU mit einer GPU vergleichen können. Deine GPU kann wenig sehr schnell und extrem parallelisiert, deine x86 CPU kann 1000x mehr, nur eben nicht so extrem parallelisiert und das eben nicht so schnell. Äpfel und Birnen, beides Obst aber doch ansders.

palace4d schrieb:
Für 6 Kerne wahr wohl nicht weniger Stromverzehr zu erwarten. Der hohe Stromverbrauch liegt nicht an der CPU sondern am Chipsatz, der X58 verschlingt einfach mehr. Sieht man in einigen Test die die CPU exklusiv messen.

danke.

dorndi schrieb:
Wo hast du denn diese Information her?

mfg

Wo ich diese Information her habe? Ein i5 750 macht nicht selten 4 Ghz auf Standardvoltage. Rein vom Takt her also ca 25% mehr Leistungsaufnahme. 25% deshalb da er bei Standardtakt keine 95W braucht und der Turbomodus hier das Gesamtbild versaut der eben immer zusätzlich Volt befeuert. Außerdem gilt immer +1 auf allen Kernen.
Also +25% -> ca 118-120W bei 4 Ghz. (lineare Leistungsuafnahme mit Taktbei gleicher V)
Idle beeinflusst das Übertakten kaum die Leistungsaufnahme -> <5W sofern man die Standardspannung halten kann. Die Core Abschaltung und C-States leisten gute Arbeit.
So braucht mein Clarkdale bei 3,6 Ghz (ohne Turbo) dennoch nur 17W ggenüber ca 15W @ standard. Bei THG (ich wieß, zum kotzen) gabs dennoch mal einen Test bezüglich Takt / Leistungsaufnahme eben dieser CPu. Man sieht dass @ Standardvoltage kaum bis keine Leistungszunahme in idle bei OC.Bild


Bei AMD hingegen schöpft der 965 seine 3,4 Ghz mit 125W schon fast aus. Lassen wir es 110 sein, so werde ich für 3,6 ghz mit standardspannung ca genausoviel brauchen wie der i5. Ca. 120W.

Alles recht theoretische Werte, aber mathematisch kein Problem und ich
hatte so viele CPUs von AMD / Intel auf dem Schreibtisch die ich allesamt durchgemessen habe, ich weiß wovon ich rede ;)
Sobalds an Spannungserhöhung geht is der LastVerbrauch bei AMD wie auch Intel dahin.

THG brauchte schon unnormale 1,45V für 4,0 Ghz. Genau wie CB Bild 2 Aber wieso 1,45V - genau wegenTurbo Modus der in beiden Fällen aktiv war. Heißt die CPU taktet bis auf 4,5Ghz + - kein Wunder braucht man 1,45V. -> bei 4 Ghz @ Standardvoltage sollte man den Turbo deaktivieren.

Intel hat den 45nm Prozess länger auf dem Markt, er ist sehr gut optimiert und man holt duch Materialien sehr effiziente CPU heraus die aus dem Stand 4-4,5 Ghz machen (Multi verrausgesetzt). Mag sein dass AMD gerade mit dem neuen 32nm Prozess einiges gutmachen kann. 2011 dann..

Aber was rede ich, lass es beide CPU auf 3,6 Ghz sein. Bei gleichem Takt braucht der i5 immer weniger und seine Performance / Watt ist verglichen mit P2 einfach überlegen. Dafür ist er aber deutlich teurer. Zumindets ist er einiges teurer geworden. Teurer als zu Release. Sicher nicht weil er schlecht verkauft oder Intel AMD unterbieten muss ;)
 
Zuletzt bearbeitet:
Na is doch aber war, da kann man nur heulen ... bei solchen Aussagen/ Behauptungen
 
Super Test :) Also ich finde die CPU ist ok für Ihren Preis. Evtl. werde ich mir mal wieder seit dem FX-57 eine 1k € CPU kaufen. Vorallem im FSX (der 255 Kerne supportet) stelle ich mir das super Genial vor mit so viel Threads.
 
Was ist daran beeindruckend? Da wird auch nur mehr und mehr Kerne auf ein DIE gepackt - juhu!
"Nur" ist gut, extrem guter Idle Verbrauch + Leistungssteigerung an die Spitze der Balken + mit Abstand beste Performance per Watt bei gezügelten Last Stromverbrauch. Kann das der neue Intel auch? -> doppel nein.


Liegt es eventuell nicht eher am Board?
Liegt es beim Core i7 920 am Board? Gibt es andere Boards für den Sockel? Von dem her alles eine Einheit die man nicht trennen kann. Außerdem müsste die CPU mehr Sparpotenzial haben weil ja alles in die CPU verlagert wurde.

@Mike Lowrey
Nur noch ein bisschen warten dann gibts News für dich. Sogar Intel sagt das Larrabee dann einschlägt wie eine Bombe. Sobald die eine eigene GPU haben sind die Dinger dann plötzlich das beste was sie haben, vorher ist es natürlich Teufelszeug, aber sobald Larrabee da ist wird die GPU von Intel heilig gesprochen...
Die Verzögerung habe zwar den Konkurrenten AMD und Nvidia einen Vorteil für neue Entwicklungen gebracht, trotzdem soll Larrabee noch erscheinen und dann den Mitbewerbern das Fürchten lehren.
http://www.pcgameshardware.de/aid,7...afikkarte-wiederauferstehen/Grafikkarte/News/
x86 Befehlssatz 1:1 mit CPU vergleichbar, mal schaun wie dann die dicken teuren CPUs dastehen in Sachen Performance per Watt und Preis/Leistung.
Gleichzeitig ist NVs oberstes Ziel die GPU immer flexibler zu machen, rechne mal mit der nächsten oder übernächsten Architektur(3-6 Jahre) mit Larrabee ähnlichen Zügen...
Die Vorstellung von Larrabee hier und heute hätte für Aufsehen gesorgt, aber doch nicht eine Stromschleuder 6Kerner den 95% gar nicht einzusetzen wissen.


sehe ich nicht wirklich so. Der hohe Verbrauch resultiert vom Chipsatz. Macht die Sache nicht wirklich besser da es noch keine Alternativen gibt, das stimmt. Die CPU an sich istjedoch gut
Also ich kenne keine Tests die nur die CPU Leistungsaufnahme getestet haben? HT4U hats zumnindest nicht drin. Sollte der Chipsatz nicht relativ sparsam sein? Immerhin ist fast alles in die CPU gewandert, also alles auf das Board zu schieben ist ja auch nicht Sinn der Sache.

Und das dieser 6Kerner und der Core i7 920 eine gute WS CPU sind weis ich selber hab ja schließlich eine gebaut, aber ein „Wow!“ -> hä? Wo denn? Bei den 8 oder 12Kernern OK da ist dann wahrscheinlich ein „Wow!“ drin...
https://www.computerbase.de/forum/threads/core-i7-apple-os-arbeitsrechner-absegnung.570805/

Das Fazit ist auch mal wieder eines das es auf den Punkt bringt, ein bisschen diplomatisch ausgedrückt, aber die Kernaussage tifft ins schwarze: http://ht4u.net/reviews/2010/intel_corei7_980x/index22.php
Wenn man das heute gesehene rekapituliert, dann fällt es einem schwer, diese Frage eindeutig mit ja oder nein zu beantworten. Wurde es wirklich bestialisch? Vielleicht bei der Leistungsaufnahme, denn hier Überschritt Intel nach langer Zeit wieder einmal die 200-Watt-Marke unter Last für das gesamte System und auch im Idle lag man bei wenig rühmlichen 120 Watt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Deine GPU kann wenig sehr schnell und extrem parallelisiert, deine x86 CPU kann 1000x mehr, nur eben nicht so extrem parallelisiert und das eben nicht so schnell. Äpfel und Birnen, beides Obst aber doch ansders

Rein technisch gesehen, kann eine GPU alles, was auch eine CPU kann. Nämlich Addieren, Multiplizieren, Quadrieren, Wurzel ziehen...... und all die anderen Rechenaufgaben. Ja, sogar mit doppelter Genauigkeit können aktuelle GPUs rechnen. Es ist ein Märchen aus vergangen Tagen, wonach GPUs angeblich nicht alles können würden, damals aus den Zeiten, als die GPUs nur aus Fixed-Funktion Units bestanden.

GPUs können bloß sequentielle Aufgaben nicht schnell abfertigen, weil sie dafür nicht optimiert sind.

CPUs können Datenparalle Aufgaben nicht schnell abfertigen, weil sie dafür nicht optimiert worden sind.
 
Affenkopp schrieb:
Verdammt!
gerade wo ich auf einen AMD 4-Kerner umsteigen wollte, kommt der Test! :(

Ja ich wollte mir auch gerade nen VW Polo kaufen aber hab gerade nen Test von nem neuen Porsche gelesen... hm...
 
  • Gefällt mir
Reaktionen: Quidproquo77
Genau genommen kann man diese CPU auch nicht mit einem Porsche vergleichen. Ein Porsche ist ein auf schnelligkeit getrimmtes Auto mit begrenztem Ladevolumen, also nur zwei vollwertigen Sitzen

Ein Porsche wäre eine Dual-Core mit 5 GHz

Was wir hier haben ist ein schneller Transporter mit 6 Sitzen.

Vorher gab es schon eine Limusine mit 4 sitzen, die genau so schnell war, es war der i7 975.

Was ich sagen will. Die CPU ist nicht schneller geworden, sondern das Ladevermögen ist gestiegen. Ein Auto das größere Mengen von A nach B transportieren kann, nennt man ja auch nur ein größeres Auto und nicht ein schnelleres, auch wenn es die Aufgabe schneller erledigt, wenn es wirklich viel zu transportieren gibt.
 
silent-efficiency schrieb:
Ehrlich gesagt bin ich überrascht. Nicht vom Prozessor, sondern von der Resonanz.
In dem genannten, mit WOW eingeleiteten Satz schafft der Core i7-980X Extreme die Aufgabe 75% schneller. Ist doch ein WOW wert, oder? Wer genau das braucht hat doch Zeit für etwas anderes. Man sollte nicht immer zwanghaft versuchen alles mies zu reden.;)

1. Es ist nicht schwer einen 4-Kern-Prozessor in einen 6-Kern-Prozessor umzuwandeln, wenn man die Fertigung auf den nächst kleinen Prozess umstellt. Von daher kann man hier nicht von "Meisterleistung" der Ingenieure sprechen. Also fehlt das weg.
Von 45nm auf 32nm ist keine Leistung? Die Koordination der 2 zusätzlichen Kerne ist auch keine Leistung?
Dir ist schon klar, dass es zur Ivybridge mit 22nm nicht mehr weit ist und ab da stößt man an physikalische Probleme. Es ist abzuwarten, ob es dann noch eine Verkleinern gibt.

2. Es war zu erwarten, dass in Anwendungen, die auf viele Kerne optimiert sind, die zusätzliche Leistung entsprechend kommt. Was genau soll nun also daran "WAU" sein? Das liegt alles im Bereich der Erwartungen.
Es ist doch nur logisch, dass man eine auf Mehrkerner optimierte Software nimmt.
Hätte man eine Software, die für einen Kern geschrieben ist nehmen sollen? Hätte es dich dann mehr gefreut. Dann hättest du gesagt "ist das Ding aber Lahm, wie ein Einkerner".

3. Eine CPU ist für schnelles Abarbeiten von sequentiellen Aufgaben optimiert, diese CPU verschnellert nicht das Abarbeiten von sequentiellen Aufgaben.
Wie bitte? Was willst du denn damit sagen?

4. GPUs sind fürs Abarbeiten von parallelen Aufgaben optimiert. Diese CPU verschnellert das abarbeiten von parallelen Aufgaben.
Wie bitte? Was willst du denn damit sagen?

Die Frage die man sich jetzt stellt. Ist es sinnvoll eine CPU dort einzusetzen, wo eigentlich ein Ko-Prozessor wie die GPU sinnvoll wäre. Rendering und ähnliches basiert auf Datenparallelität, wofür eine GPU optimiert ist.
Solage eine CPU ihre Daseinsberechtigung hat, Ja.

Klar, nicht alle Programme, die viel Datenparallelität aufweisen sind auf GPUs optimiert,...
Wie wahr! Und dafür gibt es zum Glück eine CPU.

...aber genau da liegt das Problem. Anstatt 1000 Euro in eine CPU zu investieren, wäre es sinnvoller gewesen 500 Euro für eine Software auszugeben, die auf GPUs optimiert ist....
Und wenn es so eine Software gerade nicht gibt, die man braucht?

Natürlich trifft das nicht auf alle Software zu, aber vor allem auf die, wo der 6-Kerner hier am meisten Boden machen kann.
Und genau dann kann doch diese 6-Kerner optimal eingesetzt werden.

Also rein aus technischer Sicht, kann ich kein Wow erkennen. Aus Leistungssicht gibt es auch kein "Wow", denn die Ergebnisse liegen alle im erwarteten Bereich.
Erwartet und von der CPU gehalten, was willst du mehr.

Tut mir leid, ich lese mir das nächste mal wohl lieber ein SSD-Test, wenn ich wieder ein Wau über die Lippen bringen will oder warte auf Sandy Bridge, vielleicht gibt es ja dann wieder ein Wau aus technischer Sicht, auch wenn ich ziemlich skeptisch bin, der Core 2 Duo, war bisher das einzige wo ich "Wau" gesagt habe, wobei ich das ehrlich gesagt schon beim Pentium M gesagt habe, nur haben es da noch viele nicht in ihrem Blickwinkel gehabt.
Egal, dort wirst du sicher auch etwas auszusetzen haben. Da bin ich mir sicher.
 
Nett, mehr fällt mir dazu eigentlich nicht ein. Von unbezahlbarer Superleistung hat nämlich 99% der Menschheit nichts, der Rest kann sich natürlich freuen.

Bis in zwei Jahren dann, wenns die 6Cores fürn hunni gibt, dann bin ich vielleicht dabei :cool_alt:

TeHaR schrieb:
Ja ich wollte mir auch gerade nen VW Polo kaufen aber hab gerade nen Test von nem neuen Porsche gelesen... hm...

Sehr schön gesagt :)

silent-efficiency schrieb:
Genau genommen kann man diese CPU auch nicht mit einem Porsche vergleichen. [Viel sinnloser Text]

Vergleich nicht verstanden :rolleyes:
 
silent-efficiency schrieb:
Rein technisch gesehen, kann eine GPU alles, was auch eine CPU kann. Nämlich Addieren, Multiplizieren, Quadrieren, Wurzel ziehen...... und all die anderen Rechenaufgaben. Ja, sogar mit doppelter Genauigkeit können aktuelle GPUs rechnen. Es ist ein Märchen aus vergangen Tagen, wonach GPUs angeblich nicht alles können würden, damals aus den Zeiten, als die GPUs nur aus Fixed-Funktion Units bestanden.

nein. So einfach darf man das nicht sehen. GPUs kommen vieleher einer RISC Architektur gleich. Die Befehlssätze sind um ein vielfaches einfacher als dies bei x86 der Fall ist.

Natürlich können sie im Grunde dasselbe da sich alles aus Additionen zusammensetzen lässt. Die Frage ist, wieviele Takte dafür nötig sind. Und CPUs können sehr komplexe Aufgaben dank Befehlsätzen in wenigen Zyklen lösen.

GPUs können bloß sequentielle Aufgaben nicht schnell abfertigen, weil sie dafür nicht optimiert sind.

CPUs können Datenparalle Aufgaben nicht schnell abfertigen, weil sie dafür nicht optimiert worden sind.
Das hat erstmal nichts mit sequentiell und parallel am Hut. Für eine SSE4 Berechnung würde ein GPU mit Sicherheute um ein vielfaches länger brauchen als eine heutige CPU.

genauso wenig hat es mit Optimierung nichts zu tun. Es sind komplett andere Architekturen und das Prinzip dahinter ist ein komplett anderes. Aber du sagst es selber, eine GPU ist für hochparalleles Addieren, Multiplizieren etc da, für Matrizen und Vektoren, während eine CPU viel viel komplexeres ausführen muss und ganze Breiche in Hardware vorliegen hat die kaum anderes können.

RISC kommt da zum Einsatz wo massive Parallelisierung stattfindet und hat sich deswegen und wegen Intel nicht im Desktopbereich durchgesetzt.

Es bleiben trotzdem Äpfel und Birnen ;)
 
@engine
Deine Liebesmühe hättest du dir sparen können. Es bringt nichts unter alle meine Zitate irgend etwas hinzuschreiben, insbesondere wenn du den Kontext nicht verstanden hast. Ich habe nicht geschrieben, dass die CPU schlecht ist, oder dass man nur GPUs und Dual-Cores kaufen sollte. Was ich kritisiert habe, war die Resonanz und das fehlen von Innovationen in der Entwicklung

Außerdem gebe ich dir Recht, dass die 32nm-Fertigung eine große Leistung ist. Allerdings wurde diese bereits mit den core i3 und Core i5 Prozessoren eingeführt. Es geht hier also nicht um Fertigung.

@KAOZNAKE
Ich habe sein Vergleich verstanden, ich wollte es nur präzisieren, deswegen fange ich auch mit einem "Genau genommen" an und nicht mit "falsch" oder ähnlichem ;)

@Krautmaster
Richtig . Es ist ein Äpfel und Birnen Vergleich. Dem hab ich nicht widersprochen

Ich habe der Begründung widersprochen, nach dem eine GPU angeblich nicht alles rechnen kann, was eine CPU kann, weil das einfach falsch ist.

Krautmaster schrieb:
Natürlich können sie im Grunde dasselbe da sich alles aus Additionen zusammensetzen lässt. Die Frage ist, wieviele Takte dafür nötig sind. Und CPUs können sehr komplexe Aufgaben dank Befehlsätzen in wenigen Zyklen lösen.


Das hat erstmal nichts mit sequentiell und parallel am Hut.)

Wenn eine Aufgabe sequentiell ist, dann braucht die CPU weniger Takte. Wenn eine Aufgabe Datenparallel ist, dann brauch die GPU weniger Takte. Nur darum geht es. Die Rechenaufgaben sind die selben, es ist Adieren, Multiplizieren, Wurzel ziehen....
 
Zuletzt bearbeitet:
Zurück
Oben