News Intel: Erster Prozessor mit acht Kernen

<NeoN> schrieb:
Was habt ihr eigentlich auf einmal mit AMD? Sie haben aufgeholt, Intel aber noch lange nicht geschlagen.

Im mehrsockelserverbereich auf den dieser 8kerner ziel ist amd vorne und intel nur aufgrund ihres 6kerners halbwegs konkurenzfähig, der aber teurer ist und viel mehr strom verpulvert, daher wunderts mich auch, dass es nochn ganzes jahr dauern wird, bis intel da was gegen tut.
 
Achso, ich bin jetzt davon ausgegangen, dass es im Servermarkt ähnlich aussieht wie auf dem Dektopmarkt.
Aber wieso hat es AMD dann nicht auf dem Desktopmarkt hinbekommen, wenn sie im Serverbereich so gut sind?
 
Anscheinend begreifen einige meinen Beitrag mal wieder nicht....
Ich versuche es einfach nochmal-.-

Erstmal 2 Fakten:

i7 vs. Q9500 = 25% Leistungssprung
9800gt vs. GTX280 = 40% Leistungssprung

DARUM sehe ich Zukunft in GPU´s nicht in CPU´s, da GPU´s GRÖßERE LEistungssprünge pro GENERATION erzielen. Verstanden????

Ferner, sagte ich, das immer mehr GPU´s Aufgaben einer CPU übernehmen, da GPU´s einfach effektiver sind!!!! Dennoch ist bis jetzt ein leben ohne CPU nicht möglich, aber sobald die GPU alles kann, was eine CPU kann, werden wir große Sprünge machen.

Und das sind für mich Zukunftsvisionen!!!!! Und nicht 32Kerne CPU´s...

Sehen wir uns z.B. Videokonvertieren mit nem i7 vs. von mir aus ne 9800GT, man sieht deutlich das ein GPU Kern viel vieeeeeeel schneller arbeitet als eine CPU.

Und zu dem "
der einzige risige sprung von der 7er auf die 8er serie war vor zwei jahren, seitdem sind auch im gpu bereich immer nur kleine schritte gemacht worden. außerdem limitieren zurzeit in spielen (meistens) die grafikkarte, nicht die cpus, gta mal außen vor gelassen :P

Ja 1. untermauert dein letzter Satz meine These, da eine GPU einfach stärker ist, oder wie würde es aussehen wenn eine CPU die Grafik Rendern würde? -.-
2. Der Sprung von 9800GT auf GTX280 war ca. 40% und das ist ein sehr großer Sprung, vorallem im verhältnis wie stark so ein GPU Kern ist....

Grüße
 
wikki:
Du hast leider keine Ahnung, zu diesem Satz:
Ferner, sagte ich, das immer mehr GPU´s Aufgaben einer CPU übernehmen, da GPU´s einfach effektiver sind!!!! Dennoch ist bis jetzt ein leben ohne CPU nicht möglich, aber sobald die GPU alles kann, was eine CPU kann, werden wir große Sprünge machen.

Wenn eine GPU alles kann waß eine CPU kann ist sie eben nicht mehr effektiver.
Die GPUs sind mit ihren zig Streamingprozessoren für das Einsatzgebiet optimiert, das ist der einzige Grund warum sie schneller sind, jedoch wären Sie mit Aufgaben die ein Core 2 Duo im schlaf erledigt hoffnungslos überfordert.

Eine GPU ist ein auf ein bestimmtes Szenario hin optimierte Prozessor, sobald dieses Szenario verlassen wird ist er sehr langsam.

Zu den Leistungssprüngen:
Wie lange entwickeln Intel und AMD schon ander CPU, und wie lange ATi und Nvidia an der GPU? ;)

Da dir wirklich die Grundlagen fehlen kannst du dir hier Infos holen:
http://www.tomshardware.com/de/CUDA-Nvidia-CPU-GPU,testberichte-240065.html
 
Zuletzt bearbeitet:
Sehr gut für server und groß Rechner, aber für den normalen standard user reicht wohl immernoch nen dual core. Bin jedenfalls mit meinem sehr zufrieden und dieser ganze quad core kram ist wohl eh erst in ein zwei jahren erst ausgereizt.
 
wikki schrieb:
Anscheinend begreifen einige meinen Beitrag mal wieder nicht....
Ich versuche es einfach nochmal-.-

Erstmal 2 Fakten:

i7 vs. Q9500 = 25% Leistungssprung
9800gt vs. GTX280 = 40% Leistungssprung

DARUM sehe ich Zukunft in GPU´s nicht in CPU´s, da GPU´s GRÖßERE LEistungssprünge pro GENERATION erzielen. Verstanden????

Nein, da gibts auch nix zu verstehen.
Die GPUs könen solche große Sprünge realisieren, weil sie einfach die Anzahl der kerne ehöhen.
GPU sind prinzipiell nichts anderes als nicht x86-kompatible Multikernprozessoren, die es heute schon auf mehrere 100 Kerne bringen.
Intel hat es vom Penryn zum Lynfield geschafft, ohne Anhebung der Taktraten oder Vermehrung der kerne eine gewisse Leistungssteigerung zu bewerkstelligen, während nVidia einfach die Anzahl der kerne massiv erhöht hat
Verstanden ?

wikki schrieb:
Ferner, sagte ich, das immer mehr GPU´s Aufgaben einer CPU übernehmen, da GPU´s einfach effektiver sind!!!! Dennoch ist bis jetzt ein leben ohne CPU nicht möglich, aber sobald die GPU alles kann, was eine CPU kann, werden wir große Sprünge machen.

Eine GPU, die alles kann, was eine CPU kann, ist ein Multikernprozessor.
Wo ist denn in deinen Augen eigentlich der Unterschied zwischen GPU und CPU ?
Die GPU ist nichts anderes als ein hochspezifizierter Coprozessor zur 3D-Darstellung.
Wäre sie allgemeiner gehalten würde sie auch nicht diese leistung bringen.
Insgesamt it eine Shadereinheit(=Kern) der GPU deutlich simpler aufgebaut als der hochkomplexe Kern einer CPU.

wikki schrieb:
Und das sind für mich Zukunftsvisionen!!!!! Und nicht 32Kerne CPU´s...

Wie gesagt, eine GTX280 ist auch nur eine sehr spezielle 240-Kerne CPU...

wikki schrieb:
Sehen wir uns z.B. Videokonvertieren mit nem i7 vs. von mir aus ne 9800GT, man sieht deutlich das ein GPU Kern viel vieeeeeeel schneller arbeitet als eine CPU.

Weil sie auch viieeeeeeeeeeeeel mehr Kerne hat, und diese spezielle Aufgebe dank der letzten Entwicklungen (CUDA...) auch schaffen kann.



wikki schrieb:
Ja 1. untermauert dein letzter Satz meine These, da eine GPU einfach stärker ist, oder wie würde es aussehen wenn eine CPU die Grafik Rendern würde?

Dazu ist der prozessor durchaus in der Lage, wenn auch nicht schnell.
Eine GPU hingegen ist nicht in der Lage eine CPU zu ersetzen...

wikki schrieb:
2. Der Sprung von 9800GT auf GTX280 war ca. 40% und das ist ein sehr großer Sprung, vorallem im verhältnis wie stark so ein GPU Kern ist....

Siehe oben...

wikki schrieb:

Ebenfalls, ich hoffe ich konnte dir weiterhelfen...
 
Finde auch das dass die richtige Richtung ist (Mehrkern CPUs), so werden (hoffentlich) schneller mehr Progs Multiprozessorfaehig ;)
 
Is ja irgendwie klar das 8 Kerner kommen ist nur eine Frage der Zeit. Und es ist auch vollkommen klar das es Leute geben wird die sagen werden wofür 8 Kerne usw. und das sind dieselben Leute die auch gesagt haben wofür 2 Kerne ;) . Abwarten 2010 wird es definitiv 8 Kern Cpus geben zumindest im Serverbereich wir können froh sein wenn 2010 die meisten Anwendungen 4 Kerne können :) .
 
Na aber gern und wenn der Preis stimmt, so verkürzt sich die Zeit beim Rendern noch mehr, juhu :)
 
<NeoN> schrieb:
Achso, ich bin jetzt davon ausgegangen, dass es im Servermarkt ähnlich aussieht wie auf dem Dektopmarkt.
Aber wieso hat es AMD dann nicht auf dem Desktopmarkt hinbekommen, wenn sie im Serverbereich so gut sind?

Weil im serverbereich andere anforderungen herrschen. Dort ist der fsb bei intel ein sehr limitierender faktor, vor allem wenns zu den mehrsockelsystemen geht.Die verschiedenen prozessoren müssen ja auch miteinander kommunizieren können, daher braucht man höhere bandbreiten. Bei 2sockelsystemen limitiert daher der fsb schon und bei 4sockelsystemen sogar so stark, dass intel 2 kerne mehr bringen muss, um konkurrenzfähig zu bleiben. Das ist auch der hauptgrund wieso der nehalem nen integrierten speichercontroller hat, denn ohne diesen würde man im serverbereich bald nicht mehr konkurrenzfähig sein.
 
@AffenJack: dein erster und zweiter Beitrag in diesem Thread verwirrt mich: wieso sollte eine neue Server-CPU von Intel mit alleinigen 8 Kernen und 16 Threads gegen eine 4-Kern Amd-CPU per se unterlegen sein? Wieso muss (!) es sich um eine Mehr-Sockel-CPU handeln, wo es doch genügend SS-Xeons gibt?
Wieso meinst du, das Beckton "zu spät" dran sei, wenn bereits ein DP-Nehalem-System keine vergleichbare Konkurrenz hat?

Im fast unbedeutend exotischen Mehrsockel-Segment (4+ Sockel), mag es ja sein, dass Amd wegen der HT-link-Technologie führend ist, aber es geht hier zunächst allgemein um eine (einzelene) Server-CPU, die mal eben 8 Core (16 Threads) mitbringt. Oder sehe ich hier was falsch?
 
Azi schrieb:
Eigentlich ist es eher so dass die GPU sich immer mehr in Richtung CPU entwickelt.

Achja? Eine GPU, zb der RV770 hat 800 parallele recheneinheiten - eine CPU hat bedeutend weniger dafür kann die GPU nur sehr spezielle aufgaben lösen während eine cpu quasi alles können muss.

Das einzige was man vielleicht sagen kann ist dass GPUs auch immer komplexer werdende aufgaben bewältigen können und CPUs immer mehr aufgaben parallel - sogesehen bewegen sich hier beide ein wenig aufeinander zu spielen aber noch in völlig unterschiedlichen dimensionen. Und auf absehbare Zeit sehe ich auch keinen Grund warum sich das ändern sollte.
 
Kasmopaya schrieb:
Probiers mal mit deiner GTX 280 @ 240 Kerne, da sind 8 Kerne ein Witz dagegen...;)

Die Intel Roadmap sagt ja offiziell Q4 2009 32nm Nehalem Octa Core, wie so oft werden erst die Desktops beliefert.

Eine GTX280 mag ja vielleicht schneller sein, aber das Ergebnis mit normalen CPUs ist eindeutig besser.
 
Denahar schrieb:
Im fast unbedeutend exotischen Mehrsockel-Segment (4+ Sockel), mag es ja sein, dass Amd wegen der HT-link-Technologie führend ist
Hust. Unbedeutend?
, aber es geht hier zunächst allgemein um eine (einzelene) Server-CPU, die mal eben 8 Core (16 Threads) mitbringt. Oder sehe ich hier was falsch?
Würde ich so sagen. Eine CPU welche nicht einzeln verbaut wird sollte man dann wohl auch mit der gesamten Platform betrachten.
 
@bensen: Na ja, ich schrieb "4+", was wohl missverständlich war. Für mein Verständnis sind die Tigerton bzw. sonstigen Xeons eher für Single-Socket, Dual-Socket und manchmal auch für 4-Wege-Systeme gedacht. Alles andere ist m.M.n. exotisch.
 
Denahar schrieb:
Im fast unbedeutend exotischen Mehrsockel-Segment (4+ Sockel), mag es ja sein, dass Amd wegen der HT-link-Technologie führend ist, aber es geht hier zunächst allgemein um eine (einzelene) Server-CPU, die mal eben 8 Core (16 Threads) mitbringt. Oder sehe ich hier was falsch?

Ja, denn Beckton ist für 4 Sockel Systeme vorgesehen.
Die Opterons waren den Xeons zwar bisher dank HT und internem Speichercontroller zwar ebenbürtig, aber bereits ein einzelner i7 kann ein 2 Sockel Opteron System in Schach halten und ein 2 Sockel Nehalem EP nimmt es locker mit einem 4 Sockel Opteron auf (siehe: http://www.heise.de/newsticker/Neue-Xeon-CPUs-mit-Nehalem-Kern-im-SAP-SD-Benchmark--/meldung/120570).
 
Zum Glück wurde das Halbwissen der GPU- Hochjubler schon berichtigt. Danke an .#AutomatikK und Azi.

Zum Thema Energieeffizienz, CO2 Ausstoß und neues Umweltbewusstsein.

Intel wie AMD bzw. ATI wie Nvidia scheren sich, überspitzt gesagt, einen Dreck um den CO2 Ausstoß. Energieeffizienz ist bei Serverfarmen, Laptops und anderen, besonderen Vorrausstzung an nicht ins unermesslich steigende bzw. niedrige Leistungsaufnahme von Bedeutung. Bei Serverfarmen kann ein hoher Energieverbrauch richtig ins Geld gehen, man bedenke auch noch die Klimageräte/ -anlagen und bei Laptops verlängert sich die Laufzeit bei gleich großem Akku. Das sind Erfordernisse welche ausschlaggebend sind.

Daß Desktop- CPUs weniger Verbrauchen ist nur ein Nebeneffekt bzw. ein Trugschluss. Über die letzten 30 Jahre betrachtet benötigen die CPUs immer mehr. Ausnahmen gab es bei Intel mit den hoch getakteten P4s (Prescott nicht Northwood) und auch bei AMD mit ihren Athlon 1400 (so hießen die glaub ich). Daß die Leistungsaufnahme momentan stagniert und für den Mainstrembereich vielleicht auch leicht rückläufig ist, liegt daran daß sonst immer aufwändigere oder lautere Kühllösungen nötig würden und, wie oben schon angedeutet, duch Weiternetwicklung die für Server und Laptopprozessoren nötig wurden auch in Desktop- CPUs einfließen (müssen).
Aber die Propaganda der Industie schlägt schon gut an. Respekt!
Naivität und Unwissenheit...

Ubrigens, ein Auto mit 110PS hat bei Vollgas einen Energieverbrauch von 81.000 Watt. lol
Denkt mal drüber nach.
Edit: Krafwerke erzeugen die Energie um ein vielfaches "sauberer" als zb. Verbrennungsmotoren.
Und sorry for off- topic.

Gruß mav82
 
Zuletzt bearbeitet:
@mav82:

Das Auto zieht aber nichts aus der Steckdose, durch die Lichtmaschiene bekommt die Batterie ein gewissen Teil der Engerie zurück, soweit ich weiss, kann mich auch irren.

Bin gespannt wie Intel den Cache Salat bewältigen will.
 
Denahar schrieb:
@AffenJack: dein erster und zweiter Beitrag in diesem Thread verwirrt mich: wieso sollte eine neue Server-CPU von Intel mit alleinigen 8 Kernen und 16 Threads gegen eine 4-Kern Amd-CPU per se unterlegen sein? Wieso muss (!) es sich um eine Mehr-Sockel-CPU handeln, wo es doch genügend SS-Xeons gibt?
Wieso meinst du, das Beckton "zu spät" dran sei, wenn bereits ein DP-Nehalem-System keine vergleichbare Konkurrenz hat?

Im fast unbedeutend exotischen Mehrsockel-Segment (4+ Sockel), mag es ja sein, dass Amd wegen der HT-link-Technologie führend ist, aber es geht hier zunächst allgemein um eine (einzelene) Server-CPU, die mal eben 8 Core (16 Threads) mitbringt. Oder sehe ich hier was falsch?


Wo hab ich bitte geschrieben, dass der unterlegen sein wird? ich hab geschrieben, dass intel bis 2010 wenn der beckton erscheint unterlegen ist in dem segment und auch überhaupt nicht über single-socket oder dual-socket. Ob das 4p segment mitn nehalem rasant an wert verliert mal gucken, kann unter umständen sein,muss aber auch nicht. Es hat schon seine gründe wieso leute mehrsockelsysteme einsetzen und anscheinend muss der bereich so wichtig sein, dass es sich lohnt ne menge entwicklungskosten in ne cpu wie dunnington und beckton zu stecken. Und er ist spät dran, weil er sich nach intels eigener projektion verspätet. Es wurde vorher immer gesagt 2009 kommt nochn 8kerner, anscheinend ist dies nicht der fall.
 

Ähnliche Themen

Zurück
Oben