Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel: Erster Prozessor mit acht Kernen
- Ersteller Wolfgang
- Erstellt am
- Zur News: Intel: Erster Prozessor mit acht Kernen
Opposing Force
Ensign
- Registriert
- Aug. 2008
- Beiträge
- 188
_Animal_ schrieb:wooohoooo endlich gta4 mit 100% Sichtweite zocken
Wäre schön, wenn auch mal die Software an die wachsende Anzahl von Cores angepasst werden würde. GTA IV als Vorreiter heranzuziehen, ist aber aufgrund der grausamen PC-Umsetzung auch nicht Sinn der Sache - für was kaufe ich mir eine riesige Grafikkarte, wenn es letztlich doch immer an der CPU scheitert?
Noch schnellere Server-CPUs sollten hoffentlich in günstigeren bezahlbaren Server-CPUs und damit in einem schnelleren I-Net resultieren. Ich will auch endlich mal 10Mbit Upload haben, um selbst einen Spieleserver hosten zu können
edit: das waren noch zeiten, als man bei ISDN noch genausoviel Up- wie Download hatte
wikki
Lieutenant
- Registriert
- Okt. 2008
- Beiträge
- 530
Die Zukunft besteht in meinen Augen nicht in der CPU. Da sind die Leistungssprünge imho viel zu gering.
GPU z.B. geht die Entwicklung richtig fix voran. Da merkt man deutlich nen Unterschied von einer 7800 auf eine 8800 usw. .
Wenn man sich die Leistung von einer GPU zu nutzen macht, nicht nur in Spielen, gehts richtig ab. Ich sage z.b. mal Photoshop CS4 oder Badaboom, echt krass. Das ist für mich Zukunft!
GPU z.B. geht die Entwicklung richtig fix voran. Da merkt man deutlich nen Unterschied von einer 7800 auf eine 8800 usw. .
Wenn man sich die Leistung von einer GPU zu nutzen macht, nicht nur in Spielen, gehts richtig ab. Ich sage z.b. mal Photoshop CS4 oder Badaboom, echt krass. Das ist für mich Zukunft!
Aus technischer Sicht viel interessanter, als ein Quadcore. Erklärung:
2 Kerne lohnen sich auch, wenn ein Programm überhaupt nicht darauf optimiert ist, alleine dadurch, dass das Programm jetzt einen der Kerne komplett für sich alleine hat; wogegen alles andere auf dem anderen Kern läuft.
Ein dritter lässt sich noch sinnvoll nutzen, wenn man "den dicksten Fisch" auslagert - so weiß ich, dass der Second Life-Client die Texturverarbeitung auf einen zweiten Thread verfrachten kann. Kern Nummer 4 zu beschäftigen, ist ziemlich schwierig, da man hier genau 2 dicke Fische finden muss - meist nicht so einfach, weil in den meisten derartigen Programmen viele, aber für sich jeweils eher harmlose und/oder in dem Aufwand ständig wechselnde Aufgaben anstehen. Mit 8 Kernen sieht die Sache anders aus: Hier wird ein Kern als "Master" definiert und 6 andere arbeiten dem zu - da macht dann einer das Netzwerk, einer die KI, einer die Texturen, einer die Positions- und Kollisionsvorausberechnung (nicht jeder Schritt wird sofort online abgeglichen), einer hält die Grafikkarte bei Laune und so weiter...
2 Kerne lohnen sich auch, wenn ein Programm überhaupt nicht darauf optimiert ist, alleine dadurch, dass das Programm jetzt einen der Kerne komplett für sich alleine hat; wogegen alles andere auf dem anderen Kern läuft.
Ein dritter lässt sich noch sinnvoll nutzen, wenn man "den dicksten Fisch" auslagert - so weiß ich, dass der Second Life-Client die Texturverarbeitung auf einen zweiten Thread verfrachten kann. Kern Nummer 4 zu beschäftigen, ist ziemlich schwierig, da man hier genau 2 dicke Fische finden muss - meist nicht so einfach, weil in den meisten derartigen Programmen viele, aber für sich jeweils eher harmlose und/oder in dem Aufwand ständig wechselnde Aufgaben anstehen. Mit 8 Kernen sieht die Sache anders aus: Hier wird ein Kern als "Master" definiert und 6 andere arbeiten dem zu - da macht dann einer das Netzwerk, einer die KI, einer die Texturen, einer die Positions- und Kollisionsvorausberechnung (nicht jeder Schritt wird sofort online abgeglichen), einer hält die Grafikkarte bei Laune und so weiter...
Azi
Lt. Junior Grade
- Registriert
- Jan. 2002
- Beiträge
- 495
MacroWelle schrieb:
Ahja und was hat das mit Desktop CPUs zu tun?
wikki schrieb:Die Zukunft besteht in meinen Augen nicht in der CPU. Da sind die Leistungssprünge imho viel zu gering.
Eigentlich ist es eher so dass die GPU sich immer mehr in Richtung CPU entwickelt.
buuge
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.187
wikki schrieb:GPU z.B. geht die Entwicklung richtig fix voran. Da merkt man deutlich nen Unterschied von einer 7800 auf eine 8800 usw. .
der einzige risige sprung von der 7er auf die 8er serie war vor zwei jahren, seitdem sind auch im gpu bereich immer nur kleine schritte gemacht worden. außerdem limitieren zurzeit in spielen (meistens) die grafikkarte, nicht die cpus, gta mal außen vor gelassen
Kenny [CH]
Commodore
- Registriert
- Mai 2008
- Beiträge
- 5.018
freue mich irgendwie auf das server sind immer cool zum rumschrauben auch wenn man "nur" in der ausbildung ist
@Denahar nicht ganz du musst wissen das Sparc Cpu vlt multi core sind aber lange nicht bis zu 3Ghz takten also würde ich nicht darauf hoffen das Intel schneller oder Sparc schneller ist den die archtetur ist ja ganz anderst lieber gut aus testen
@Denahar nicht ganz du musst wissen das Sparc Cpu vlt multi core sind aber lange nicht bis zu 3Ghz takten also würde ich nicht darauf hoffen das Intel schneller oder Sparc schneller ist den die archtetur ist ja ganz anderst lieber gut aus testen
- Registriert
- Juni 2006
- Beiträge
- 44.444
@kraligor
Meine Zimmerlampen müssen aber nicht mit Gehäuselüftern gekühlt werden, um zu brennen. Daher spielt der Verbrauch auch eine Rolle, sogar eine Große.
So ist der i7 eine tolle Cpu, aber trotzdem hätte ich ihn mir aufgrund des maximalen Verbrauches nicht geholt, weil ich nur nen Cube als Tower habe.
Meine Zimmerlampen müssen aber nicht mit Gehäuselüftern gekühlt werden, um zu brennen. Daher spielt der Verbrauch auch eine Rolle, sogar eine Große.
So ist der i7 eine tolle Cpu, aber trotzdem hätte ich ihn mir aufgrund des maximalen Verbrauches nicht geholt, weil ich nur nen Cube als Tower habe.
Ganz ehrlich: Ich finds hohl, was da zZ passiert. Die Anwendungen sind kaum DualCore optimiert, da kommen schon CPUs mit acht(!) Kernen.
Was soll das? Anstelle mal eine ordentliche Takt/Leistung hinzubekommen werden einfach immer mehr Kerne reingestopft, die dann logischerweise kaum ausgenutzt werden können, da die Anwedungen nicht verfügbar sind.
Naja, ist ja nur meine Meinung
Was soll das? Anstelle mal eine ordentliche Takt/Leistung hinzubekommen werden einfach immer mehr Kerne reingestopft, die dann logischerweise kaum ausgenutzt werden können, da die Anwedungen nicht verfügbar sind.
Naja, ist ja nur meine Meinung
Pandora
Admiral
- Registriert
- Aug. 2008
- Beiträge
- 7.577
Ich kann nur hoffen das das nicht auch wieder so ein Papiertiger wird, die Nehalem DS Systeme kann man ja auch noch nirgens wirklich kaufen
Und 2010 wird Intel wohl nichtmal mehr alleine mit einem Octa dastehen da AMD ja noch 2009 einen pseudo Octa auf basis der PII rausbringen will
Und 2010 wird Intel wohl nichtmal mehr alleine mit einem Octa dastehen da AMD ja noch 2009 einen pseudo Octa auf basis der PII rausbringen will
hm was meinst du denn wird mit den bisherigen servern gemacht die z.B 8 CPUs mit jeweils 4 Kerne haben?
Es gibt massig Software die zig Kerne unterstützen.
Du scheinst nur keine davon zu benutzen.
Manchmal sollte man auch über den Tellerrand hinaus blicken...
Es gibt massig Software die zig Kerne unterstützen.
Du scheinst nur keine davon zu benutzen.
Manchmal sollte man auch über den Tellerrand hinaus blicken...
weil die effizienz mit höheren ghz rapide abnimmt und es weniger strom verbraucht mehrere cores zu stacken oder besser eine cpu zu basteln die native aus mehreren cores besteht.mrs.piggy schrieb:Ganz ehrlich: Ich finds hohl, was da zZ passiert. Die Anwendungen sind kaum DualCore optimiert, da kommen schon CPUs mit acht(!) Kernen.
Was soll das? Anstelle mal eine ordentliche Takt/Leistung hinzubekommen werden einfach immer mehr Kerne reingestopft, die dann logischerweise kaum ausgenutzt werden können, da die Anwedungen nicht verfügbar sind.
Naja, ist ja nur meine Meinung
Aber ich sag mal so... mit einer <100W octacore CPU die um die 3GHz hat wäre ich schon sehr zufrieden.
Wiesi21
Lieutenant
- Registriert
- Aug. 2008
- Beiträge
- 856
wenn eine GPU eine CPU ersetzen soll, müsste sie sich ihre Architektur an die einer CPU annähern, da ansonsten viele Aufgaben nicht, oder nur mit unverhältnismäßigem Aufwand, gelöst werden könnten.
Die einzelnen Kerne einer CPU sind weitaus "mächtiger", als die "Streamprozessoren" der heutigen GPUs.
Eine GPU ist da, wo extremes Multithreading möglich ist (Bild- , Videobearbeitung bzw. überall wo ein Aufteilen der anstehenden Arbeit in sehr viele kleine Unterschritte möglich ist) natürlich auf Grund der vielen, aber vergleichsweise "schwachen" Ausführungseinheiten im Vorteil, aber umso mehr Anweisungen seriell und in Abhängigkeit voneinander ausgeführt werden müssen, desto schneller wird der Vorteil zum massiven Nachteil! Wollte man diesen Nachteil beheben, würde man dadurch zwangsläufig Geschwindigkeit bei der Kernaufgabe (Grafikberechnung) einbüßen...
CPU und GPU ergänzen sich eher sehr gut, und das wird bis auf weiteres so bleiben. Wenn man sich damit beschäftigt, wie schwierig bis unmöglich es ist gewisse Programme multithreaded zu entwickeln, sieht man schnell, dass es schlicht nur wenige Aufgaben gibt, welche sich gut parallelisieren lassen. Für alle anderen ist die CPU mit ihren leistungsfähigen einzelnen Kernen die einzige Wahl.
Die einzelnen Kerne einer CPU sind weitaus "mächtiger", als die "Streamprozessoren" der heutigen GPUs.
Eine GPU ist da, wo extremes Multithreading möglich ist (Bild- , Videobearbeitung bzw. überall wo ein Aufteilen der anstehenden Arbeit in sehr viele kleine Unterschritte möglich ist) natürlich auf Grund der vielen, aber vergleichsweise "schwachen" Ausführungseinheiten im Vorteil, aber umso mehr Anweisungen seriell und in Abhängigkeit voneinander ausgeführt werden müssen, desto schneller wird der Vorteil zum massiven Nachteil! Wollte man diesen Nachteil beheben, würde man dadurch zwangsläufig Geschwindigkeit bei der Kernaufgabe (Grafikberechnung) einbüßen...
CPU und GPU ergänzen sich eher sehr gut, und das wird bis auf weiteres so bleiben. Wenn man sich damit beschäftigt, wie schwierig bis unmöglich es ist gewisse Programme multithreaded zu entwickeln, sieht man schnell, dass es schlicht nur wenige Aufgaben gibt, welche sich gut parallelisieren lassen. Für alle anderen ist die CPU mit ihren leistungsfähigen einzelnen Kernen die einzige Wahl.
Kraligor
Commodore
- Registriert
- Sep. 2008
- Beiträge
- 4.989
@Zwirbelkatz:
Klar, solche Gründe sind einsichtig. Wenn es um Abwärmeprobleme etc. geht, kann ich das voll verstehen. Nur meistens geht es eben um den reinen Energieverbrauch, der aber verglichen zu anderen energieverbrauchenden Geräten (im Zweifelsfall Auto) so verdammt minimal ist, dass er eigentlich links liegen gelassen werden kann. Da wird sich dann daran aufgegeilt, dass CPU x 10W weniger TDP habe als CPU y, weshalb ja CPU y ÜBERHAUPTNICHT in Frage käme und überhaupt, wie könne ein Unternehmen nur so schlechte Ingenieure beschäftigen, dass die nichtmal die TPD senken könnten, etc. pp.
Naja, ich schweife ab.
Topic: Interessant, aber nicht unerwartet. Wäre mal an der Zeit, dass ein drittes Unternehmen den CPU Markt auffrischt (ich rede jetzt vom Desktopmarkt, von was anderem habe ich keine Ahnung ). Via hat sich ja leider immer weiter vom Markt zurückgezogen.
Klar, solche Gründe sind einsichtig. Wenn es um Abwärmeprobleme etc. geht, kann ich das voll verstehen. Nur meistens geht es eben um den reinen Energieverbrauch, der aber verglichen zu anderen energieverbrauchenden Geräten (im Zweifelsfall Auto) so verdammt minimal ist, dass er eigentlich links liegen gelassen werden kann. Da wird sich dann daran aufgegeilt, dass CPU x 10W weniger TDP habe als CPU y, weshalb ja CPU y ÜBERHAUPTNICHT in Frage käme und überhaupt, wie könne ein Unternehmen nur so schlechte Ingenieure beschäftigen, dass die nichtmal die TPD senken könnten, etc. pp.
Naja, ich schweife ab.
Topic: Interessant, aber nicht unerwartet. Wäre mal an der Zeit, dass ein drittes Unternehmen den CPU Markt auffrischt (ich rede jetzt vom Desktopmarkt, von was anderem habe ich keine Ahnung ). Via hat sich ja leider immer weiter vom Markt zurückgezogen.
<NeoN>
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.944
Ganz ehrlich: Ich finds hohl, was da zZ passiert. Die Anwendungen sind kaum DualCore optimiert, da kommen schon CPUs mit acht(!) Kernen.
Hast du die News eigentlich gelesen?
Hier geht es noch um den Servermarkt wo die Kerne sehr wohl benutzt werden und die Programme (wie schon in der News beschrieben) auf Multicores optimiert sind. Sonst wüden aktuelle Server mit 2 Quadcoreprozessoren ja keinen Sinn machen.
- Registriert
- Dez. 2005
- Beiträge
- 1.203
erst 2010? na dann kann sich amd ja freuen, dass sie nen ganzes jahr lang obenauf in dem bereich sind, hätte ich doch früher erwartet. Da muss wohl die entwicklung nicht so gelaufen sein,wie man sich das vorstellt. Den rest im artikel ist ja schon lange bekannt.
@sivka:
Das musste ja kommen.....*gähn*
Ist auch immer schön, dass hier Leute immer wieder mit so Ideen wie "das macht doch keinen Sinn", "ist doch ganz schön hohl", "sollte die lieber mal das oder jenes machen" kommen. Da haben wieder Laien, die grad mal nen PC zum spielen einschalten können und mal was von "DIEs" gehört haben, die Riesenklappe und wollen den Entwicklern von Intel erzählen, was im CPU-Bereich Sinn macht. Jaja, dreht die Taktraten hoch, macht doch nur noch einen SingleCore mit 10ghz, das wärs, dann würde alles besser laufen....mir tut meine Stirn schon vom vielen dagegenschlagen mit der flachen Hand weh.
Das musste ja kommen.....*gähn*
Ist auch immer schön, dass hier Leute immer wieder mit so Ideen wie "das macht doch keinen Sinn", "ist doch ganz schön hohl", "sollte die lieber mal das oder jenes machen" kommen. Da haben wieder Laien, die grad mal nen PC zum spielen einschalten können und mal was von "DIEs" gehört haben, die Riesenklappe und wollen den Entwicklern von Intel erzählen, was im CPU-Bereich Sinn macht. Jaja, dreht die Taktraten hoch, macht doch nur noch einen SingleCore mit 10ghz, das wärs, dann würde alles besser laufen....mir tut meine Stirn schon vom vielen dagegenschlagen mit der flachen Hand weh.
Ähnliche Themen
D
- Antworten
- 51
- Aufrufe
- 3.035
D
- Antworten
- 26
- Aufrufe
- 7.127
C
- Gesperrt
- Umfrage
- Antworten
- 1
- Aufrufe
- 910
J