@bensen
Was bedeutet "riesige Rechenpower benötigen"? Wenn ich einen meiner vielen Ordner mit zB. NASA-Mondfotos (TIFF) mal wieder mit Faststone scanne, dann wäre es schon fein, wenn ich auf die gesamte Thumbvorschau nicht 15s, sondern nur 5s warten müßte. Auch Datenbanken wie Lightroom oder Picasa nutzen merklich nur 2 Kerne.
Wenn ich eine (wie es sich gehört) OpenPGP Mail von 12MB mit mehreren Anhängen bekomme, dann würde ich mich schon freuen, wenn deren Dekodierung 2s und nicht 5s dauern würde. Vor allem, wenn ich in meinem Mailarchiv rumzappe.
Ich könnte das noch weiter fortführen, aber ich muß langsam haja. Soll ich mich nachmittags nochmals melden? Natürlich sind Mehrkerne eine Abhilfe. ODer sie könnten es sein. Die Situation sieht aber eben so aus wie ich sie hier im weiteren Verlauf beschreibe. Das wird sich eines Tages schon ändern, aber bevor man mich mit CPUs mit 12 Threads zuschei..., wäre merkbar mehr Leistung pro Thread noch eine ziemliche Weile sehr angebracht. imho
Intel geht aber in der letzten Zeit recht "billige" Wege. ZB. den Atom halte ich angesichts des Via Nano auch aus der Verbrauch/Leistung-Sicht für... erbärmlich. Ähnlich scheint sich das für den Desktop abzuzeichnen. Endlich mal den Speicherkontroller drangehängt und ab jetzt einfach nur immer mehr Kerne aneinander pappen und fertig. Noch bissl früh für sowas imho.
Wogegen massiv parallel für eine GPU und ihren Treiber schon seit Urzeiten täglich Brot ist...
Eon-Deon schrieb:
@BeeHaa
Dieses geheule das CUAD oder OpenCL die CPU in weiten Bereichen ersetzen könnte ist absoluter humbug.
Vielleicht hab ich mein Südsualesisch diesmal auch zu sehr raushängen lassen, aber geheult hab ich wirklich nicht.
Eine GPU kann nur einfache Berechnungen, welche sich extrem stark parallelisieren lassen, durchführen, mehr nicht.
Danke
Ich behaupte mal, daß ich darüber
mindestens genausoviel weiß wie du.
Was die 6 Kerner angeht, ich freu mich drauf. Man sollte nicht vergessen das die Entwickler mittlerweile immer mehr parallelisieren und langsam lernen es richtig zu machen.
Auch das ist falsch. Sie parallelisieren sehr langsam und lernen es noch langsamer.
DESWEGEN schreib ich auch - und das war auch der Kern meines Beitrags - daß ich mir erstmal noch merkbar mehr Leistung pro Thread wünschen würde (als mit meinem 3.7 Ghz Wolfdale) als daß ich mich mit 6 Kernen und 12 Threads beglücken lasse.
Die Softwareentwciklung hängt in der Regel knapp 2 Jahre hinter der Hardwareentwicklung zurück.
Ich kenne paar Entwickler bei EA, ich kenne sehr gut Igor Pavlov (7-zip) und noch paar andere Menschen aus dieser "Szene". Ich weiß schon was ich schreibe, wenn ich es schreibe. Meistens
Parallelisierung - die mit ihrem Ergebnis dem (Zeit)Aufwand gerecht wird - ist immernoch ein äußerst knochenharter Job.
Und letztendlich versucht man dabei momentan das was du als einzigen Vorteil von GPUs aufführst. Man versucht die Aufgabe in viele kleine einfachere "Chunks" aufzuteilen. Das zu syncronisieren ist aber nicht ganz ohne und kostet widerum Rechenzeit für die eigentlichen Aufgaben.
In den GPUs dagegen kümmert sich teils automatisch der Treiber drum, teils gibt es spezielle Einheiten dafür. Unter Windows zB. hat man weder das eine noch wird man dabei nenneswert von der CPU unterstützt.
Rohe Leistung pro Thread ist und wird immernoch stark gefragt. So schnell scheint sich das nicht zu ändern, denn auch großartige Entwicklungsumgebungen die genau diese Aufgabe verstärkt unterstützen gibt es immernoch nicht. Die Programmierer stehen größtenteils alleine mit dieser Aufgabe. Weder die Betriebssysteme noch die CPUs noch die Entwicklerwerkzeuge sind hierbei eine nenneswerte Hilfe. Das kann ich dir sagen, weil ich auch hier weiß wovon ich rede...
Bleibt die Frage ob man hier AMD absichtlich eine Lücke lässt.
Hierzu scheinst du dagegen recht ausgeschlafen zu sein