News Intels „Ivy Bridge-E“ für Desktop-Systeme mit wenigen Neuheiten

@ BlackWidowmaker
Sowohl VIA als auch Nvidia haben damals zeitweise ziemlich gute Chipsätze angeboten. Diverse VIA KT hatten z.B. einen recht guten Ruf und jahrelang hat Nvidia die besten Chipsätze für AMD-CPUs hergestellt (weshalb sich nicht wenige wunderten, als AMD sich mit ATi zusammentat und nicht mit Nvidia). Es gab später auch sehr gute nForce-Chipsätze für Intel-CPUs. Ich hatte selbst ein Mainboard mit 680i SLI. (Der Rechner tut auch heute noch seinen Dienst bei meinem Neffen.)

Klar waren besonders die Intel-Chipsätze damals meist absolute Spitze, aber eben auch deshalb, weil ihnen ständig Konkurrenz im Nacken saß.
 
Es wird wirklich mal wieder Zeit für einen Technologiesprung... Software-Entwicklung kann nicht sämtlichen Fortschritt stemmen... Denn gleichzeitig steigen die Anforderungen an die Rechenleistung enorm! Am Institut meiner Freundin muss teilweise 6 Wochen auf Rechenergebnisse gewartet werden. Eine Performance-Steigerung von 100% würde hier einiges bewirken. So ein Institut hat eben leider auch nicht die Mittel für Multi-Sockel-Systeme, da steht bestenfalls das Ein-Sockel-Flaggschiff. Also: wenn die Entwicklung bei der CPU-Leistung stehen bleibt, dann wird sie auch in anderen Bereichen behindert.

Konkurrenz muss natürlich sein. Ich habe solange es ging immer AMD-Systeme empfohlen. Das war zuletzt beim X6, der sich gegen die erste i7-Generation noch ganz passabel behaupten konnte. Auch in vielen "Standard"-Rechnern, die ich in den letzten Jahren zusammengebaut habe, steckt AMD. Sogar in der Mehrzahl. Aber zunehmend werden beim nächsten Neukauf Intel-Systeme daraus. AMD ist immer dann abgeschlagen, wenn jemand mehr als absolute Surf- und Office-Anwendungen haben möchte. Natürlich kann man sagen, dass AMD derzeit auch bei fordernden Anwendungen ausreicht, aber ich denke ja auch mal 5 oder 6 Jahre weiter, denn solange hält ein normaler Rechner mindestens. Und da muss dann eben doch ein bisschen mehr Leistung sein, während der Verbrauch auch nicht zu hoch sein sollte -> Intel! Schade eigentlich, denn das war früher ein AMD-Heimspiel.

Um den Bogen zu spannen: Diese Schwäche im Bereich >(größer als)Office/HTPC sorgt dafür, dass Intel sich Jahre lang auf der gleichen Architektur ausruhen kann und erst nach 2 Jahren im Enthusiasten-Segment nachziehen muss. Aus deren Sicht absolut nachvollziehbar, jedoch schlecht für die Kunden mit Leistungsbedarf.
 
Zuletzt bearbeitet:
nukular8400 schrieb:
Es wird wirklich mal wieder Zeit für einen Technologiesprung... Software-Entwicklung kann nicht sämtlichen Fortschritt stemmen...

also rechenleistung ist oft genug vorhanden aber scheitert auch oftmal an der software.
ich finds auch schoen 6 kerne zu haben aber spiele die mit allen kernen (inkl. der virtuellen) etwas vernuenftiges anfangen koennen kann man auch an zwei haenden abzaehlen...

und als beispiel Hitman 5 kann nichtmal was mit HTT was anfangen und diese technologie gibts jetzt schon ne zeit lang...
also meiner meinung nach sollten die programmierer sich mal mehr muehe geben.
ich glaube auch nicht das sauber programmierte spiele 20gb auf der festplatte einnehmen muessen.
 
Das ist eindeutig eine Auswirkung des Monopols. Ich krieg langsam echt ein Hass auf Intel wegen ihrer Innovationsverweigerung. Alle Resourcen werden lieber in den scheiß Spielzeug-Mobilsektor gesteckt, für wahres High-End bleibt nichts übrig.

Was kann Intel dafür wenn Microsoft und Entwickler nicht mitziehen?
Intel hat auf Grund des qualitativen Softwaremangels bzw. Entwicklermangels die pro MHz Leistung verbessert.
PC Spiele/Software die Hardwareressourcen zu 100% ausschöpfen kannst du auf einer Hand abzählen.

Wo sind denn all die tollen Open CL Anwendungen geblieben ???
 
Zuletzt bearbeitet:
Eisenfaust schrieb:
USB 3.0 ist nach meiner Ansicht nun nicht ein Stein des Anstoßes, denn mittels Zusatz-Chips kann man zwei oder vier Ports problemlos nachrüsten. Nur stellt sich eben instantan die Frage nach der Einbettung - eine PCIe 2.0-Anbindung über den X79 wäre nur mit 4 Lanes vernünftig, um die gesamte Bandbreite der vier USB-Peers auch bereitstellen zu können
Rechnet man pro USB 3 Port 400 MB/s, reden wir bei zweien schon von 800 MB/s und bei vier von 1,2 GB/s.
Mal davon ab, dass ich diese Rechnung nicht ganz verstehe... :p
Das ganze ist schon sehr theoretisch berechnet. Wenn du 4x volle USB 3.0 Ports auslasten willst, brauchst du auch 4 Controller.
Die meisten werden sich wohl mit einen Controller mit 4 Ports begnügen.

@NeoGeo
Wieso sollte eine verbesserte pro MHz Leistung Innovationen verhindern?
 
Zuletzt bearbeitet:
nukular8400 schrieb:
Software-Entwicklung kann nicht sämtlichen Fortschritt stemmen
Die SW-Entwickler müssen aber schon so flexibel sein, dass sie die aktuelle Rechnertechnik möglichst gut ausnutzen. Zwar lassen sich nicht alle Probleme parallelisieren, aber sicher mehr als es derzeit üblich ist.

Jahrelang hatten die CPU nur einen Kern und die Performance wurde über mehr Takt gesteigert, dann über mehr Effizienz (IPC) und das sie die Grenze nun bei etwa 4GHz gezeigt hat, wird nun die Leistung über mehr Kerne gesteigert. Das erfordert nun eben bei den Programmierern eine massive Umgewöhnung und es ist mit viel Arbeit verbunden bestehende SW entsprechend umzuschreiben. Es ist aber nicht zu vermeiden, denn künftig wird mehr Performance vor allem über noch massivere Parallelität erreicht werden müssen.
nukular8400 schrieb:
Am Institut meiner Freundin muss teilweise 6 Wochen auf Rechenergebnisse gewartet werden. Eine Performance-Steigerung von 100% würde hier einiges bewirken. So ein Institut hat eben leider auch nicht die Mittel für Multi-Sockel-Systeme, da steht bestenfalls das Ein-Sockel-Flaggschiff.
Das muss aber ein wirklich armes Institut sein, wenn sie sich nicht einmal ordentliche Rechner leisten können. Die Berechnungen scheinen nicht viel einzubringen, wenn die es sich ehr leisten 6 Wochen darauf zu warten statt sich HW zu kaufen um die Zeit zu verkürzen.
nukular8400 schrieb:
Also: wenn die Entwicklung bei der CPU-Leistung stehen bleibt, dann wird sie auch in anderen Bereichen behindert.
Die CPU Leistung wird doch immer besser, aber eben nicht mehr Pro Kern, zumindest nicht mehr wesentlich.

Die Idee hinter AMDs Fusion APU ist ja auch genau die, dass man auch kleine, gut parallelisierbare Berechnungen an die GPU Seite abgibt. Dies scheitert bei externen Karten daran, dass man erst die Daten auf die Karte übertragen muss und es sich wegen des Overheads eben nur für Aufgaben lohnt, die viele Berechnungen auf wenig Daten ausführen. Nur mangelt es auch da an der SW-Unterstützung und bei AMD wohl an den Mitteln diese entsprechend anzuschieben, bevor sie auch in dem Bereich von Intel überholt werden, denn von SandyBridge über IvyBridge zu Haswell steigert Intel ja vor allem die Performance der GPU.

Das könnte natürlich auch ein Grund sein, warum Intel sich mit dem Enthusiasten-Segment Zeit lässt, denn da haben die CPUs ja keine integrierte GPU und somit wären die Steigerungen wohl ehr gering, wenn man nicht auch mehr Kerne bietet. Diese brauchen aber wieder mehr Energie bzw. müssten mit weniger Takt laufen um die TDP einzuhalten und dann wäre die Single-Thread Performance wieder geringer. Ob man dass mit dem Turbo alleine ausgleichen könnte?
 
Zuletzt bearbeitet:
Das erfordert nun eben bei den Programmierern eine massive Umgewöhnung und es ist mit viel Arbeit verbunden bestehende SW entsprechend umzuschreiben.

Open CL ist die Antwort ... leider sind die Coder nicht fähig genug dies zu nutzen (zumindestens unter Windows).

Deswegen gibt es die Tegra Plattform.

CES_Nvidia_zeigt_Gaming-Handheld_Project_Shield-Tegra-4-Kraftzwerg-Story-346668_630x356px_ec31a8a32321525588bacd3cb80493eb__story2_jpg.jpg


projshield.jpg

Nvidia_Tegra_und_Co_3.png


Wieso sollte eine verbesserte pro MHz Leistung Innovationen verhindern?

Was bringen mir Hardware-innovationen wenn die Plattform (PC) und deren Softwareentwickler sie nicht nutzen?
Windows/Microsoft will sowieso nicht mehr das am (PC) gespielt wird. Die Xbox 720 seht vor der Tür.
 
Zuletzt bearbeitet:
Zurück
Oben