Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel: Neue Chipsätze ab 14. Februar, „Z68“ bestätigt
- Ersteller Volker
- Erstellt am
- Zur News: Intel: Neue Chipsätze ab 14. Februar, „Z68“ bestätigt
- Registriert
- Juni 2006
- Beiträge
- 44.444
Dazu zwei Gegenargumente:EiRoGGe schrieb:Yes, Z68... zum Glück hab ich gewartet. Es gibt auch Leute die Interesse an einer 5-GHz-CPU haben und nicht zocken wollen. ;-)
- Es gibt "professionelle" Programme, die sehr von der Unterstützung seitens CUDA profitieren.
- Man hat einen zweiten Grafikkartenanschluß als Überbrückung, während man einen Defekt hat oder aufrüstet und auf die geplante Neuware wartet.
Nein, weil eine gescheite, moderne Grafikkarte ohnehin nur 10-15 Watt idle verbraucht. Wenn man sie dahin gehend noch ein wenig optimiert lassen sich diese Werte sogar noch mal optimieren.Da Biggy schrieb:Z68: kann ich dann dann mit nem sandy und IGP meine diskrete GraKa abschalten und den IDLE-Verbrauch massiv senken??
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.740
Naja beklagen kann man sich ja nu wirklich nicht über den Stromverbrauch mit meinen 2Karten bin ich bei
107 W im Idle.
Wenn die aus wären dann wahrscheinlich um die 70- 80W.
Obwohl dann wahrscheinlich die Efziens des Starken Nts anfängt sich schlecht auszu wirken weil mein NT so gross ist.
Wobei im vergleich zu damals mit einem Sockel 775 da waren die 200W mit hohem OC im Idle mit 65 Nm Quads und 1 Karte schon heftig.
Da hat sich doch über die Jahre schon einiges getan.
107 W im Idle.
Wenn die aus wären dann wahrscheinlich um die 70- 80W.
Obwohl dann wahrscheinlich die Efziens des Starken Nts anfängt sich schlecht auszu wirken weil mein NT so gross ist.
Wobei im vergleich zu damals mit einem Sockel 775 da waren die 200W mit hohem OC im Idle mit 65 Nm Quads und 1 Karte schon heftig.
Da hat sich doch über die Jahre schon einiges getan.
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.321
das würde mich auch interessieren...Alienate.Me schrieb:@tombstone
rein aus interesse, was bedeuten die zahlenkombinationen dahinter?
@Tombstone: Own3d?
Da Biggy schrieb:Z68: kann ich dann dann mit nem sandy und IGP meine diskrete GraKa abschalten und den IDLE-Verbrauch massiv senken??
Visualist schrieb:Wenn das Mobo in der Lage ist meine Grakas komplett abzuschalten würde ich mir überlegn bei der Tausch Aktion auf denZ68 umzusatteln.
ich denke dazu müssten erstmal alle Grafikkarten ihr Signal via PCIe and Mainboard weitergeben können, oder die IGP an den Anschluss der GPU. So einfach ist das also nicht möglich es sei denn man arbeitet schon lange an der Technik.
Optimus geht ja, aber das lässt sich schwer auf Desktop übertragen - ich weiß nicht genau wie das Bild Signal bei Notebook Platformen gehandhabt wird. Wie wird hier geswitched?
Außerdem brauchen neue Karten nicht mehr allzu viel saft idle...
Zwirbelkatz schrieb:Dazu zwei Gegenargumente:
.
- Es gibt "professionelle" Programme, die sehr von der Unterstützung seitens CUDA profitieren.
- Man hat einen zweiten Grafikkartenanschluß als Überbrückung, während man einen Defekt hat oder aufrüstet und auf die geplante Neuware wartet.
Naja CUDA und OpenGL an sich... sorry aber bei welchen Anwendungen bringt dir das bisher wirklich was? beim Knacken von Passwörtern... super.
Selbst das Wandeln mit Badaboom und ähnlichem erreicht bei weitem nicht die Qualität wie wenn man es per good old CPU macht. Aufgabengebiete zu finden, die sich massivst parallelisieren lassen und sich so eventuell eignen ist äußerst schwer. Bildverarbeitung ist offensichtlich noch eins der Hauptgebiete ... beim Packen / Komprimieren wirds schon schwerer ...
CUDA gibt es wie lange? DX11 und OpenGL gibt es wie lange? Wir können ja mal ne Umfrage machen wessen Rechner bereits deutlich von beidem profitiert.
Ich glaub von ner 5 Ghz CPU haben 99,5% der Leute heute noch mehr als von CUDA...
Selbst die heutigen CAD Programme sind meist CPU limitiert. Bei uns läuft Catia und UG NX nicht aufgrund fehlender GPU Power langsam... die scheiß SW frisst nur einen CPU Kern und der rennt dann am Limit. Auch hier wären 5 Ghz oder 20% mehr Effizienz/Takt von Vorteil
Zuletzt bearbeitet:
HL2Striker
Lieutenant
- Registriert
- Okt. 2008
- Beiträge
- 750
Oh wie süß von Intel uns an Valentienstag uns mit "neuen"Chipsätzen zu bedienen ^^
Spass bei Seite. Bin mal gespannt obs weiter so "reibungslos" läuft oder obs weitere Probleme gibt und sich die Auslieferung wieder hinzieht.
Der Z68 ist doch im Grunde genommen fast das selbe wie der P67 nur dass man zusätzlich den Grafikkern der CPU nutzen kann oder?
Spass bei Seite. Bin mal gespannt obs weiter so "reibungslos" läuft oder obs weitere Probleme gibt und sich die Auslieferung wieder hinzieht.
Der Z68 ist doch im Grunde genommen fast das selbe wie der P67 nur dass man zusätzlich den Grafikkern der CPU nutzen kann oder?
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.585
Visualist schrieb:Wenn das Mobo in der Lage ist meine Grakas komplett abzuschalten würde ich mir überlegn bei der Tausch Aktion auf denZ68 umzusatteln.
Na dann brauchst du dir nichts überlegen, denn das wird nicht der Fall sein.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ich hatte das nur vom Hörensagen so weiter gegeben und kenne mich im professionellen Officebereich keinen Meter aus. Soll mir Recht sein, was du sagstKrautmaster schrieb:Naja CUDA und OpenGL an sich... sorry aber bei welchen Anwendungen bringt dir das bisher wirklich was? beim Knacken von Passwörtern... super.
Selbst das Wandeln mit Badaboom und ähnlichem erreicht bei weitem nicht die Qualität wie wenn man es per good old CPU macht. Aufgabengebiete zu finden, die sich massivst parallelisieren lassen und sich so eventuell eignen ist äußerst schwer. Bildverarbeitung ist offensichtlich noch eins der Hauptgebiete ... beim Packen / Komprimieren wirds schon schwerer ...
Zum Stromverbrauch idle: Ja, da hat sich zum Glück wirklich vieles getan. Mit ein wenig Augenmaß sind Werte unter 100 Watt absolut kein Problem mehr, selbst wenn die Kiste für Highendgaming tauglich ist.
Schaltet der Treiber von AMD mittlerweile nicht automatisch eine etwaige Crossfirekarte im idle tot?Wenn das Mobo in der Lage ist meine Grakas komplett abzuschalten würde ich mir überlegn bei der Tausch Aktion auf denZ68 umzusatteln.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.321
@Zwirbelkatz
ich sehe Technologien wie OpenCL wirklich als gut an, nur sollte man sie nicht als Allerheilmittel für wahnsinniges Performance+ sehen.
Ich denke es werden sicher mehr Anwendungen werden die davon profitieren, nach wie vor meistens grafischer Natur. Das ist ja auch wünschenswert =)
Dauert aber noch...
meist ist der Treiber so verbuggt dass die Karte nicht mal mehr idled
Stromlos wäre mir neu, aber unter 100W ist selbst mit HighEnd Ausstattung drin ja...
Ich mein selbst CBs Testsystem mit 2600K + GTX 580 braucht gerade mal 80W idle. Für die Leistung recht gut verglichen mit meinem 1366 System.
ich sehe Technologien wie OpenCL wirklich als gut an, nur sollte man sie nicht als Allerheilmittel für wahnsinniges Performance+ sehen.
Ich denke es werden sicher mehr Anwendungen werden die davon profitieren, nach wie vor meistens grafischer Natur. Das ist ja auch wünschenswert =)
Dauert aber noch...
Schaltet der Treiber von AMD mittlerweile nicht automatisch eine etwaige Crossfirekarte im idle tot?
meist ist der Treiber so verbuggt dass die Karte nicht mal mehr idled
Stromlos wäre mir neu, aber unter 100W ist selbst mit HighEnd Ausstattung drin ja...
Ich mein selbst CBs Testsystem mit 2600K + GTX 580 braucht gerade mal 80W idle. Für die Leistung recht gut verglichen mit meinem 1366 System.
twixter
Lt. Junior Grade
- Registriert
- Aug. 2005
- Beiträge
- 332
Low schrieb:Die neue Möglichkeit heißt:
2500k / 2600k
+ Z68
+ 2133 DDR3 Speicher
CPU und Onboard Grafik übertakten (hat ja beides einen Turbomodus)
und dann schauen welche Spiele NICHT laufen.
Da solltest du dich mal genauer über den Turbo Modus in Verbindung mit der integrated GPU informieren. Entweder CPU Turbo oder iGPU Turbo, beides geht nicht.
Mal ganz dumm gefragt: Wie soll denn bitte die vom CPU integrierte Grafik über den PCIe-Anschluss über die Graka und schließlich auf den DVI/Whatever-Ausgang mit dem Bildschirm kommunizieren ? Glaub ja mal nicht das die Grafikprozessoren sonen Durchgang realisiert haben, also rein schaltungstechnisch. Runtertakten um im IDLE Energie zu sparen seh ich ja ein.
Freu mich auf Infos :-)
Freu mich auf Infos :-)
Dario
Captain
- Registriert
- Mai 2008
- Beiträge
- 3.290
LewTol schrieb:Mal ganz dumm gefragt: Wie soll denn bitte die vom CPU integrierte Grafik über den PCIe-Anschluss über die Graka und schließlich auf den DVI/Whatever-Ausgang mit dem Bildschirm kommunizieren ? Glaub ja mal nicht das die Grafikprozessoren sonen Durchgang realisiert haben, also rein schaltungstechnisch. Runtertakten um im IDLE Energie zu sparen seh ich ja ein.
Freu mich auf Infos :-)
Alle Geräte werden über den PCIe Bus angesprochen, diese Leitungen führen durch das ganze Board. Der PCIe Anschluß ist nur ein Port um weitere Geräte an den PCIe Bus zu hängen.
Es hat sich, auch wenn die GPU jetzt auf der CPU sitzt nichts am parallelen Anschluß verändert, außer daß man nun von kürzeren Wegen und einer direkten Kommunikation, auch mit dem Speichercontroller, profitiert.
Ergänzung ()
zocker85 schrieb:d.h. kann man in etwa abschätzen ab wann es die neuen boards geben wird, die lieferung von chips beginnt ja erst am 14. februar...
Es wurde ein Termin im April genannt, zieh mal ungefähr 2 Wochen weil das jetzt doch schneller ging, dann sind wir ungefär bei Ende März breiter Verfügbarkeit.
Zuletzt bearbeitet:
[F]L4SH
Rear Admiral
- Registriert
- Aug. 2008
- Beiträge
- 5.335
Wie konnten sich diese 5% Fehlerrate so hartnäckig halten? Man hat immer den Eindruck die Leute lesen nur diese !*BILDNIVEAU* PROBLEM INTEL!!!!1111 News. Es wurde doch danach selbst von Intel das Statement abgegeben, dass jeder Chip betroffen sein, weil ein paar Schaltungen zu viel Spannung bekommen. Man kann nur nicht sagen wie oft und schnell sich das bemerkbar macht. Ich tippe reproduzierbar auf 60-70%.
c2ash
Lt. Commander
- Registriert
- Dez. 2006
- Beiträge
- 1.603
Schon krass hier.
Leute kaufen sich mit höchster Begeisterung ein P67-Mainboard.
Dann kommt ein Bug. Dann wollen alle schnellst möglich ein neues Board ohne Fehler.
Dann lesen einige, dass ein neuer Chipsatz (Z68) kommt und schon will keiner mehr den P67 Chipsatz.
Die einzigen die mir hier Leid tun sind die Händler. Die bekommen alles ab.
Leute kaufen sich mit höchster Begeisterung ein P67-Mainboard.
Dann kommt ein Bug. Dann wollen alle schnellst möglich ein neues Board ohne Fehler.
Dann lesen einige, dass ein neuer Chipsatz (Z68) kommt und schon will keiner mehr den P67 Chipsatz.
Die einzigen die mir hier Leid tun sind die Händler. Die bekommen alles ab.
Ich find die neuen Chipsätze viel zu verwirrend o0
Bei der ersten Generation fand ich die Bezeichnungen noch recht in Ordnung, aber jetzt ... oh Hilfe o0
BTW: Gabs eigentlich schon Leute die ihre nicht K CPU schon wesentlich übertaktet haben oder hat Intel das OC jetzt wirklich erfolgreich unterbunden?
Bei der ersten Generation fand ich die Bezeichnungen noch recht in Ordnung, aber jetzt ... oh Hilfe o0
BTW: Gabs eigentlich schon Leute die ihre nicht K CPU schon wesentlich übertaktet haben oder hat Intel das OC jetzt wirklich erfolgreich unterbunden?
Crabman
Lt. Commander
- Registriert
- März 2006
- Beiträge
- 1.128
xebone schrieb:Ursprüngl. hiess es der Z67 wird erst gegen Jahresmitte kommen, jetzt isser in 2 Wochen da ...
Nicht zu früh freuen, ich weiß dass man die Meldung bzw. das, was CB daraus gemacht hat, so interpretieren kann, aber Z67 kommt afaik nicht in zwei Wochen, einzig die Auslieferung der korrigierten Chips hat sich nach vorne verschoben.
Servus,
das Thema interessiert mich wirklich: Es wurde ja angesprochen das die Komponenten an dem PCIe-Bus hängen. Kann mir ja vorstellen, dass die Grafikeinheit des Prozesors daran angeschlossen ist, aber das diese Barrierefrei über den Ausgang der Grafikkarten kommunizieren kann, kann ich mir nicht vorstellen. Warum sollten dann H67 und Z67 dann nen Grafikausgang auf dem Board realisiert haben ?
Vielleicht kann ja jemand mein Wissen ein wenig auffrischen. Danke vorab
LewTol
das Thema interessiert mich wirklich: Es wurde ja angesprochen das die Komponenten an dem PCIe-Bus hängen. Kann mir ja vorstellen, dass die Grafikeinheit des Prozesors daran angeschlossen ist, aber das diese Barrierefrei über den Ausgang der Grafikkarten kommunizieren kann, kann ich mir nicht vorstellen. Warum sollten dann H67 und Z67 dann nen Grafikausgang auf dem Board realisiert haben ?
Vielleicht kann ja jemand mein Wissen ein wenig auffrischen. Danke vorab
LewTol
Ähnliche Themen
- Antworten
- 140
- Aufrufe
- 27.335
- Antworten
- 48
- Aufrufe
- 8.123