News „Sandy Bridge“ mit höherem Takt in Sicht

Floletni schrieb:
Fusion ist momentan nichts anderes als ein Grafikchip auf dem CPU DIE.

Bobcat und Zacate schon wieder vergessen? Als ob Fusion sich nur auf Llano begrenzen würde. :rolleyes:

Wenn du es nicht besser weißt, verkneif dir doch einfach einen Kommentar... Schaffen andere ja auch.
 
Kasmopaya schrieb:
Mit anderen Worten: Die Intel Grafik verhindert höhere Taktraten bei bleicher TDP im Desktop, obwohl die meisten Gamer sowieso eine extra Grafikkarte drin haben.

Wenn dem wirklich so wäre dann bin ich gespannt was ohne Grafik gehen würde da mein I5 2500k ohne Spannungserhöhung locker bis 4,5ghz geht. Aber wie vor mir schon Leute anmerkten wird ja die IGP eh angeschaltet so bald eine PCI-E Grafik zum Einsatz kommt.

Ich muß wirklich mal versuchen was als maximum geht, bisher habe ich nur ohne Spannungszugabe "rumgespielt" weil die Leistung eh mehr als ausreicht selbst @stock.
Aber interessant wäre es schon ob er über 5ghz geht.

FatFire schrieb:
Ich frage mich, warum Intel das Taktpotential der SandyBridge, welches ja zweifelsfrei enorm vorhanden ist (teilweise problemlos >4,5Ghz), nicht für neue Prozessoren freigibt und wenn dann in so Minischritten wie hier jetzt (hier mal 100Mhz mehr und dort mal 100Mhz mehr...).
Wollen sie sich das aufheben um gegen Bulldozer zurückzuschlagen wenn dieser sehr gut ausfallen sollte oder Angst die eigenen Serverprozzis zu gefährden? Eventuell sogar Probleme, mit SandyBridge-E deutlichen Abstand im Rahmen der TDP hinzubekommen, selbst wenn auf dem normalen SandyBridge noch eine IGP werkelt?

Oder stimmt vielleicht was mit SB nicht, was die Overclocker dann erst in ein paar Monaten merken? Fragen über Fragen...

Warum sollte Intel das machen? Sandy Bridge hat im Moment nicht mal den Hauch von Konkurrenz was Speed angeht also warum noch mehr speed? Ist doch viel "schlauer" wenn man mit dem Takt immer um 100mhz raufgeht und so immer schön neue CPU modelle bringen kann. Ausserdem kann dann Intel sobald BD draussen ist einfach den Takt auf 4ghz hochdrehen und BD ist bis Ivy wahrscheinlich in Schach gehalten.

FatFire schrieb:
Oh, Ideen hat AMD auch, teilweise innovativer als Intel. Und bisher wird das Fusion-Konzept ja auch sehr gut angenommen. Llano wird wohl ähnlich wie Brazos einschlagen, denn den Großteil der Nutzer interessiert die Leistungskrone herzlich wenig, laufen muss der Kram.
Aber im hier angerissenen Servergeschäft muss AMD auch unbedingt mal wieder auf die Beine kommen, da winkt das große Geld und ausgerechnet da bekommen sie momentan nichts gebacken.

Von Ideen allein kann man aber nicht leben, was glaubst du wieviele Leute tolle Ideen haben und trotzdem nichts erreichen. Es kommt immer auf die Umsetzung an und da ist AMD in letzter Zeit eher schwach.

Floletni schrieb:
@jusaca
Ja kann man mit dem Z68 und wenn der Hersteller an Lucid Lizenzgebühren abgedrückt hat. Da sich aber die Grafikkarte nicht abschaltet ist diese Technologie eher nutzlos.

Nutzlos würde ich nicht sagen aber nur für bestimmte Anwendungsfälle interessant ala Quick Sync z.b.
 
yasu schrieb:
Bobcat und Zacate schon wieder vergessen? Als ob Fusion sich nur auf Llano begrenzen würde. :rolleyes:

Wenn du es nicht besser weißt, verkneif dir doch einfach einen Kommentar... Schaffen andere ja auch.

Nein die habe ich natürlich nciht verpasst. Die einzigen die den Start verpasst haben war AMD`s Marketing Abteilung.

Beim Bobcat ist es momentan auch nur eine CPU mit intergrieter Grafikeinheit. Es sit nur ein andere Name.

@terraconz
Das man Quick Sync mit einer dedizierten Grafikkarte ist der einzigste Vorteil dieser Software. Mehr hat sie nicht. Keine Stromersparnis, teilweise weniger FPS durch den Overhead.
 
Kasmopaya schrieb:
Quasi wieder der Server Sockel mit (höchstwahrscheinlich) unverhältnismäßiger hoher Leistungsaufnahme...

Hoffentlich wird der Bulli was, Intels Zwangs Sockel Politik will ich nicht haben.

?

die CPUs von dem Link die ich postete und die der News sind für den Sockel 1155, viel effizienter geht gerade nicht da mim passenden Board ein 2600k auf <20W idle kommt (trotz HD3000 an Bord).

Die Xeon Sandy Bridge die es gerade gibt lassen sich sicher fröhlich auf einem normalen H61 / H67 / Q67 / P67 / Z67 Board betreiben.

http://premierconfigure.euro.dell.c...31&oc=WT16001&~tgt=global_cfg&c=DE&l=de&s=PAD

siehe hier, Dells T1600 lässt sich mit normalen i3 als auch den Xeon Modellen ausstatten.

ZB http://geizhals.at/deutschland/a615497.html

Keine IGP. 188€. 4 Kerne und HT (also praktisch ein i7 2600). 80W TDP. Mit 200 Mhz weniger allerdings.

War "früher" das Mittel der Wahl wenn man günstig weit OC wollte da die Xeons meist besser gingen.
 
Zuletzt bearbeitet:
Floletni schrieb:
Beim Bobcat ist es momentan auch nur eine CPU mit intergrieter Grafikeinheit. Es sit nur ein andere Name.
Ändert aber nix daran, dass du nach wie vor konsequent zu ignorieren scheinst, dass man bei AMD der Ansicht war und ist, dass bereits jetzt nicht mehr von CPU und IGP gesprochen werden kann, sondern in diesem Fall von APU, da es mehr ist als nur ne GPU aufs DIE der CPU zu klatschen...

Dafür steht Fusion. Da hat man mit Bobcat angefangen, macht mit Llano weiter und wird dann mit der Bulldozer-Architektur in Form von Trinity einen weiteren Schritt unternehmen.
 
Trotzdem wäre doch eine cpu ohne gpu (wenn auch deaktiviert) besser da man so den platz für weitere transistoren nutzen könnte bzw der die gleichmässiger gekühlt werden würde oder liegt da jetzt nen falscher denkansatz bei mir vor.

Andererseits wenn nvida bei phys-x mal konkkurenz bekommen würde mit einem neuen standard von amd / intel könnte man die integrierte gpu doch locker dann dafür nutzen. müsste dann doch immer noch effizienter sein, als wenn mans die cpu berechnen lässt von platzverbrauch/watt verhältniss gesehen.

Aber ja nen 2100k hm lecker lecker aber werden wir wohl nie sehen.
 
Wozu das?

2500K kaufen , Multi hoch und gut ....

jap. sehe ich auch so. das ganze ist es mir echt nicht wert. Mein Hardware ist echt nicht high end aber für mich vollkommen ausreichen!
 
Floletni schrieb:
Übertakten ist da überhaupt kein Thema. Dort geht es um Stabilität und Garantie, wie du schon selbst geschrieben hast. Die Mainboards haben dafür auch überhaupt keine Optionen. Wie kommt man nur auf solche Gedanken?

jusaca schrieb:
Vermutlich aufgrund der Geiz ist Geil Einstellungen, der auch Unternehmen zunehmend frönen.
Warum also nicht sparen? Sicherheit der Daten ist doch heute eh egal... Die Kunden sind ja schon abgehärtet, die regen sich dann halt zwei Tage auf, man verspricht eine Entschädigung, lässt alles "verjähren" und alle sind glücklich.

Wenn die CPU Hersteller "Black Edition" und "k"-Modelle verkaufen, die sich ohne Probleme übertakten lassen und dabei keine Garantie verlieren, scheint dass ja wohl auch von den CPU Herstellern gewollt zu sein. Und die neuen Modelle mit 100Mhz mehr, wie sie immer Tröpfchenweise auf den Markt kommen, nach dem Release der aktuellen CPUs sind doch auch nichts weiter als von Werk aus übertaktete Chips.
Stabilität kann man testen.
Zu Zeiten wo da mit Bleistift auf dem CPU PCB rumgemalt wurde, war das logischerweise undenkbar. Aber heute?
Daher die Frage.

Zu dem Lucid Virtu:
Solange das nicht wie Nvidia Optimus eine der beiden Karten komplett abschalten kann, relativiert sich der Sinn. Man kann lediglich bei Nvidia Karten die iGPU dazu nutzen einen dritten Monitor anzuschließen.
 
Würde ich nicht gleich mit neuem Board, Speicher und Prozessor bei Ca 400 Euro landen wäre sandy direkt gekauft...
 
jusaca schrieb:
Aber wozu sollten sie schnellere Modelle raubringen? Sie sind doch an der Leistungsspitze.
Wenn jetzt bereits 4Ghz-Modelle verkauft würden, was wäre dann noch Kaufanreiz für die nächste Generation in 22nm?
Das ist der erste Punkt.
Der zweite ist der, dass momentan alle - und zwar wirklich alle - Spiele locker mit nem 2500
versorgt sind.
Der dritte Punkt: durch drastisch schnellere Sandys würde man sich den 990X vollends kaputt
machen, so arg viel Abstand zum 2600 ist da ja nicht. Und dennoch wird er für ein paar spezielle
Anwendungen oder von ein paar wahnsinnigen Normalverbrauchern regelmäßig gekauft.
 
Ändert aber nix daran, dass du nach wie vor konsequent zu ignorieren scheinst, dass man bei AMD der Ansicht war und ist, dass bereits jetzt nicht mehr von CPU und IGP gesprochen werden kann, sondern in diesem Fall von APU, da es mehr ist als nur ne GPU aufs DIE der CPU zu klatschen...

Dafür steht Fusion. Da hat man mit Bobcat angefangen, macht mit Llano weiter und wird dann mit der Bulldozer-Architektur in Form von Trinity einen weiteren Schritt unternehmen.

Was er sagt ist aber richtig. Das ist Marketing. Es besteht da überhaupt kein Unterschied zu den CPUs von Intel... CPU-Kerne mit einer GPU auf einem Die - bzw. kann man im Fall von Bobcat wegen den Größenverhältnissen auch sagen, es wäre eine GPU mit CPU-Kernen auf einem Die. ;-)
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
Ein i3 2100k würde mir besser gefallen. Für Gamer, die auf den Stromverbrauch achten, dürfte das das Nonplusultra sein.


Ja das wünschen sich viele. Deshalb läuft auch seit gestern ne schöne Ente durchs Netz, die einen vorhersagt. Grundlage dafür ist aber ein simpler Tippfehler, der bei den Kollegen von Techpowerup mitlerweile auch gefixed ist: http://www.techpowerup.com/reviews/AMD/Phenom_II_X4_980/2.html (Tabelle unten hatte vorher einen 2120K anstatt 2120 gezeigt)
 
Zwirbelkatz schrieb:
Ein i3 2100k würde mir besser gefallen.

Ein 2390T würde mir noch besser gefallen.
Gamer, die auf den Stromverbrauch achten, sollten einfach zu einem Brettspiel greifen, das verbraucht überhaupt keinen Strom. ;)

Eine volle Unterstützung des Befehlssatz ist mir wichtiger als Gamerkiddies und AES gibt es leider nur bei den Quadcores, Xeons od. dem besagten 2390T Dualcore.
 
CHAOSMAYHEMSOAP schrieb:
Gamer, die auf den Stromverbrauch achten, sollten einfach zu einem Brettspiel greifen, das verbraucht überhaupt keinen Strom. ;)
Blablub. Fürn Brettspiel braucht man Zimmerbeleuchtung, die kostet auch Strom ;)

Es macht schon nen Unterschied, ob man sich nun nen 1100T @4GHz+ (>140W) mit ner
GTX480 (295W) oder nen 2600 (95W) mit ner HD5870 (188W) in den Rechner steckt.

Gamen kann man auf beidem super, auch in Zukunft noch. Aber wenn viel gespielt wird sieht
man den Unterschied auf der Stromrechnung vermutlich ziemlich deutlich.
 
yasu schrieb:
Ändert aber nix daran, dass du nach wie vor konsequent zu ignorieren scheinst, dass man bei AMD der Ansicht war und ist, dass bereits jetzt nicht mehr von CPU und IGP gesprochen werden kann, sondern in diesem Fall von APU, da es mehr ist als nur ne GPU aufs DIE der CPU zu klatschen...

AMD baut eine große IGP zu seinen CPU`s CPU auf nen Chip und nennt es APU. Was ist da mehr als nur ne GPU aufs DIE der CPU zu klatschen...?

bensen schrieb:

Das weiß er glaub ich auch nicht mal.
 
Die GPU und CPU können durch Fusion viel besser zusammen agieren. Der GPU Teil für leichtere Befehlsätze ist da halt viel schneller und den Rest übernimmt die CPU, bei Intel geht das nicht.
 
Momentan agiert da gar nichts zusammen. DIe CPU macht ihr Ding die IGP macht auch das was sie vorher geamcht hat. Sie sitzen jetzt nur auf ein DIE.

Mit DX10 kamen programmierbare GPU`s, die derzeitigen Intel IGP`s sind DX10 konform. Mit Ivy kommt dann OpenCL. Also sollte dann gleichstand herschen.

APU ist einfach ein Wort was AMD erfunden hat, GEnau wie Intel seinen L3-Cache jetzt Last-Level-Cache nennt. Egal ob AMD, Intel oder später vielleicht noch VIA wird die IGP immer mehr integriert sein und übernimmt vielleicht die Aufgaben der SSE Einheiten und ersetzt diese. Nur momentan ist es einfach nur eine IGP auf dem CPU DIE.
 
Zurück
Oben