News „Haswell“-Chipsatz „Lynx Point“: Mehr SATA 6 Gb/s und USB 3.0

BlackWidowmaker schrieb:
Am Anfang hieß es auch "wer braucht schon USB" oder "wer braucht schon mehr als 2 USB Anschlüsse", aber ich möchte nicht wissen wieviel Probleme auftraten weil man USB 2.0 Geräte in USB 1.1 Anschlüße reinsteckte und nichts funktionierte. Nichteinmal wegen der Übertragungsgeschwindigkeit sondern wegen dem höheren Stromverbrauch.

USB 3.0 bietet nicht nur höhere Transferraten sondern auch die Möglichkeit die Anschlüße stärker zu belasten. Schon heute gibt es Endgeräte die auf diesen höheren Strombedarf aufsetzten, z.B. TFT Monitore die direkt von USB 3.0 mit Strom versorgt werden.

Naja aber bei USB 3.0 wird es nicht so eine Flut von Geräten geben wie bei USB 2.0 für das es zig Gadgets und Gimmicks gibt. Mäuse, Tastaturen, Controller werden weiterhin USB 2.0 nutzen da hier im Normalfall nicht der Strombedarf gegeben ist. (Ausnahme evtl mal Keyboards mit integriertem USB 3.0 Hub - was aber eher eine Seltenheit bleiben dürfte). Und die Eingabegeräte belegen ja normalerweise einen guten Teil der USB-Anschlüsse. Kopfhörer, Headsets, Webcams etc dürften auch in den seltensten Fällen USB 3.0 benötigen.
 
Schon heute gibt es Endgeräte die auf diesen höheren Strombedarf aufsetzten, z.B. TFT Monitore die direkt von USB 3.0 mit Strom versorgt werden.

Quellle? Nix gelesen bisher würd mich daher mal interesieren.

Mag sein, aber 50% dieser 99% haben nichtmal eine Ahnung daß es "gute" und "schlechte" Ports gibt und stecken ihr DVD-Laufwerk auf SATA-III und ihre Vertex 3 dann in einen SATA-II Port rein.

Dass 50% der Schrauber so dumm sind bezweifele ich doch mal sehr stark. Und bei den Fertig-PCs wird man sowas auch nicht vorfinden in der Regel
 
"Intel fuhr mit „Sandy Bridge“ und wird auch mit „Ivy Bridge“ ab April dieses Jahres insbesondere bei SATA mit 6 Gbit/s weiterhin nur im zweiten Gang fahren und damit der Konkurrenz hinterher hängen, die bereits seit geraumer Zeit sechs Gänge, sprich sechs Ports für den schnellen SATA-Standard bietet."

Ein starkhinkender Vergleich und mit "In der Gegenwart angekommen" hat das ganze auch nichts zu tun. Mehr als 2 Sata 6GB/s werden von KEINEM Privatanwender in der Gegenwart benötigt.
 
Was die ferne Zukunft bringt weiß niemand. Doch heute und auch in naher Zukunft seh ich mit "nur" 2 Sata6 Ports für den Heimanwender keine wirkliche Einschränkung.
 
Bis jetzt haben sie USB 3.0 ignoriert und damit eine hohe Verbreitung vermieden.

Warum ich das gut gefanden hab?

Weil Thunderbolt die bessere Technologie ist. Schade, jetzt wird das nichts mehr.
 
Och, sowas hätte ich gerne schon für Ivy! Zumindest USB3, zZ. rüsten Familie und Freunde alle USB3 nach, da sind mehr als 2 Ports schon gut. Mehr als 2 SIII Ports sind auch mMn. nicht unbedingt notwendig (als Heimanwender, für höhere Ansprüche empfiehlt sich dann eben eine ordentliche Controllerkarte), denn bis die Magnetfestplatten diese Marke durchbrechen wird noch viel Zeit vergehen.
 
Ignorieren wir mal das man mehr SATA3-Ports eigentlich wirklich nicht braucht ... Wieso stellt sich eigentlich keiner die Frage wie man die Ports dann auslasten will? Denn der Flaschenhals bleibt die Chipsatzanbindung (Bandbreite). Gerade was USB3 betrifft, entweder man ist zu faul umzustecken oder man kann die Bandbreite sowieso nicht nutzen.

Ich weiß nicht wie die Situation bei AMD aussieht (Bandbreite), aber ich denke mal auch nicht wirklich besser.
 
WAAAAS?! Deren Chipsätze werden immer noch in 65nm gefertigt?
Das ist ja mindestens seit 2006, die ersten Core 2 Duos wurden auch mit 65nm breiten Strukturen gefertigt. Sind deren Chipsätze dann noch in >=95nm gefertigt worden?

Intel hat ja schon mit der Atom Plattform gezeigt, dass sie nur ihre CPUs im Sinn haben und gar nicht daran denken, ihre alten vermurksten Chipsätze aufzubrezeln.

Wie wäre es, wenn, sofern die Kapazitäten hoch genug sind, alle Chips nur noch in 22nm mit Tri GateTransistioren zu produzieren?

Und Kohle in die Hand nehmen, um die ur alten Chips auf aktuellen Stand zu bringen?

Wo wir schon dabei sind: Bei dem Reingewinn den Intel jedes Quartal macht, bezahlen die das aus der Kaffeekassa. Aber mal nen ordentlichen Grafiktreiber zu schreiben, bedarfs es wohl mehr Kohle.

Spätestens wenn AMD die, ich sage einmal "Full Fusion" gelingt, wird Intel sehen, was sie davon haben. Von der reinen CPU Leistung deutlich in Front, aber immer nur so nen popligen Grafikkern auf das DIE dazugelötet damit irgendwie ein Bild rauskommt. Und wohl noch einige zeit DX9 und ohne Chance auf Hardwarebeschleunigung.
Und die full fused AMDs werden ne Bombe, so wie damals die Athlon 64 gegen den Pentium 4, und als Dualcore Athlon 64X2 gegen Pentium D.

Aber mal sehen was die Zukunft bringt und ob Intel in der Zwischenzeit nicht zu weit davonzieht.
Naja, immerhin macht AMD im Serversegment Boden gut, hat LIano und Trinity für günstige Multimedia PCs und die Grafikkarten sind sehr gut und schon wieder deutlich schneller vor NVIDIA am Markt.

MfG
 
Athlonscout schrieb:
Naja, was deren Chipsätze angeht (nativer USB 3 Support, 6 x SATA III) hinkt man dem Konkurrenten satte 2 Jahre hinterher...
Bei SATA hast du recht, aber bei USB 3.0 ists ja nicht mal nen jahr. Nur zur Erinnerung, Llano kam erst Mitte letzten jahres zur Welt.

Beim CougarPoint war 2x SATA 6 Gb/s noch nachzuvollziehen, SSDs noch nicht soo weit verbreitet und erst recht nicht mit SATA 6 Gb/s. Beim Panterpoint ist das ganze schon grenzwertig. Gut mehr als 2 SSDs werden nicht viele haben, aber da man das Board noch ne Weile nutzt, ist das ganze schon ungewiss. Mit Lynxpoint sind dann mehr 6 Gb/s-Ports einfach Pflicht.

BlackWidowmaker schrieb:
Mag sein, aber 50% dieser 99% haben nichtmal eine Ahnung daß es "gute" und "schlechte" Ports gibt und stecken ihr DVD-Laufwerk auf SATA-III und ihre Vertex 3 dann in einen SATA-II Port rein.
Halte ich für vollkommen übertrieben. Und wer nicht mal die Beschriftung der Ports oder das Handbuch liest oder lesen kann gehört eh bestraft.
aber ich möchte nicht wissen wieviel Probleme auftraten weil man USB 2.0 Geräte in USB 1.1 Anschlüße reinsteckte und nichts funktionierte. Nichteinmal wegen der Übertragungsgeschwindigkeit sondern wegen dem höheren Stromverbrauch.
Da hat sich doch von 1.1 nach 2.0 nichts getan. :confused_alt:

voon schrieb:
dafuer und was will man mit mehr als 4 USB 3 ports? Allzuviele schnelle devices hat man i.d.R. nicht und selbst wenn, passt da auch ein 3.0 HUB dran.
Naja momentan mag das ja ausreichen, aber 2013 und folgende Jahre die man das Mainboard hat, kann man schon mehr gebrauchen. 2 gehen ja schon für Front-USB am Gehäuse drauf. Hinten will man auch mind. 2 haben und ein weiterer interner Anschluß wäre noch toll wenn man denn nen internen Cardreader verbauen will. Schwupps und schon ist man bei 6 Ports.

RuhmWolf schrieb:
Mehr als 2 Sata 6GB/s werden von KEINEM Privatanwender in der Gegenwart benötigt.
Bla blub. Solche Verallgemeinerungen sind immer Mumpitz. Das mag auf die meisten User zutreffen, aber es gibt sicher vereinzelt Leute die schon mehrere SSDs im Betrieb haben.

Smartbomb schrieb:
WAAAAS?! Deren Chipsätze werden immer noch in 65nm gefertigt?
Das ist ja mindestens seit 2006, die ersten Core 2 Duos wurden auch mit 65nm breiten Strukturen gefertigt. Sind deren Chipsätze dann noch in >=95nm gefertigt worden?
Sicher. Was glaubst du denn wie viele Fabriken die auf einmal auf die neue Fertigung umstellen können? Die ersten Core2 Chipsätz waren noch in 130nm gefertigt. Der erste in 65nm war der P45, da waren die CPUs schon bei 45nm.
Wie wäre es, wenn, sofern die Kapazitäten hoch genug sind, alle Chips nur noch in 22nm mit Tri GateTransistioren zu produzieren?
Es ist einfach zu teuer nur für Chipsätze neue Fabriken zu bauen. Mit denen macht man kaum Geld und die sind auch nicht problematisch was TDP und Diegröße angeht. Die Southbridge hat ne TDP von ~5W, ob die jetzt durch ne bessere Fertigung auf 4W fällt ist unerheblich. (Im mobilen Segment vll interesant).
Für die Chipsätze nimmt man einfach ausrangierte Fabriken die für CPUs nicht mehr genutzt werden. Und da keine aktuelle CPU mehr in 45 nm produziert wird, werden da jetzt wohl Kapazitäten frei.


Spätestens wenn AMD die, ich sage einmal "Full Fusion" gelingt, wird Intel sehen, was sie davon haben. Von der reinen CPU Leistung deutlich in Front, aber immer nur so nen popligen Grafikkern auf das DIE dazugelötet damit irgendwie ein Bild rauskommt. Und wohl noch einige zeit DX9 und ohne Chance auf Hardwarebeschleunigung.
Willst du blöd rumbashen oder kommt auch noch was konstruktives? 1. ist man schon seit der X4500 aus dem Jahr 2008 bei DX10 angelangt und mit Sandybridge schon bei DX10.1 und 2. ist die IGP nicht nur dazugelötet sondern mind. so integriert wie bei AMD.
Und mit Ivybridge in 2 Monaten ist man bei DX11 und unterstütz auch OpenCL. Ich frage mich wovon du überhaupt sprichst.

FlashBurn schrieb:
Denn der Flaschenhals bleibt die Chipsatzanbindung (Bandbreite). Gerade was USB3 betrifft, entweder man ist zu faul umzustecken oder man kann die Bandbreite sowieso nicht nutzen.
Naja da ist man ja momentan bei 2 GB/s, vielleicht wirds bei Haswell noch auf 4 GB/s (PCIe 3.0) aufgebohrt.

Aber mehr Ports ermöglichen einfach mehrere Geräte gleichzeitig im Betrieb zu haben. Das heißt aber nicht gleich, das man auch gleich alle gleichzeitig nutzt. Es bleibt eben die Mainstreamplattform. Da geht man nicht davon aus, dass die User 5 oder mehr oder mehr Datenträger gleichzeitig voll belasten.
 
Zuletzt bearbeitet:
von euch hier würde doch eh kaum einer ausgehend von der Performance erkennen, ob die SSD nun an SATA II oder SATA III betreiben wird, deshalb macht Intel auch hier alles richtig (aus Firmensicht). Davor Kosten günstig gehalten, hohe Rendite gefahren...

USB 3.0 nur über Zusatzchips, dem Boardpartner also sein Bier ob er die draufpackt oder nicht, Nachteil für Käufer? Praktisch 0.

Intel hält genau so die Kosten / Board und die eigenen Preise niedrig, zudem ist die Plattform ein paar W sparsamer.

Deswegen finde ich hier 2 Jahre hinter Konkurrenz schlicht falsch. Ich würde eher sagen intelligenter gemanaged, bzw profitabler.

Sicher, es mag den ein oder anderen geben der von 6 x SATA II profitiert hätte :D - den zeig mir mal einer. Die Frage ist ob es sich für diesen einen lohnt eine Mainstreamplattform auch nur 10 Cent teurer zu machen...
Da hätten mehr von 8x SATA 2 profitiert, eben als Homeserver oÄ.

Alles zu seiner Zeit. Bedeutet wenn zb USB3 wie SATA 3 massiv verbreitet ist.
 
Zuletzt bearbeitet:
Wenn die PCIe-Lanes des PCH tatsächlich noch Gen2 sind, ist das mal wieder ein Armutssezugnis. Gut, USB3.0- und SATAIII-Chips müssen nicht mehr viele dazugelötet werden, aber für andere Erweiterung ist das mal wieder extrem hinderlich (Thunderbolt braucht dann immernoch mind. 4 Lanes, PCIe3.0-SSDs gibt es dann auch erstmal nicht).

@Krautmaster: Blödsinn. Bei S1156 waren die Nachteile dieser Taktik immens, bei S1155 sind sie immernoch spürbar, die PCIe Lanes reichen wegen der ganzen Zusatzchips vorne und hinten nicht, einen anständigen PCIe2.0 x4-Slot bietet kaum ein Board und damit alles anständig angebunden ist, muss mit PLX-Switches getrickst werden - was bei gleichzeitiger Belastung der angeschlossenen Controller zu Leistungseinbrüchen führt. SATAIII-Controller werden ohnehin gebremst.

Und die Wirtschaftlichkeit und Sparsamkeit basiert auch nur auf einer Milchmädchenrechnung: Durch die ganzen Zusatzcontroller verbrauchen die Boards mehr (sparsam sind also nur spartanische Boards) und sind teurer, entweder müssen also die Preise knapper kalkuliert werden oder Boards mit weniger Gewinnspanne werden häufiger verkauft.
 
Zuletzt bearbeitet:
@Tigerfox

Thunderbrold ok. PCIe Gen 3 SSDs auf einer Mainstream Plattform?

Ich hatte eine Gen 2... und ja, ob ich eine M4 256Gb an SATA II oder eine RevoDrive X2 240 GB an PCIe Gen 2 betreibe macht einen Unterschied... im Benchmark prollt die PCIe SSD mit Datenraten jenseits 1GB/s, schön, im Realbetrieb ist die M4 aber fühlbar schneller, zum einen entfällt die ewige Initialisierungszeit der Treiber + des Bios beim Boot, zum anderen kann sie Dinge wie Trim... Und im Windows, 0 Unterschied.

Wer also PCIe Gen 3 wegen einer PCIe Gen 3 SSD vermisst hat irgendwas falsch verstanden. Dazu ist Sockel 1155 als auch Sockel 1150 schlicht nicht da. Das sind Spezialfälle die es immer gibt (wie jemand der vllt 50 PCI gen 2 Lanes braucht und deswegen bei SB-E rumheult)... Spezialfälle die sich für die Breite masse nicht lohnen, somit fürs Unternehmen unwirtschaftlich wären.
 
@bensen: Das mit den fabriken war mir schon klar, aber die bauen ja keine Neuen, die rüsten nur die bestehenden mit moderneren Fertigungsanlagen aus. Das das nur Schritt für Schritt funktioniert ist bekannt, man kann ja schließlich nicht die gesamte Produktion stilllegen um alle Fabriken gleichzeitig aufzurüsten.
Die neueeste Fertigungstechnik wird immer für die Chips von höchster Priorität verwendet, genau wie du sagtest. Bei Desktopchipsätzen is es wurscht, wenn der Chipsatz noch in der Strukturbreite der vorletzten CPUs hergestellt wird.
Wie du auch sagtest, siehts im mobil bereich aber andere aus. Ich selbst hab ein Atom Netbook mit einem uralten Intelchipsatz. Da hilft es auch nicht, dass die Atom CPU konsequent auf niedrigen Energiehunger getrimmt und um jedes Milliwatt gekämpft wird, wenn dann der alte Krückenchipsatz 2 Watt mehr verbraucht als unbedingt notwendig. Also ohne die kleinste Optimierung 8so scheint es zumindest) reingeklatscht wird.
Dann wird natürlich der Atom mit seiner sehr niedrigen TDP beworben, das es beim Gesamtpackage aus CPU + Chipsatz wider etwas anders aussieht, sagen die natürlich nicht, das liest man dann erst in irgendwelchen Tests.

Wegen dem directX in Intelchipsätzen: Ja, fähig dazu wären sie, aber meines Wissen hat es Intel immer noch nicht geschafft, funktionierende Treiber für DX10 oderhöher zu schreiben.
Und durch die früher in den Chipsätzen und jetzt in den CPUs integrierte Grafik sind sie ja schon Ewig und dreimal Marktführer in Sachen Grafiklösungen. Weil es eben so viele rechner ohne diskrete Grafikkarten gibt, und nicht weil die Intel IGPs so toll sind.

Aber jetzt ist wenisgtens AMD gekommen und hat in die LIanos nen brauchbaren Radeonkern eingewoben und mit dem Kauf von ATI auch die Treiberschreiber geerntet. Intel muss sich von nun an ranhalten, auf dem gebiet haben sie nämlich gegenüber AMD nihcts zu melden. Nur ihre Video Transcoding Engine ist viel flotter ls bei AMD. das wars aber auch schon.
Da man heutzutage nicht mehr die letzten % reine CPU Leistung benötigt, sind die LIanos von AMD spitzen Teile für Multimediarechner. Und günstiger als die Intel CPUs, egal ob die die integrierte Graka verwenden oder ne diskrete.

Und ja, auf die Ivys bin ich schon gespannt! Mal sehen ob die zu Trinity den Abstand von den Sandys zu LIano verkürzen können.
Noch ist alles heiße Luft was die sagen, ich bewerte erst wenn CB die Teile testet, die ich auch kaufen kann/könnte, vorher ist es gleich PR = Gerüchte = mir gal, weil ich jetzt nix neues brauche und daher = sinnlos.
Interessant dürfte dann mit Haswell ihre neue GPU Architektur werden (oder die stark verbesserte?).


MfG
 
@Smartbomb
Probleme mit DX10 gibts bei den neuesten Cedarview Atom, die haben ne GPU von Imagination Technologies verbaut.

Hier gehts aber um Haswell und nicht um den Atom. Und bei den Core CPUs gibts DX10 seit 2008.
Und der momentane Atomchipsatz NM10 ist keinesfalls stromhungrig, auch wenn er sehr spartanisch ausgestattet ist und noch in 65nm gefertigt ist.
 
Lauter WIrtschaftsexperten hier ... Intel muss schon ganz falsch laufen :)
 
Was die meisten hier einfach nicht begreifen wollen, was ihr wollt interessiert keinen BWLer. Ihr stellt eine verdammt kleine Minderheit, die nicht wirklich zum Umsatz beiträgt. Der Umsatz wird mit Geschäftskunden gemacht und die brauchen den ganzen Schmarrn nicht.
Bei dem Volumen um das es da geht, rechnet sich jeder Cent. Also wird auch gespart wo es nur geht.
 
@Flashburn: Richtig. Die BWLer sind am Drücker und es wird jeder mögliche Dollar rausgequetscht, sonst beschweren sich die Aktionäre und die Aktie geht runter, wenn man nach einigen Rekordquartalen ind Folge den Gewinnzuwachs nicht halten kann.
Nix mehr mit "der Kunde ist König"? Wir sollen das, was uns hingeworfen wird breitwillig fressen und unser Geld dafür hergeben.
ich meine ja nur, Intel kann/könnte es sich leisten, um ein par Promille weniger Gewinn pro Quartal zu machen, um irgendnen Schmarrn auszubügeln.
Aber warum, die par Dollar gehen auch noch raus, und da sie Gewisse Märkte beherschen, brauchen sie sich auch nicht vor einer starken Kundenabwanderung fürchten.

@Bensen: richtig, seit dem G41 Chipsatz oder? Funktioniert directX 10 aber darauf fehlerfrei und wird dies vollständig unterstützt? Ernstgemeinte Frage, ich weiß es nicht.
Jedenfalls ist sie so oder so zu schwach um irgendetwas darauf zu machen (also spieletechnisch).
Aber wie gesagt, ich bin gespannt was Ivy und dann Haswell bringen, gleich wie auf Trinity, Piledriver und deren Nachfolger.
Womöglich wird es 2013 schon für mich Zeit, ein komplett neues System aufzubauen.
Bevor die neuen Konsolen kommen glaube ich jedenfalls nicht, und wenn dann ne neue Graka rein. Ne SSD ist nach stärkeren Preisrutsch jedenfalls das erste, was reinkommt, sonst bin ich mit meinem jetzigen System super zufrieden.

MfG
 
@Smartbomb

Was fuer schlimme Dinge musst du denn fressen?
 
Das Problem ist einfach, warum sollen sie eine Minderheit bedienen? Ich würde es an deren Stelle genauso machen (auch wenn ich mir mehr Bandbreite beim Chipsatz wünschen würde).
 
bensen schrieb:
Bei SATA hast du recht, aber bei USB 3.0 ists ja nicht mal nen jahr. Nur zur Erinnerung, Llano kam erst Mitte letzten jahres zur Welt.

Und wann soll Haswell mit Lynx Point kommen? Irgendwann im Laufe 2013 - also ~ 2 Jahre nach dem Mitbewerber! Wenn die 7er Chipsätze tatsächlich nativen USB3.0 Support erhalten ist es ~ 1Jahr!
 
Zuletzt bearbeitet:
Zurück
Oben