Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Asus hat das Portfolio seiner Hauptplatinen für AMD-Prozessoren offiziell um das bereits zur CeBIT gezeigte M3N-H/HDMI ergänzt. Dieses besitzt einen Chipsatz des Typs GeForce 8300, der über einen integrierten Grafikkern verfügt und Hybrid-SLI bereitstellen kann – so wie es zukünftig bei Nvidia immer sein soll.
Also da sind einige Anschlüsse etwas deplatziert, Strom und das, was unten links nach Floppy aussieht... Und was soll der Blödsinn mit der Onboard-Grafik? Das bringt doch nix... Die sollen lieber mal die Grafikkarten so herstellen, dass diese selbst die Leistung herunterfahren können, wie sie es z.B. tun wenn man den SLI-Stecker nicht rein steckt...
tja asus das layout ist ok das muss man so machen bei dne haufen anschlüssen. aber das bios so dermaßen vollstopfen ist ein witz. reagiert so träge wird echt zeit für efi. damit diesen eigene suppenkocherei endlich auffhört.....
Hmm also ich bin begeistert von diesen Onboard GPU auf jedem Board taktik. Es hat mich sogar mal überlegen lassen wieder einen NV Chipsatz zu holen. Aber irgendwie bin ich dann doch lieber bei meinem 790FX geblieben.
@3 Einfach heruntertakten hat einfach irgendwann ein gewisses Limit an dem sich der Takt im vergleich zum Verbrauch überproportional senkt bzw gesenkt werden muss. Ich denke die Hersteller haben das ja schon ganz gut ausgelotet. Deswegen ist es notwendig aus meiner Sicht ne Onboard GPU zu haben die eh vom verbrauch des MBs noch nen bisschen mehr zieht.
Nichts gegen onboard-Grafik, ich nutze das für mein Mediacenter. Bei den neuen mit HD-Beschleunigung (AMD780G) ist das echt top. Eine kostengünstige und stromsparende Lösung.
Nur finde ich den HDMI-Anschluss etwas dürftig, immerhin kann ich mein DVI-Kabel festschrauben und wenn bei diesem Board der Adapter bisschen belastet wird, kann ich den alle 2Tage reinstecken.
Das Layout finde ich etwas ungünstig ... das Stromkabel hab ich lieber am Rand als quer über die Platine. Zumal das den Abluftstrom eines Towerkühlers zur Gehäuserückseite behindern dürfte! Nicht gut.
bei meinem Mediacentergehäuse ist das Netzteil rechts (von hinten auf die Anschlüsse geschaut) so stört da der ATX Stecker nicht so... aber trotzdem ist er etwas ungünstig platziert...
aber ich frage mich was du mit deinem Fernseher, Mediacenter machst? Weil meins steht fest und da wird sich auch kein Kabel lösen...
die Größe des einzigen Passiv-Kühlers erinnert kaum an die hitzigen nforce-chipsätze.
Scheint, als ob Nvidia endlich die Fertigungstechnik reduziert hat und somit nicht mehr den beachtlichen Rückstand gegen ATI/AMD chipsätze hat. (gilt für die Nortbridge, bei ATI/AMD ist ja meist die Southbridge SB600/700 veraltet)
Nur fragt man sich schon, ob das überhaupt seien muss - mir wäre es lieber, die Grakahersteller würden auf dem selben PCB einer Hochleistungsgraka einen zusätzlichen unscheinbaren ungekühlten Grafikchip für reines 2D implementieren, der auch die selben Ausgänge und auch einen kleinen Teil des GDDRs ansteuern kann. (Shared-RAM ist nicht mein Ding - klaut Bandbreite und RAM-Größe)
Dann kann man auch die Graka mit jeden x-beliebigen Board kombinieren ohne auf hersteller-eigene Komponenten/Technologieversionen zu setzen.
@crux2003: Bei der Vorgängerversion nF7050 sind die Kühler auch schon klein, aber gute 50°C warm (hab hier ein m2n und m2a liegen). Der onboard-Kühler des 690G ist größer und etwas kühler.
@bastard2k2: Ich hab ein AerocoolCube-Gehäuse und da kommt der Strom von oben (2te Etage). Bei den HDMI-Adaptern ist das Problem, dass das Gewicht hinten beim Übergang zu DVI liegt und so entweder unter Dauerspannung steht (weils runterzieht) oder langsam rausflutscht (Aufsteckadapter, nicht Kabeladapter!).
@calvin-de-luxe: Da ist ein HDMI über den USB hinten.
Wer bei NVIDIA ist denn auf die dumme Idee gekommen nur unter Vista das Energiesparen zu ermöglichen? Das man neben einer aktuellen Grafikkarte von NVidia auch ein Mainboard mit 8300er-Chipsatz benötigt schränkt doch schon die Nutzbarkeit von Hybrid-SLI extrem ein. Da bleibt nur zu hoffen, dass NVidia die Funktion bald in alle Treiber integriert. Unter Linux wird man wahrscheinlich noch lange auf Hybrid-SLI verzichten dürfen, da bleibt meine HD3870 noch lange sparsamer als sämtliche NVidia-Karten.
Alle Informationen werden jedoch über einen kleinen HDMI-Anschluss ausgegeben, der sich unscheinbar im Bereich des I/O-Panels versteckt. Für die Ausgabe auf herkömmliche DVI- oder D-Sub-Signale liegt dem Lieferumfang natürlich ein Adapter bei.
Korrigiert mich wenn ich falsch liegen, aber ist HDMI nicht rein digital? Das ist doch ein Grund, warum man beim PC auf Displayport setzen will. Damit kann man dann auch noch analoge Signale durchreichen.
während im 2D-Betrieb unter Windows durch das Abschalten der zusätzlichen Grafikkarte der Leistungsbedarf des Computers eingeschränkt werden soll. Jener Dienst ist aber nach wie vor auf Windows Vista beschränkt.
@schattenhueter:
ich hab auch ne 3870, aber bei mir funtzt unter linux powerplay nicht, daher schluckt die karte idle hier 50-60W. Egal welcher treiber, daher kann ich die aussage leider nicht so stehen lassen, hast mal mit nem strommessgerät gemessen bei mir sinds halt 30W unterschied zwischen windows-treiber und linux-treiber (leider)
Ihr immer mit eurem Linux. Die paar Kellerkinder das benutzen sind den Herstellern egal. Das kann ich vollkommen verstehen. Wozu soll man dafür Entwicklungskosten zum Fenster rauswerfen? Seid froh, dass überhaupt Treiber eintwickelt werden. Was kann man groß machen damit? Sinnlose Desktopeffekte und ein paar Spiele? Da lohnt sich der Aufwand absolut nicht. Ja ja, Linux steht kurz vor dem Durchbruch im Desktopbereich. Zum 100.000 mal ...
Das Board gefällt mir. Weiß schon jermand einen Preis?
Dieses Feature, das nVidia Hybrid Power nennt, wird auf jeden Fall - hoffentlich bietet ATi es bis dahin auch an - auf die Wunschliste des nächsten Systems kommen.
Da ich ungerne Beta-Tester spiele, ist mir das im Moment noch zu früh.
Werden die 512MB vom Arbeitsspeicher permanent oder nur im Desktopbetrieb geklaut?
Hätten die nicht einfach einen 1024MBit GDDR3 Chip aufs Mainboard pflanzen können?
@ 11: Wenn HDMI rein digital wäre, dann gäbe es wohl keinen VGA-Adapter...
wobei ich das auch gedacht hätte..
Von Display-Port halte ich persönlich nicht viel, dass ist wieder so ein sch*** Stecker wie bei HDMI.
Für Notebooks und handliche mobile Geräte gut, da er weniger Fläche belegt, auf Grund der schlechten Befestigung aber IMHO deutlich schlechter als DVI...
Kein 2. Ausgang für Pixelinformationen...Disqualifikation! Zumal immer noch nicht klar ist, ob überhaupt mit bestehenden nVidia-Grafikkarten Hybrid Power funktionieren wird...