Test AMD 780G und Nvidia 780a im Test: Integrierte Grafik im Vergleich

Verfügt das Gigabyte 780G Mainboard über den zusätzlichen, optionalen Speicher?
 
ich denke nicht
IGP
Die Benchmarks werden mit 256 MB Grafik-Speicher, der vom Hauptspeicher abgezweigt wird, bei einer Auflösung von 1.280 x 1.024 durchgeführt. Lediglich bei den Spiele-Benchmarks wird die Auflösung auf 1.024 x 768 Bildpunkte reduziert und die weiteren Spiele-Einstellungen ohne Änderung vom Spiel übernommen.
 
Der Test wird interessanter, wenn Nvidia auch Mid-Range/Office Chipsätze mit der gleichen Grafikeinheit anbietet.
Wie schon angemerkt wurde, sollten hier nur die IGPs verglichen werden, und nicht die Boards. Board- oder Implementierungskriterien wie SLI/Crossfire-Hybrid dürften in diesem vergleich keine Rolle spielen, da das Gigabyte eindeutig einen anderen Einsatzzweck/Zielmarkt hat als das Asus.
 
der test erweckt beim überfliegen schon ein wenig den eindruck dass hier zwei chipsätze miteinander verglichen werden. sollte man im fazit vllt n bisschen differenzieren...
aber das zum beispiel die beschrenkung von hybrid-cf auf 3450 und co als schlechtere lösung gegenüber der des nv-chipsatzes genannt wird, ist schon durchaus berechtigt. eine 3450 ist nicht grad n stromfresser und die leistung durch das cf reicht für die gleichen dinge wie bei der reinen igp-lösung (office, internet,... aber kein zocken!) ein wirklicher sinn (außer marketing) eröffnet sich auch mir nicht.
beim 780a macht die lösung mit den gf 9800 dagegen wirklich sinn. also was den kritikpunkt angeht, seh ich das durchaus wie cb und der niedrige preis ist kein ersatz für einen wirklichen nutzen...
 
Zuletzt bearbeitet:
Die Vorherrschaft von Intel im onboard-Grafikmarkt liegt größtenteils an den Chipsätzen für Notebooks und viel weniger an Office-PCs (Office-Notebooks ja). Ist aber ein ganz anderer Markt, in die diese beiden Lösungen nicht unbedingt reingehören.

Ansonsten bestätigt das nur die Erwartungen: AMD ist für den leisen Multimedia-PC die bessere Wahl. Preislich wie bei der Leistungsaufnahme/Abwärme.

Hab ich die Temperaturmessungen übersehen oder gabs gar keine? :rolleyes:
 
Temperaturmessungen bei einer Onboard Karte?:stacheln:

ich finde beide techniken zwar gut, für regelmäßige oder hardcore-gamer aber eher uninteressant. Lieber kauft man sich ein normales SLi oder Crossfiremainboard. Für den Bürobetrieb würde ich weiterhin auf die Intelkarten setzten, da diese billig sind.
Der preisunterschied ist zwar heftig, das wird dann aber wieder durch die unterschiedliche Leistung mit einer zweiten Karte kompensiert. Wenn AMD die technik zum gleichen Preis und mit HD4000 (also auch 4870 und 4850) anbietet, übertrumpft AMD Nvidia endlich. Zur gegenwärtigen zeit ist nvidia AMD jedoch mehrere Schritte vorraus.:(
 
Vulture_Culture schrieb:
ich finde beide techniken zwar gut, für regelmäßige oder hardcore-gamer aber eher uninteressant. Lieber kauft man sich ein normales SLi oder Crossfiremainboard.

Humbug. Gerade für Gamer ist das nVidia-Board da. Denn dank Hybrid-Power verbraucht eine 9800 GTX oder eine 9800 GX2 kein Strom im Idle-Betrieb

/edit

@kscr13
Einigen wir uns darauf, dass Vulture_Culture keine Ahnung hat, wovon er redet :D
 
Zuletzt bearbeitet:
Natürlich Temperaturmessungen.
Bei den 690G habs eine Spanne von 40-65°C was den Kühlkörper angeht (abhängig vom Hersteller). Würde mich schon interessieren, ob die Dinger glühen oder frieren.
 
das Hybrid Crossfire is keineswegs sinnfrei ...
man muss sich eben nur etwas mit der materie beschäftigen, den bei einem vergleich wie in diesem test kommt wirklich die frage nach dem sinn dieses futures aus.

es gibt doch generell einen gewaltigen unterschied zwischen den beiden lösungen von amd und nvidia:

amd koppelt die beiden grafikeinheiten, nvidia schaltet je nach leistung die ein oder andere an.

weiter muss erwähnt werden das die hd3450 das potential des Hybrid modus nicht ausnutzen kann wenn die IGP auf 900Mhz übertaktet ist. würde man eine hd3470 mit ddr3 speicher und 800Mhz Chiptakt verwenden, die wohlgemerkt immernoch 25% günstiger ist als die 8500GT, hätte man mit sicherheit chancengleichheit, wenn das amd gespann nicht sogar schneller wäre.

und für was anderes ist dieser Mid-Range-Chip auch nicht konzipert !

als direkten verlgeich zur 8500gt müsste man die hd3650 reinstecken die IDLE wohl genauso viel strom frisst wie die IGP lösung von Nvidia.

naja usw usw...
 
@xp_home

tja das kommt dabei heraus, einige Leser erkennen entweder nicht
a) dass das eine IGP-Brett (nVidia) ein reinrassiges Gamer/Enthusiasten-Board ist
oder
b) dass das andere IGP-Brett (AMD) ein popeliges Office/Mainstream-Board ist

...man erkennt höchsten dass die Leser
c) verwirrt sind (vorallem beim Leistungsaufnahme-Vergleich)

ABER der Test ist echt spitze, vielen herzlichsten Dank auch!


btw: die 780G-Zielgruppe wird nie auch nur in Erwähgung ziehen zum 780a SLi zu greifen und umgekehrt. Deshalb hat der Test/Vergleich einen Nutzwert der stark begrenzt ist, um es noch nett auszudrücken.
 
Zuletzt bearbeitet:
Wie lange muss ich mit einer Antwort auf meine Frage warten, warum die einfachen Werte der dedizierten Low-End-Grafikkarten nicht mit aufgeführt werden?
 
Funktionierte Hybrid-SLI eigentlich zum Testzeitpunkt überhaupt problemlos?

Habe schon von Vielen gehört, dass der Rechner instabil wurde und komplett abstürzte - erinnert mich an die ersten Gehversuche von nvidias SLI... aber kommt Zeit kommt Rat.

Bin aber fast schon wieder der Meinung, dass zwar hybrid SLI von nvidia keine schlechte Sache ist und der Verbrauch überzeugt, aber ich finde die zukünftigen PowerPlay Funktionen einen Deut besser. Funktioniert auf Anhieb ohne Probleme und man wird out of the box egal mit welchem Chipsatz strom sparen. Ist das nicht super?
 
@bigot
Tja, wenn einige Leser zu unschlau sind, sollen die halt gehen. Bleiben die schlauen, die den Test verstehen hier, dann haben alle was davon :)

@ww2warlord
Hast du den Test gelesen? Wenn Hybfid-SLI irgendwelche Instabilitäten gezeigt hätte, würde das im Text stehen. Also schnell noch mal lesen anstatt sinnfreie Fragen zu stellen. Wenn du dann zu den Ausführungen im Test Fragen hast, kannst du sie stellen.

Und das du gleich wieder für PowerPlay Werbung machen würdest, war glaub ich schon jedem klar und wem nicht, der kann sich ja deine kitschbunte Signatur anschauen... Wenn ich die Leistung einer GeForce 9800 GTX haben will, dann bringt mir PowerPlay rein gar nichts. Zumindest so lang es keine HD4xxx-Serie gibt. und X2 ist keine Alternative, aber das ist schon wieder zu weit offtopic ;)
 
@Vulture_Culture

Ich hab ein ASRock A780FullDisplayPort in einem A+ BAW (kleiner Würfel).
Er ist komplett passiv gekühlt und bei geschlossenem Gehäuse wird der IGP Kühler zwar warm, aber man kann Ihn anfassen, beim "zokken" siehts anders aus^^ ....aber wie gesagt, wer zokkt schon mit so einem Board.
DOOM III läuft allerdings mit 640x480 High Detail flüssig (30fps+) :D

Mit Monitor (bewegte Bilder) und Soundsystem 5.1 (aktiv) verbrauchte das komplette System ca. 84W (gemessen mit Voltcraft Energy Checker 3000).

System siehe sig (Monitor ist ein SyncMaster 203B)
 
Es gibt auch noch andere anwendungsbereiche für das hybrid CF.. mein dad benutzt zb genau diese configuration weil er 1. nen tv out benötigt den die ganzen boards nicht haben und 2. so mehr als 2 bildschirme anschließen kann. Die Leistung ist wohl der letzte grund um sich das zuzulegen.

Das schöne am 780G ist in meinen Augen dass er zum einen der perfekte HTPC chipsatz ist (gerade der Vide decoder ist der derzeit beste, stromverbrauch und abwärme sind konkurrenzlos und sämtliche schnittstellen vorhanden) - zum anderen ist der chipsatz aber so gut dass man ihn selbst als Gamer mit OC ambitionen problemlos nehmen kann.
 
Nod.sunrise.. das stimmt ja nun so nicht. mit der 8200er IGP hast du weniger last bei HD Wiedergabe und eine geringere Leistungsaufnahme noch dazu... ( bei vergleichbaren Boards und gleicher CPU )
 
Also:

Obwohl das hier wohl die zahlenmäßig größte Leserschaft ist: es gibt nicht nur Gamer! FPS sind m.E. bei integrierten Grafiklösungen mehr als uninteressant.

Zweitens ist es wohl absoluter Quatsch, überhaupt nur an Quad-Core zu denken, geschweige denn ihn für einen solch sinnfreien Test herzunehmen.

Und drittens hat Nvidia eh ein Problem, was den Umgang mit Open Source angeht - sie sollten endlich mal dem guten Beispiel von Intel und (kürzlich) ATI/AMD folgen und ihre Treiber oder zumindest die Hardware-Schnittstellen frei geben.

Zum Thema Leistungsaufnahme: das IST ein Thema für Rechner mit integrierter Grafik (Büro- und/oder Arbeitsumgebung), denn davon stehen ja gewöhnlich mehrere herum. Bei uns im Idle-Betrieb (Gnome unter Debian):

1. Intel E8200 auf Intel G35, 2GB, 750GB, ohne Display: ~69W
2. AMD X2 3800+ EE auf Nvidia 6150/430, 3GB, 2x250GB, TV-Karte, ohne Display: ~65W

Für die Displays kommen je nach Größe (17 bzw. 19 Zoll) nochmal 20-25W dazu.
 
Aus dem Fazit:

Die Schlacht bei den diskreten Grafikkarten ist im vollen Gange, neue Höchstleistungen wechseln sich mit neuen Tiefstpreisen ab. Bisher wurde dieser Bereich hauptsächlich von Intel bedient, die vor allem bei günstigen Büro-PCs eine Lösung für Prozessor, Chipsatz, Grafik aus einer Hand anbieten können.

Diskrete Grafikkarten sind nicht die integrierten Grafikchips sondern die allein stehenden, normalen Grafikkarten. Also am Besten mal kurz korrigieren ;-)
 
Also ich werd das Gefühl nicht los, das hier mit Äpfeln auf Birnen geschossen wird. :(
Kann mir mal wer den Sinn dieses Tests erklären?
Vor allem warum mal wieder bei den Treibern angefangen "gefuscht" wird?
Neuster NVIDIA Betatreiber und alter 8.3 (beinahe 2 Monate) alter Catalyst.
Dazu noch nen modifiziertes Beta BIOS.... also alles etwas komisch.
 
Zurück
Oben