Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD 780G und Nvidia 780a im Test: Integrierte Grafik im Vergleich
- Ersteller Ralph
- Erstellt am
- Zum Test: AMD 780G und Nvidia 780a im Test: Integrierte Grafik im Vergleich
ich denke nicht
IGP
Die Benchmarks werden mit 256 MB Grafik-Speicher, der vom Hauptspeicher abgezweigt wird, bei einer Auflösung von 1.280 x 1.024 durchgeführt. Lediglich bei den Spiele-Benchmarks wird die Auflösung auf 1.024 x 768 Bildpunkte reduziert und die weiteren Spiele-Einstellungen ohne Änderung vom Spiel übernommen.
A
abulafia
Gast
Der Test wird interessanter, wenn Nvidia auch Mid-Range/Office Chipsätze mit der gleichen Grafikeinheit anbietet.
Wie schon angemerkt wurde, sollten hier nur die IGPs verglichen werden, und nicht die Boards. Board- oder Implementierungskriterien wie SLI/Crossfire-Hybrid dürften in diesem vergleich keine Rolle spielen, da das Gigabyte eindeutig einen anderen Einsatzzweck/Zielmarkt hat als das Asus.
Wie schon angemerkt wurde, sollten hier nur die IGPs verglichen werden, und nicht die Boards. Board- oder Implementierungskriterien wie SLI/Crossfire-Hybrid dürften in diesem vergleich keine Rolle spielen, da das Gigabyte eindeutig einen anderen Einsatzzweck/Zielmarkt hat als das Asus.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
der test erweckt beim überfliegen schon ein wenig den eindruck dass hier zwei chipsätze miteinander verglichen werden. sollte man im fazit vllt n bisschen differenzieren...
aber das zum beispiel die beschrenkung von hybrid-cf auf 3450 und co als schlechtere lösung gegenüber der des nv-chipsatzes genannt wird, ist schon durchaus berechtigt. eine 3450 ist nicht grad n stromfresser und die leistung durch das cf reicht für die gleichen dinge wie bei der reinen igp-lösung (office, internet,... aber kein zocken!) ein wirklicher sinn (außer marketing) eröffnet sich auch mir nicht.
beim 780a macht die lösung mit den gf 9800 dagegen wirklich sinn. also was den kritikpunkt angeht, seh ich das durchaus wie cb und der niedrige preis ist kein ersatz für einen wirklichen nutzen...
aber das zum beispiel die beschrenkung von hybrid-cf auf 3450 und co als schlechtere lösung gegenüber der des nv-chipsatzes genannt wird, ist schon durchaus berechtigt. eine 3450 ist nicht grad n stromfresser und die leistung durch das cf reicht für die gleichen dinge wie bei der reinen igp-lösung (office, internet,... aber kein zocken!) ein wirklicher sinn (außer marketing) eröffnet sich auch mir nicht.
beim 780a macht die lösung mit den gf 9800 dagegen wirklich sinn. also was den kritikpunkt angeht, seh ich das durchaus wie cb und der niedrige preis ist kein ersatz für einen wirklichen nutzen...
Zuletzt bearbeitet:
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Nova1984 schrieb:-Vergleich IGP Chipsatz mit "Highend"-CPU (Quadcore)
"Komisch". Genau die gleiche CPU nur im B3 Stepping wird genau mit dieser IGP für ein MultimediaPC empfohlen. Hmm... Woran das wohl liegt.
https://www.computerbase.de/forum/threads/der-ideale-multimedia-pc.336072/
Liegt bestimmt daran, dass sich alle gegen AMD verschworen haben
Könnte aber auch daran liegen, dass die einfach dazu passt
Die Vorherrschaft von Intel im onboard-Grafikmarkt liegt größtenteils an den Chipsätzen für Notebooks und viel weniger an Office-PCs (Office-Notebooks ja). Ist aber ein ganz anderer Markt, in die diese beiden Lösungen nicht unbedingt reingehören.
Ansonsten bestätigt das nur die Erwartungen: AMD ist für den leisen Multimedia-PC die bessere Wahl. Preislich wie bei der Leistungsaufnahme/Abwärme.
Hab ich die Temperaturmessungen übersehen oder gabs gar keine?
Ansonsten bestätigt das nur die Erwartungen: AMD ist für den leisen Multimedia-PC die bessere Wahl. Preislich wie bei der Leistungsaufnahme/Abwärme.
Hab ich die Temperaturmessungen übersehen oder gabs gar keine?
Vulture_Culture
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.307
Temperaturmessungen bei einer Onboard Karte?
ich finde beide techniken zwar gut, für regelmäßige oder hardcore-gamer aber eher uninteressant. Lieber kauft man sich ein normales SLi oder Crossfiremainboard. Für den Bürobetrieb würde ich weiterhin auf die Intelkarten setzten, da diese billig sind.
Der preisunterschied ist zwar heftig, das wird dann aber wieder durch die unterschiedliche Leistung mit einer zweiten Karte kompensiert. Wenn AMD die technik zum gleichen Preis und mit HD4000 (also auch 4870 und 4850) anbietet, übertrumpft AMD Nvidia endlich. Zur gegenwärtigen zeit ist nvidia AMD jedoch mehrere Schritte vorraus.
ich finde beide techniken zwar gut, für regelmäßige oder hardcore-gamer aber eher uninteressant. Lieber kauft man sich ein normales SLi oder Crossfiremainboard. Für den Bürobetrieb würde ich weiterhin auf die Intelkarten setzten, da diese billig sind.
Der preisunterschied ist zwar heftig, das wird dann aber wieder durch die unterschiedliche Leistung mit einer zweiten Karte kompensiert. Wenn AMD die technik zum gleichen Preis und mit HD4000 (also auch 4870 und 4850) anbietet, übertrumpft AMD Nvidia endlich. Zur gegenwärtigen zeit ist nvidia AMD jedoch mehrere Schritte vorraus.
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Vulture_Culture schrieb:ich finde beide techniken zwar gut, für regelmäßige oder hardcore-gamer aber eher uninteressant. Lieber kauft man sich ein normales SLi oder Crossfiremainboard.
Humbug. Gerade für Gamer ist das nVidia-Board da. Denn dank Hybrid-Power verbraucht eine 9800 GTX oder eine 9800 GX2 kein Strom im Idle-Betrieb
/edit
@kscr13
Einigen wir uns darauf, dass Vulture_Culture keine Ahnung hat, wovon er redet
Zuletzt bearbeitet:
das Hybrid Crossfire is keineswegs sinnfrei ...
man muss sich eben nur etwas mit der materie beschäftigen, den bei einem vergleich wie in diesem test kommt wirklich die frage nach dem sinn dieses futures aus.
es gibt doch generell einen gewaltigen unterschied zwischen den beiden lösungen von amd und nvidia:
amd koppelt die beiden grafikeinheiten, nvidia schaltet je nach leistung die ein oder andere an.
weiter muss erwähnt werden das die hd3450 das potential des Hybrid modus nicht ausnutzen kann wenn die IGP auf 900Mhz übertaktet ist. würde man eine hd3470 mit ddr3 speicher und 800Mhz Chiptakt verwenden, die wohlgemerkt immernoch 25% günstiger ist als die 8500GT, hätte man mit sicherheit chancengleichheit, wenn das amd gespann nicht sogar schneller wäre.
und für was anderes ist dieser Mid-Range-Chip auch nicht konzipert !
als direkten verlgeich zur 8500gt müsste man die hd3650 reinstecken die IDLE wohl genauso viel strom frisst wie die IGP lösung von Nvidia.
naja usw usw...
man muss sich eben nur etwas mit der materie beschäftigen, den bei einem vergleich wie in diesem test kommt wirklich die frage nach dem sinn dieses futures aus.
es gibt doch generell einen gewaltigen unterschied zwischen den beiden lösungen von amd und nvidia:
amd koppelt die beiden grafikeinheiten, nvidia schaltet je nach leistung die ein oder andere an.
weiter muss erwähnt werden das die hd3450 das potential des Hybrid modus nicht ausnutzen kann wenn die IGP auf 900Mhz übertaktet ist. würde man eine hd3470 mit ddr3 speicher und 800Mhz Chiptakt verwenden, die wohlgemerkt immernoch 25% günstiger ist als die 8500GT, hätte man mit sicherheit chancengleichheit, wenn das amd gespann nicht sogar schneller wäre.
und für was anderes ist dieser Mid-Range-Chip auch nicht konzipert !
als direkten verlgeich zur 8500gt müsste man die hd3650 reinstecken die IDLE wohl genauso viel strom frisst wie die IGP lösung von Nvidia.
naja usw usw...
bigot
Lieutenant
- Registriert
- Apr. 2007
- Beiträge
- 688
@xp_home
tja das kommt dabei heraus, einige Leser erkennen entweder nicht
a) dass das eine IGP-Brett (nVidia) ein reinrassiges Gamer/Enthusiasten-Board ist
oder
b) dass das andere IGP-Brett (AMD) ein popeliges Office/Mainstream-Board ist
...man erkennt höchsten dass die Leser
c) verwirrt sind (vorallem beim Leistungsaufnahme-Vergleich)
ABER der Test ist echt spitze, vielen herzlichsten Dank auch!
btw: die 780G-Zielgruppe wird nie auch nur in Erwähgung ziehen zum 780a SLi zu greifen und umgekehrt. Deshalb hat der Test/Vergleich einen Nutzwert der stark begrenzt ist, um es noch nett auszudrücken.
tja das kommt dabei heraus, einige Leser erkennen entweder nicht
a) dass das eine IGP-Brett (nVidia) ein reinrassiges Gamer/Enthusiasten-Board ist
oder
b) dass das andere IGP-Brett (AMD) ein popeliges Office/Mainstream-Board ist
...man erkennt höchsten dass die Leser
c) verwirrt sind (vorallem beim Leistungsaufnahme-Vergleich)
ABER der Test ist echt spitze, vielen herzlichsten Dank auch!
btw: die 780G-Zielgruppe wird nie auch nur in Erwähgung ziehen zum 780a SLi zu greifen und umgekehrt. Deshalb hat der Test/Vergleich einen Nutzwert der stark begrenzt ist, um es noch nett auszudrücken.
Zuletzt bearbeitet:
MadManniMan
Lt. Junior Grade
- Registriert
- Mai 2007
- Beiträge
- 288
Wie lange muss ich mit einer Antwort auf meine Frage warten, warum die einfachen Werte der dedizierten Low-End-Grafikkarten nicht mit aufgeführt werden?
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Funktionierte Hybrid-SLI eigentlich zum Testzeitpunkt überhaupt problemlos?
Habe schon von Vielen gehört, dass der Rechner instabil wurde und komplett abstürzte - erinnert mich an die ersten Gehversuche von nvidias SLI... aber kommt Zeit kommt Rat.
Bin aber fast schon wieder der Meinung, dass zwar hybrid SLI von nvidia keine schlechte Sache ist und der Verbrauch überzeugt, aber ich finde die zukünftigen PowerPlay Funktionen einen Deut besser. Funktioniert auf Anhieb ohne Probleme und man wird out of the box egal mit welchem Chipsatz strom sparen. Ist das nicht super?
Habe schon von Vielen gehört, dass der Rechner instabil wurde und komplett abstürzte - erinnert mich an die ersten Gehversuche von nvidias SLI... aber kommt Zeit kommt Rat.
Bin aber fast schon wieder der Meinung, dass zwar hybrid SLI von nvidia keine schlechte Sache ist und der Verbrauch überzeugt, aber ich finde die zukünftigen PowerPlay Funktionen einen Deut besser. Funktioniert auf Anhieb ohne Probleme und man wird out of the box egal mit welchem Chipsatz strom sparen. Ist das nicht super?
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@bigot
Tja, wenn einige Leser zu unschlau sind, sollen die halt gehen. Bleiben die schlauen, die den Test verstehen hier, dann haben alle was davon
@ww2warlord
Hast du den Test gelesen? Wenn Hybfid-SLI irgendwelche Instabilitäten gezeigt hätte, würde das im Text stehen. Also schnell noch mal lesen anstatt sinnfreie Fragen zu stellen. Wenn du dann zu den Ausführungen im Test Fragen hast, kannst du sie stellen.
Und das du gleich wieder für PowerPlay Werbung machen würdest, war glaub ich schon jedem klar und wem nicht, der kann sich ja deine kitschbunte Signatur anschauen... Wenn ich die Leistung einer GeForce 9800 GTX haben will, dann bringt mir PowerPlay rein gar nichts. Zumindest so lang es keine HD4xxx-Serie gibt. und X2 ist keine Alternative, aber das ist schon wieder zu weit offtopic
Tja, wenn einige Leser zu unschlau sind, sollen die halt gehen. Bleiben die schlauen, die den Test verstehen hier, dann haben alle was davon
@ww2warlord
Hast du den Test gelesen? Wenn Hybfid-SLI irgendwelche Instabilitäten gezeigt hätte, würde das im Text stehen. Also schnell noch mal lesen anstatt sinnfreie Fragen zu stellen. Wenn du dann zu den Ausführungen im Test Fragen hast, kannst du sie stellen.
Und das du gleich wieder für PowerPlay Werbung machen würdest, war glaub ich schon jedem klar und wem nicht, der kann sich ja deine kitschbunte Signatur anschauen... Wenn ich die Leistung einer GeForce 9800 GTX haben will, dann bringt mir PowerPlay rein gar nichts. Zumindest so lang es keine HD4xxx-Serie gibt. und X2 ist keine Alternative, aber das ist schon wieder zu weit offtopic
N3Xu$
Lt. Junior Grade
- Registriert
- Apr. 2004
- Beiträge
- 276
@Vulture_Culture
Ich hab ein ASRock A780FullDisplayPort in einem A+ BAW (kleiner Würfel).
Er ist komplett passiv gekühlt und bei geschlossenem Gehäuse wird der IGP Kühler zwar warm, aber man kann Ihn anfassen, beim "zokken" siehts anders aus^^ ....aber wie gesagt, wer zokkt schon mit so einem Board.
DOOM III läuft allerdings mit 640x480 High Detail flüssig (30fps+)
Mit Monitor (bewegte Bilder) und Soundsystem 5.1 (aktiv) verbrauchte das komplette System ca. 84W (gemessen mit Voltcraft Energy Checker 3000).
System siehe sig (Monitor ist ein SyncMaster 203B)
Ich hab ein ASRock A780FullDisplayPort in einem A+ BAW (kleiner Würfel).
Er ist komplett passiv gekühlt und bei geschlossenem Gehäuse wird der IGP Kühler zwar warm, aber man kann Ihn anfassen, beim "zokken" siehts anders aus^^ ....aber wie gesagt, wer zokkt schon mit so einem Board.
DOOM III läuft allerdings mit 640x480 High Detail flüssig (30fps+)
Mit Monitor (bewegte Bilder) und Soundsystem 5.1 (aktiv) verbrauchte das komplette System ca. 84W (gemessen mit Voltcraft Energy Checker 3000).
System siehe sig (Monitor ist ein SyncMaster 203B)
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.729
Es gibt auch noch andere anwendungsbereiche für das hybrid CF.. mein dad benutzt zb genau diese configuration weil er 1. nen tv out benötigt den die ganzen boards nicht haben und 2. so mehr als 2 bildschirme anschließen kann. Die Leistung ist wohl der letzte grund um sich das zuzulegen.
Das schöne am 780G ist in meinen Augen dass er zum einen der perfekte HTPC chipsatz ist (gerade der Vide decoder ist der derzeit beste, stromverbrauch und abwärme sind konkurrenzlos und sämtliche schnittstellen vorhanden) - zum anderen ist der chipsatz aber so gut dass man ihn selbst als Gamer mit OC ambitionen problemlos nehmen kann.
Das schöne am 780G ist in meinen Augen dass er zum einen der perfekte HTPC chipsatz ist (gerade der Vide decoder ist der derzeit beste, stromverbrauch und abwärme sind konkurrenzlos und sämtliche schnittstellen vorhanden) - zum anderen ist der chipsatz aber so gut dass man ihn selbst als Gamer mit OC ambitionen problemlos nehmen kann.
Also:
Obwohl das hier wohl die zahlenmäßig größte Leserschaft ist: es gibt nicht nur Gamer! FPS sind m.E. bei integrierten Grafiklösungen mehr als uninteressant.
Zweitens ist es wohl absoluter Quatsch, überhaupt nur an Quad-Core zu denken, geschweige denn ihn für einen solch sinnfreien Test herzunehmen.
Und drittens hat Nvidia eh ein Problem, was den Umgang mit Open Source angeht - sie sollten endlich mal dem guten Beispiel von Intel und (kürzlich) ATI/AMD folgen und ihre Treiber oder zumindest die Hardware-Schnittstellen frei geben.
Zum Thema Leistungsaufnahme: das IST ein Thema für Rechner mit integrierter Grafik (Büro- und/oder Arbeitsumgebung), denn davon stehen ja gewöhnlich mehrere herum. Bei uns im Idle-Betrieb (Gnome unter Debian):
1. Intel E8200 auf Intel G35, 2GB, 750GB, ohne Display: ~69W
2. AMD X2 3800+ EE auf Nvidia 6150/430, 3GB, 2x250GB, TV-Karte, ohne Display: ~65W
Für die Displays kommen je nach Größe (17 bzw. 19 Zoll) nochmal 20-25W dazu.
Obwohl das hier wohl die zahlenmäßig größte Leserschaft ist: es gibt nicht nur Gamer! FPS sind m.E. bei integrierten Grafiklösungen mehr als uninteressant.
Zweitens ist es wohl absoluter Quatsch, überhaupt nur an Quad-Core zu denken, geschweige denn ihn für einen solch sinnfreien Test herzunehmen.
Und drittens hat Nvidia eh ein Problem, was den Umgang mit Open Source angeht - sie sollten endlich mal dem guten Beispiel von Intel und (kürzlich) ATI/AMD folgen und ihre Treiber oder zumindest die Hardware-Schnittstellen frei geben.
Zum Thema Leistungsaufnahme: das IST ein Thema für Rechner mit integrierter Grafik (Büro- und/oder Arbeitsumgebung), denn davon stehen ja gewöhnlich mehrere herum. Bei uns im Idle-Betrieb (Gnome unter Debian):
1. Intel E8200 auf Intel G35, 2GB, 750GB, ohne Display: ~69W
2. AMD X2 3800+ EE auf Nvidia 6150/430, 3GB, 2x250GB, TV-Karte, ohne Display: ~65W
Für die Displays kommen je nach Größe (17 bzw. 19 Zoll) nochmal 20-25W dazu.
Aus dem Fazit:
Diskrete Grafikkarten sind nicht die integrierten Grafikchips sondern die allein stehenden, normalen Grafikkarten. Also am Besten mal kurz korrigieren ;-)
Die Schlacht bei den diskreten Grafikkarten ist im vollen Gange, neue Höchstleistungen wechseln sich mit neuen Tiefstpreisen ab. Bisher wurde dieser Bereich hauptsächlich von Intel bedient, die vor allem bei günstigen Büro-PCs eine Lösung für Prozessor, Chipsatz, Grafik aus einer Hand anbieten können.
Diskrete Grafikkarten sind nicht die integrierten Grafikchips sondern die allein stehenden, normalen Grafikkarten. Also am Besten mal kurz korrigieren ;-)
T
towa
Gast
Also ich werd das Gefühl nicht los, das hier mit Äpfeln auf Birnen geschossen wird.
Kann mir mal wer den Sinn dieses Tests erklären?
Vor allem warum mal wieder bei den Treibern angefangen "gefuscht" wird?
Neuster NVIDIA Betatreiber und alter 8.3 (beinahe 2 Monate) alter Catalyst.
Dazu noch nen modifiziertes Beta BIOS.... also alles etwas komisch.
Kann mir mal wer den Sinn dieses Tests erklären?
Vor allem warum mal wieder bei den Treibern angefangen "gefuscht" wird?
Neuster NVIDIA Betatreiber und alter 8.3 (beinahe 2 Monate) alter Catalyst.
Dazu noch nen modifiziertes Beta BIOS.... also alles etwas komisch.