Leserartikel [eGPU] externe Grafikkarte für das Notebook

@Holzi: Nein, eine Lüftersteuerung brauchst du eigentlich nicht. Das kommt eigentlich immer auf das subjektive Geräuschempfinden an, d.h. wenn die Lüfter doch zu laut seien sollten. Du steckst die 3pin oder 4pin einfach an das Netzteil an (evtl. Adapter von Molex auf 3pin oder 4pin nötig) und lässt diese einfach mitlaufen, wenn du die eGPU startest. Bei den im Gehäuse mitgelieferten Lüftern könnte evtl. eine Lüftersteuerung wie diese, evtl. nicht verkehrt sein, denn 1500rpm bei einem 120mm Lüfter sollten doch schon gut hörbar sein. So kann man relativ günstig manuell per Drehknopf nach Bedarf regeln.
 
Holzi_ schrieb:
Bräuchte ich mit diesem Gehäuse und diesem Netzteil eigentlich eine Lüftersteuerung für die Gehäuselüfter, oder wie funktioniert das?

Benchmarks:
- 3D Mark Cloud Gate
- 3D Mark 11

Ich habe das RVZ01 als eGPU Gehäuse und beide slim Lüfter vor die Grafikkarte geschnallt. Die Dinger sind schon recht laut, deswegen habe ich sie per Adapter auf 7V begrenzt. Damit sind die immernoch hörbar, aber deutlich angenehmer.
 
Ich denke ich werde sie einfach auf 5V laufen lassen, das dürfte ja eigentlich reichen um die rund 50W (Zumindest bei Saints Row IV auf maximalen Einstellungen), zu kühlen.
 
Klar, sollte reichen. Wichtigste ist, dass die Karte irgendwie frische Luft bekommt.
 
Hallo ich bin es wieder :D
Also ich habe es hin gekriegt mein eGPU laufen zu lassen. Alles war in Ordnung außer mein GPU, es war defekt und jetzt habe ich durch Garantie einen neuen bekommen (AMD Radeon R7 260x). Ich habe aber gehört, dass wenn ich ein AMD Grafikkarte als ein eGPU benutze, dass ich Leistungen verliere. Also meine Frage ist jetzt, verliere ich keine Leistungen wenn ich einen Nvidia Grafikkarte als eGPU nehmen würde?

Mein System ist:

Windows 8.1
Intel i7 3632QM (2.20GHz)
dGPU - Nvidia 710m
iGPU - Intel HD 4000
Arbeitsspeicher - 8 GB

Und mein Laptop ist Optimus fähig!
 
@Eisbrecher99: Kannst du das genauer erläutern? Ich beschäftige mich auch gerade mit dem Thema, da ich mir eine neue GPU kaufen möchte und bin erstaunt über die 20-30%. Wenn ich von einer Gen2-Anbindung ausgehe und mir die Benchmarkergebnisse bei TechInferno anschaue, dann sind die Karten nahezu gleichauf. Für mich ist aktuell der einzige Vorteil, dass ich mit einer NVIDIA-Karte den internen Notebookschirm nutzen kann. Bei Preis/Leistung sehe ich AMD derzeit vorne.

nando4 hat hier mal einen Direktvergleich angestellt: http://forum.techinferno.com/implem...d7870-gtx660@x4gbps-c-ec2-pe4l-2-1b-win7.html
 
Zuletzt bearbeitet:
hallo people.
habe asus g75vw mit 670mx (bios unlock + 280mhz core) liega etwa bei 5600 marks 3dmark11p und 21k vantagep.Tolud wert 2500
Meine igpu(intel hd) ist aus und es gibt keine möglichkeit die zu aktivieren. Heist es für mich das laptop bildschirm beim egpu bei mir ausfällt und muss unbedingt extern monitor benutzen?gibt es möglichkeit mit 670mx zu sli beuen? weil es gibt sinn nur was wie 970 nehmen.
 
@PJ23: Du hast in der Tat Recht. Seit der HD7er Serie von AMD scheint das Manko tatsächlich komplett ausgeräumt zu sein, so dass die AMDs ähnlich gut performen. Gut, dass du mich darauf hinweißt... haben sich alte Weißheiten doch wieder zum Guten geändert. Dann liegt das bei Holzi nur an seinem i5 im Vergleich zu den Ergebnissen der W530 auf techinferno mit deren i7.

Edit: Das hatten wir im Thread sogar früher schon mal festgestellt, aber ich bekomme das nicht aus dem Kopf raus. ;)

@mrhankz:
Ja, ohne Intel iGPU keine interne, sondern nur externe Darstellung über Monitor möglich.
TOLUD meinst du wohl 2,5GB oder? 670M zu SLI? Nein. Man könnte höchstens die dGPU austauschen, wenn es 1) per MXM realisiert wurde (was bei dir nicht der Fall ist), 2) TDP und Strombedarf der MXM zum Notebook passen. 3) Sind MXM-Module generell sehr teuer. Passender Adapter für dich wäre, da du kein Expresscard hast, natürlich nur etwas mit mPCIe.
 
Zuletzt bearbeitet:
das ding ist für 30% mehr leistung 300€ +Monitor. kommt schon teuer vor. lasse dan lieber dgpu noch mehr overvollten und 1ghz core nehmen.
zum techinferno. verstehe nicht wieso man heute noch 3dmark 2006 testet. der zeigt sich nur unter XP und gutem cpu overclocking.
also 22k 06 ist gtx275 nevau.
das problem ist 2013 für 1400 gekauft(1800uvp) jetzt höchstens 800 raus. schade habe mich so angagiert für die thema.
 
Hallo,

habe gerade etwas interessantes zum asus g75vw gefunden, weshalb man eventuell die igpu deaktiviert hat. Vielleicht interessiert es ja den ein oder anderen der sich für 3D interessiert.

NOT having Optimus and the HD4000 deactivated is actually a very POSITIVE point for this laptop! That is, if you want to use an external 3D monitor (in my case, 3D projector). Because when Optimus is activated, like in the Asus N76VZ and N76VM, all video output goes thru the HD4000 and you LOOSE 3D output and HDMI 1.4a full HD3D capability, for both 3D movies (blurays and SBS MKVs) and games (720p). I suggest the reviewer to add a positive point : full HD 3D capable video HDMI 1.4a output! Which is quite rare on 2012 laptops!

Hier ist jedoch wiederum die Frage, ob eine externe egpu ähnliche Probleme hat, da der Monitor ja an der externen Kraka hängt. Hat jemand schon einmal versucht über seine egpu ein 3D-Game zu spielen?

mfg -BTL-
 
Zuletzt bearbeitet:
Hallo erst mal.

Habe mir die EXP GDC PCI-E geholt. Wollte die ganze Sache über ein PC-Netzteil betreiben.

Sobald ich es Starte kommt für etwa 5 Sec. das grüne Licht der EXP (bevor es langsam wieder verschwindet).
Die Lüfter der Grafikkarte springen überhaupt nicht an.

Hat jemand einen Tipp für mich (bin echt am verzweifeln)?

Mein Setup:

Toshiba Qosmio X500-11U
EXP GDC PCI-E
Gigabyte GTX 750ti
Netzteil Corsair HX850

Dank schon mal im Voraus!
 
ja mache ich auch. aber echt 720p games ist was anderes als 720p movie. oder 110" ist zu gross für 720p spiele. Das es richtig kleine texturen auflösung ist. vieleicht bald mit nvidia retina wird es spielbar.
 
mrhankz schrieb:
das ding ist für 30% mehr leistung 300€ +Monitor. kommt schon teuer vor. lasse dan lieber dgpu noch mehr overvollten und 1ghz core nehmen.
zum techinferno. verstehe nicht wieso man heute noch 3dmark 2006 testet. der zeigt sich nur unter XP und gutem cpu overclocking.
also 22k 06 ist gtx275 nevau.
das problem ist 2013 für 1400 gekauft(1800uvp) jetzt höchstens 800 raus. schade habe mich so angagiert für die thema.

Die eGPU-Adapter kamen ab 2008/2009 so richtig erst auf. Damals hat man sich halt geeinigt, eine Vergleichsgrundlage auf 3mark06 zu legen. Dafür dass die meisten Spiele am Markt immer noch nicht mal DX10/11 nutzen, ist das immer noch eine relativ gute Vergleichsgrundlage. Dem overvolten sind nur Grenzen gesetzt und selbst mit höhrem VCore kannst du das nicht aufwiegen, was mit einer eGPU möglich ist. Wenn ich mal die Oberklasse heranziehe: selbst die 980M ist ab einer GTX970 + i7-CPU unterlegen. Erst die Notebook-SLI-Systeme übertreffen das dann bei weitem, aber dann natürlich auch mit einem sehr seeehr stolzen Preis.

Klar ist eGPU-Systemen durch den Flaschenhals der 5Gbit-Anbindung Grenzen gesetzt, aber dafür gibt es ja schließlich jetzt auch die Thunderbolt-Adapter. Ich schiele schon auf das Thinkpad W541 mit TB2... ;)
 
Zuletzt bearbeitet:
Ich weiß nicht ob ich jetzt was falsches verstanden habe oder nicht richtig gelesen habe , aber ich habe noch kein klares Antwort auf meine Frage.
Kriege ich jetzt Leistungsverlust mit einem Nvidia eGPU oder nicht?
 
@gwstier:
Das ist eben das, worauf mich PJ23 hingewiesen hat. Mit einer Nvidia mit Optimus als eGPU hast du keinen Leistungsverlust. Nvidias als eGPU waren von Anfang an sogar besser gestellt in der Leistung als AMDs.

Wenn an die aktuellen Grafikkarten von Nvidia und AMD als eGPU vergleicht, dann sind die Nvidias mit Optimus nur noch vereinzelt marginal besser in der Leistung, als die AMDs.

Seit der HD7er Serie von AMD liegt die Leistung gleich auf, nur mit dem Unterschied, dass mit einer AMD als eGPU keine interne Displaydarstellung möglich ist.
 
Zuletzt bearbeitet:
Aber um das mal klar zustellen!
Eine eGPU hat einfach durch die reduzierte Bandbreite (z.B. Thunderbolt) keine Desktop Performance. TB2 liefert z.B. nur PCIe x4 2.0. Wie sich das niederschlägt ist hier zu lesen: http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/21.html

Bei Optimus werden die eGPU Daten an die Intel GPU zurück geschickt, um auf dem internen Monitor dargestellt werden zu können. Das kostet auch wieder Leistung (TB2 - PCIe x4 2.0 muss sich jetzt hin und Rückweg teilen, wird also reduziert)!

Am Ende sieht das dann so aus:

FireStrike_Graphics_Graph.jpg

FireStrike_Overall_Graph.jpg
 
@v3nom:
Genau das wollte ich auch noch fragen, was es mit der Bandbreite auf sich hat!
Ich habe gelesen und gelesen aber nicht richtig verstanden, danke dass du es verdeutlicht hast.
Ich habe mich auch gewundert wie es zwischen Desktop Leistung und Laptop eGPU Leistung sich unterscheidet. Aber dank den Graph sieht man es ja.
Am Ende ist es doch besser eine externe Monitor zu haben :D
 
@v3nom:
Du musst da aber einige Prämissen beachten:
  • Die größte Abweichung der Bandbreiten im Testmagazin, bezogen auf FullHD, liegen bei 11% von PCIe 2.0 x4 zu x16.
  • Alles in einem Bereich von +/- 10% sieht man vielleicht im Benchmark, aber in fps ausgedrückt eher ein unbedeutende Differenz im Verhältnis zu den jeweiligen Ausgangs-fps.
  • Der 3770k läuft in Verbindung mit der verwendeten GTX970 außerdem auf PCIe 3.0 x16, das Macbook hingegen wie gesagt auf PCIe 2.0 x4
  • Rechnet man den GPU-Score des Desktops auf PCIe 2.0 x16 runter, beträgt die Abweichung von Desktop zu Macbook Pro nur ~7,7%, im Overall bei ~9%.
 
Kommt halt auch ganz auf die Spiele an.
Wreckfest(der quasi Flatout Nachfolger) z.B. leidet unter der geringeren Bandbreite mehr als andere Spiele. Da hatte ich gute 10 FPS weniger(20 statt 30, GTX 480, PCIe x4.2 zu x16.2, AM3(+) Chipsets haben noch kein PCIe 3). Allgemein ist das Spiel aber wohl nicht ganz sauber programmiert, da es auch mit meiner neuen GTX 780 nicht so rund läuft und im Test hier auf CB auch bei einer GTX 980 nur etwas über 40 FPS zu bekommen waren.

Ansonsten läuft hier soweit alles ausgezeichnet, Battlefield 4 auf Ultra und FullHD, Far Cry 4 auf höchsten Einstellungen, aber nur 1366x768 damit ich 60 FPS erhalte, ansonsten gingen sie auf 40 oder weniger herunter, gibt sicher Optimierungen der Einstellungen die ich noch nicht getestet habe. Project Cars läuft auch wunderbar und wesentlich flüssiger mit der neuen Grafikkarte. DayZ auch alles rund soweit.

Wer sich ohnehin ein Macbook anschaffen wollte, es aber wegen des Zockens nicht getan hat, sollte das im Auge behalten.
 
Zurück
Oben