• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Leserartikel [eGPU] externe Grafikkarte für das Notebook

@Ivxy, wäre das dann nicht genau wie der Adapter von Conrad den ich gepostet habe? Denn der einzige Unterschied wäre dann, dass der Adapter den du gepostet hast an der Seite offen ist sodass sich x16-Karten auch einstecken lassen.

Aber eine Sache ist mir jetzt schon wieder unklar: Es lässt sich also auch in einen x1-Slot (wenn die Seite offen ist) eine x16-Karte stecken und sie wird erkannt? Bzw nach welchen Kriterien muss ich mich denn jetzt bei der Suche orientieren? Anschluss x1 oder x16 und PCIe-Support und maximal eine 1.0-Verbindung? Denn bis jetzt haben die meisten Karten 2.0-Verbindungen genutzt.
 
Horrorclown schrieb:
Also im CCC steht nichts mit Umschaltbare Grafiken konfigurieren :(
Habe mal die Treiber deinstalliert und der Laptop geht in so einen Modus mit 1024 x 768. Das kann aber doch nicht der igpu sein :confused_alt:
Es bleibt wohl nur die Möglichkeit mit dem Setup 1.x
Welche Grafikkarten kann man den generell als egpu nutzen bzw. wann ist da die Grenze?

Ich würde daraus schließen, dass die iGPU bei deiner CPU fest deaktiviert wurde. Da kann dann selbst Setup 1.x nichts bewirken. Ergo fällt Optimus bei dir nicht drin.

[Edit]Auch kam die Idee über eine externe USB-Soundkarte auf, welche aber noch mit dem 3D-Blue-Ray Palyer über eine USB Verbindung getestet werden müsste, aber sonst wäre das meiner Meinung nach eine Sinnvolle Erweiterung, sofern gewünscht (neben GPU Power auch Multimedia). Das ganze dann noch mit dem Netzteil für die eGPU und ein Netzteil für den Laptop und man hat eine kleine Kiste mit allem was man so braucht mit einem Kabel...

Das ist interessant... mein T530 hat leider keinen seperaten Micro-In-Anschluss mehr. ;) Externe Soundkarte hatte ich auch schon überlegt, aber nicht, diese im Gehäuse selbst zu verbauen.

Ivxy schrieb:
Also das günstige was du so für 100€ Realisieren könntest, wäre z.b. eine Verlängerung deiner mPIC-e Schnittstelle (~16€)

Hat dein KZ(22/26)-Adapter überhaupt eine Verbindung realisieren können? Diese Riser bieten ja i.d.R. einfach nur nicht genügend Bandbreite für eine eGPU. PCIe 1.0 sicher, aber darüber hinaus?

Lucke schrieb:
@Ivxy, wäre das dann nicht genau wie der Adapter von Conrad den ich gepostet habe? Denn der einzige Unterschied wäre dann, dass der Adapter den du gepostet hast an der Seite offen ist sodass sich x16-Karten auch einstecken lassen.


Ivxy schrieb:
Also das günstige was du so für 100€ Realisieren könntest, wäre z.b. eine Verlängerung deiner mPIC-e Schnittstelle (~16€)

Hat dein KZ(22/26)-Adapter überhaupt eine Verbindung realisieren können?


Aber eine Sache ist mir jetzt schon wieder unklar: Es lässt sich also auch in einen x1-Slot (wenn die Seite offen ist) eine x16-Karte stecken und sie wird erkannt? Bzw nach welchen Kriterien muss ich mich denn jetzt bei der Suche orientieren? Anschluss x1 oder x16 und PCIe-Support und maximal eine 1.0-Verbindung? Denn bis jetzt haben die meisten Karten 2.0-Verbindungen genutzt.

Man kann eine x16 Grafikkarte in einen x1-Slot stecken, als auch eine x1-Karte in einen x16-Slot. Es werden halt jeweils nur die Kontakte benutzt, die auch wirklich eine Übergang haben. Das ist ja eines der Spezifikationen von PCIe.
 
Zuletzt bearbeitet:
Eisbrecher99 schrieb:
Das ist interessant... mein T530 hat leider keinen seperaten Micro-In-Anschluss mehr. ;) Externe Soundkarte hatte ich auch schon überlegt, aber nicht, diese im Gehäuse selbst zu verbauen.
Also eine externe Soundkarte wollte ich auch schon haben, alleine um vernünftige Anzahl von Anschlüsse zu haben, jedoch habe ich so das Gefühl, wenn ich das noch in mein Gehäuse baue, wird das Gehäuse sehr komisch aussehen... Aber mal sehen, wie gesagt die Idee finde ich gut...

Eisbrecher99 schrieb:
Hat dein KZ(22/26)-Adapter überhaupt eine Verbindung realisieren können? Diese Riser bieten ja i.d.R. einfach nur nicht genügend Bandbreite für eine eGPU. PCIe 1.0 sicher, aber darüber hinaus?
Ja eine Verbindung habe ich aufgebaut, es war eine x1.1 aber mit dem Fehler 43, welchen ich auch nicht wegbekommen habe. Aber die GPU wurde von GPU-Z erkannt, aber halt nicht vom nVidia Treiber...

Also wünsche allen ein guten Rutsch und feiert nicht zu hart :schluck:
Bin dann mal dieses Jahr jetzt off *höhö* :hammer_alt:
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Also was mir ist der Link für den Vergleich der PCI-e Geschwindigkeiten durchaus gekannt, jedoch habe ich diese nicht verlinkt, da hier noch überwiegend nVidia GPU's mit Optimus verbunden werden, und da ist der Leistungsverlust nicht linear und entspricht nicht dem Ergebnis des Test's.
Für AMD GPU's durchaus ein interessanter Test, aber es gibt mittlerweile genug getestete AMD'S GPU um sich ein Bild zu machen.

Und um deine Frage zu beantworten:
Ivxy schrieb:
... finde ich etwas eigen Bemühungen allgemein nicht schlecht. Deshalb schlage ich dir vor die Allgemeinen Infos nochmal durchzulesen oder dieses Forum nach der Tabelle zu durchsuchen, wobei ich mir sicher bin das die erste Methode schneller sein wird...

Ach ja, zu der Frage welche GPU du für ARMA 3 brauchst, habe ich gerade mal 30sec gebraucht um ein Test zu finden der gezeigt hat, welche GPU und CPU du für das Spiel haben solltest. Ok du musst eine Desktop CPU mit einer mobilen CPU vergleichen, aber da gibt es auch entsprechende Tabellen für...Nur zur Info...
 
Zuletzt bearbeitet: (Rechtschreibfehler)
Hallo,
ich bin neu hier und sehr froh dieses Forum gefunden zuhaben und hoffe das ihr mir bei einer Lösung helfen könnt.

Also ich besitze einen Acer Aspire 5755g mit i5 , 8Gb Ram und leider einer Gt630m und einem 15,6 HD LED LCD Display.
Bisher habe ich mit overclocking relativ gut BF3 auf hohen Settings im Mulitplayer spielen können.
Allerdings nach erscheinen von Bf 4 waren die HC Server so gut wie leer gefegt , Bf4 installiert und auf Low Settings, 12-22FPS.
Also brauchen wir eine andere Grafikkarte...interne Lösung gibt's keine und MXM hat per Mail gesagt das auch keine lösung von deren Seite vorhanden ist. Also bleibt nur die eGPU.

1.Ich hab keinen Expresscard-Slot, also die mPCI-E variante, welche momentan von der W-Lan-karte besetzt wird, wie bekomm ich die runter?)

2.integriert ist die HD4000

3.TOLUD (das Ergebniss verstehe ich nicht?!)
000000009FA00000 - 00000000FEAFFFFF (der erste PCI-Bus der nach Stellen keine 0 hat, zeigt das da, oder hab ich was falsch gemacht?)

4. dGPU ist die Gt630m welche ich über Setup 1.x deaktivieren würde

5.Adapter, ja welchen brauch ich denn nun?

Ich hoffe ihr könnt mir weiter Helfen.

lg
Hans

PS:@Ixvy: hatte die ersten 30steiten gelesen aber den link für die Zusammenfassung vom März übersehen. THX
 
@Lucke: Ganz durchblicke ich deine Notebook-Konfig nicht... ich finde einfach kein HP-G62 mit einer HD4750. Ich finde da nur Configs mit einer HD5430 oder HD5470. Aber egal. Komischer Weise hast du bei deinem Gerät ja auch Zugriff auf die HD-Graphics... laut notebookcheck sollte die iGPU der CPU nämlich deaktiviert sein. Aber ist ja um so besser für dich.

Auch dein HM55-Chipsatz ermöglicht ja leider offenbar zwar theoretisch PCIe 2.0, was aber jedoch auch gedeckelt auf 2,5GBit/s zu seien scheint. Mehr als 1.1Opt. geht schon mal nicht.

Mach einfach mal einen Benchmark mit 3dmark06 und 3dmarkVantage mit deiner HD4750, oder was da auch drinstecken mag. Hier im techinferno-Forum gibt es zwei Geräte mit einem i3-350M, welche auf ca. 11.500 bis 12.000 Pkt in 3dmark06 kommen.

Ich würde halt zu einer gebrauchten GTX460 oder ähnlich greifen. Damit wäre deine Config gut bedient.


@...Fi...: Hi, willkommen im Thread.

1) Um an die WLAN-Karte zu kommen, musst du bei Acer Notebooks in der Regel nur die größer Abdeckung an der Unterseite deines Notebooks öffnen. Das WLAN-Modul ist mittig zwischen RAM und Festplatte verbaut. Einfach die beiden Kabel vorsichtig abziehen, die zwei Schrauben lösen und das dann etwas hochstechende WLAN-Modul herausziehen. Für WLAN müsstest du dann halt auf einen WLAN-Stick ausweichen. Außerdem musst du dir überlegen, wie du das mit der Verbindung handhaben willst, d.h. jedes mal die Abdeckung öffnen, den mPCIe-Stecker einsetzen, festschrauben oder evtl. die Abdeckung modifizieren, um das Kabel direkt nach außen zu führen.

2) Gut, intergriert ist also schon mal eine HD4000. Damit ist die Optimus-Kompremierung schon mal gegeben. Du hast einen HM65-Chipsatz mit PCIe 2.0 und laut Intel Datenblatt volle Bandbreite von 5,0Gbit/s. Geht nicht besser.

3) Ist der richtige Wert. Der TOLUD "9FA00000" entspricht 2,5GB also noch Luft nach oben zu den maximalen 3,25GB.

4) Genau so ist es. Per Setup 1.x deaktivieren damit das System dann auch die richtige Grafikkarte als primäres Anzeigegerät zuordnen kann.

5) Du brauchst den PE4L v2.1b mit PM3N-Stecker (Punkt 3.2b in der FAQ). Produktbezeichnung: PE4L-PM060A (mit 60cm Kabel) oder PE4L-PM100A (mit 100cm Kabel). Größere Kabellänge führen laut Hersteller zu einer Verschlechtung der Singalqaulität. Die Platine des PM3N-Steckers lässt sich teilweise abknicken und verkleinern, damit es auch in schmale Ausbuchtungen des mPCIe-Steckers passt. (ist ja bei dir der Fall)

6) Ansonsten musst du dir, neben dem Adapter, halt noch eine passende Nvidia-Grafikkarte aussuchen. Also alles ab Fermi ist mit Optimus kompatibel.
 
Zuletzt bearbeitet:
Hi und danke für die Erklärungen.

Gut, soweit hab ich das Verstanden:
W-Lan Karte raus, dann dort den Adapter Anschließen und diesen dann mit der Grafikkarte verbinden.
Also brauch ich noch die GTX-Grafikkarte (bin noch unschlüssig über das Model, mal sehen welche BF4 mit hohen Details flüssig darstellt), und ein passendes Netzteil für diese, richtig?

@Eisbrecher99 & Ivxy auf eure Gehäuse Lösung bin ich jetzt schon neidisch, mit 2 linken Händen werde ich das wohl nicht so schön lösen können. Schade das dass Lian Li Q16B nicht mehr Lieferbar ist.

PS: Im Bios kann ich meine dedzidierte Gt630m deaktivieren, also kann ich mir Setup 1.x sparen?!
 
Zuletzt bearbeitet: (Ergänzungen)
Ja das mit der GPU und dem Netzteil stimmt, wenn du ein Gehäuse suchst wäre vielleicht das Cooler Master Elite 130 was für dich, mistermanko hat das auch für seine eGPU genommen.
Die GPU's sind nach oben offen, aber je stärker die GPU desto weniger Effizienz erhältst du, passende Tabelle habe ich verlinkt. Vielleicht findest du sie ja ;)
Und das dem deaktivieren im BIOS hört sich gut an, spiele mal einpaar Spiele nur mit deiner iGPU (deaktivierten dGPU) es müsste nicht mehr in den Einstellungen spielbar sein, wenn das der Fall ist, brauchst du auch kein Setup 1.x .
 
Zuletzt bearbeitet:
@Lucke: Ganz durchblicke ich deine Notebook-Konfig nicht... ich finde einfach kein HP-G62 mit einer HD4750. Ich finde da nur Configs mit einer HD5430 oder HD5470. Aber egal. Komischer Weise hast du bei deinem Gerät ja auch Zugriff auf die HD-Graphics... laut notebookcheck sollte die iGPU der CPU nämlich deaktiviert sein. Aber ist ja um so besser für dich.

Auch dein HM55-Chipsatz ermöglicht ja leider offenbar zwar theoretisch PCIe 2.0, was aber jedoch auch gedeckelt auf 2,5GBit/s zu seien scheint. Mehr als 1.1Opt. geht schon mal nicht.

Mach einfach mal einen Benchmark mit 3dmark06 und 3dmarkVantage mit deiner HD4750, oder was da auch drinstecken mag. Hier im techinferno-Forum gibt es zwei Geräte mit einem i3-350M, welche auf ca. 11.500 bis 12.000 Pkt in 3dmark06 kommen.

Ich würde halt zu einer gebrauchten GTX460 oder ähnlich greifen. Damit wäre deine Config gut bedient.


Hallo, ja hatte nen Dreher drinne und meinte auch die HD 5470 und zusätzlich als zweite GPU (laut HP im i3 integriert) die IntelHDGraphics mit 256MB - keine der beiden lassen sich im BIOS deaktivieren, zudem muss ich auch noch das mPCIe-Whitelist umgehen (was wohl in einigen HPs vorhanden sein soll) da werde ich wohl am verdammt teueren Setup 1.x nicht vorbei kommen.

Ich hätte die Möglichkeit von einem Bekannten seine alte GTX 550 TI (1GB VRAM) abzukaufen, auch er hatte sie vorher mit einem i3-Modell verwendet und das hätte wohl auch hingehauen. (meine Ansprüche sind ja nicht so hoch). Die "Deckelung" auf 2,5GBit/s verstehe ich nicht, ist schade :-( sicherlich um Energie zu sparen.
 
Hallo Leute!

Bin neu hier im Forum, also wie es sich gehört:

Hallo an alle! Community´s 4 ever :)


Ich bräuchte Hilfe bei der Inbetriebnahme einer eGPU. (Geforce 9800GX2)


Besitze folgende Komponenten:

- Notebook MSI EX600
+ mPCIE Anschluss / kein Expresscard
+ nur dGPU (Geforce 8400 GM) / keine iGPU


- mPcie Adapter zu mini HDMI
- P4EL
- SWEX + Netzteil
- Habe mir auch gleich das DIY eGPU Setup 1.3 besorgt (Kann ja sein das ich mal ein Notebook mit igpu + dgpu habe)

dGPU ist in Windows 7 Prof x64 EN deaktiviert / Treiber wurde auch niemals installiert
P4EL ist korrekt von Windows installiert worden.
Neuester Treiber für eGPU wurde installiert und die 9800GX2 wird auch im Geräte Manager angezeigt, jedoch 2x. <-- Gehört das so?

Im DIY eGPU Setup 1.3 kann ich die dGPU nicht deaktivieren. Prozess bleibt immer hängen. (Hängt wahrscheinlich damit zusammen dass das Notebook keine iGPU besitzt.

Habe mal ein paar Screenshots uplgeoadet.
1.png 2.png 3.png

In den Eigenschaften der Ressourcen der Grafikkarte wird der mPCIE anscheinend nicht verwendet bzw. sind Fehler.


Hoffe jemand hat Lust mir beim Tüfteln zu helfen.
Werde jetzt schlafen gehen, huch schon fast 04:00. Die Zeit vergeht beim herum Basteln. :D


Vielen Dank!
LG SM :D
 
Zuletzt bearbeitet:
@ Lucke
Mit der GT 550 TI wirst du sicherlich nichts falsch machen...Und der Grund warum du nur eine PCI-e 1.0 Verbindung aufbauen kannst, liegt in deinem Chipsatz. Den erst ab der Intel 2xxx würden Chipsätze verbaut die PCI-e 2.0 unterstützen, was jedoch nicht heißten muss das jeder Laptop ab dieser Gen. auch PCI-e 2.0 unterstützt, habe hier auch eine Tabelle angefangen.

@ SuspectMurdoc
Willkommen im Forum...
Also zu deiner Frage des doppelten Eintrages im Gerätemanager habe ich noch nicht in der Form gesehen, krass was du machen kannst :freak:
Das mit dem Setup 1.x und dem abstürzten wegen der iGPU liegt woll wirklich daran, dass du keine iGPU hast.
Und auf deinem Laptop ist nicht zufällig auf dem mPCI-e eine Whitelist oder?
Den sonst weiß ich das eine eGPU ohne iGPU sondern nur mit einer dGPU ohne weiteres nur auf XP lauft, der Beitrag dazu müsste irgendwo auf den letzten 5 oder 10 Seiten sein. Wenn ich ihn finde verlinke ich ihn, oder es könnte sein das ich das in einer Nachricht bekommen habe, dann werde ich den Sinnvollen Inhalt hier posten und in meiner Zusammenfassung ergänzen...
Ach ja die Person hat es unter Win 7 mit der dGPU und er eGPU zum laufen bekommen, das weiß ich noch...
Und wenn du es hin bekommen solltest, und dann weiter betreiben willst, und eine neue GPU haben willst, würde ich dir dann eine AMD GPU empfehlen...
[Edit]
Gefunden, schau dir mal das hier an: https://www.computerbase.de/forum/t...er-das-notebook.924865/page-107#post-14977213
 
Zuletzt bearbeitet:
@SuspectMurdorc:

Ich würde mal das ganze mit einer anderen Grafikkarte testen, um sicherzugehen, dass es nicht an der GX2 liegt. Ich hatte bereits Probleme mit einer MultiGPU-Karte an einem PCIe-x4 - Steckplatz. Da war die Grafikkarte nur mit Müh und Not zum Laufen zu bringen, und auch nur mit einer GPU, sobald die zweite aktiviert wurde, gab es BlueScreens.
Daher einfach mal irgendeine normale Grafikkarte benutzen, dann kannst du wenigstens sicher sagen, ob es an der Grafikkarte oder am Rest liegt.
 
Wie habt ihr das eigentlich mit dem 1.x Setup gemacht? Habt ihr ihm via Paypal den Betrag überwiesen und er hat dann per Mail geantwortet?

Danke und Gruß
Jan
 
Mein ViDock ist Freitag angekommen und ich muss sagen, das ist echt schick (vor allem im Vergleich zu meinem Holzgehäuse^^). Nur eins stört mich und zwar das ziemlich laute XBox Netzteil welches mitgeliefert wurde. Das ViDock hat zwei Stromanschlüsse, welche beide mit dem 203W Netzteil der XBox Verbunden sind, könnte ich nicht einfach z.B. 2 (passive) 90W Lenovo Netzteile nehmen und die Anschlüsse daran löten? Dann hätte ich zwar nur 180W, aber das sollte für eine GTX660 (ohne Ti) jawohl reichen, oder?
 
@JanZz: Jo, so macht man das. Hat in meinem Fall auch ziemlich zügig(~2 Stunden) den Link geschickt.
 
@Ivxy: ja die Tabellen habe ich gefunden und verstanden auch aus dem englischen Forum den User der das mit dem Aspire 5755g schon einmal durch gespielt hat, allerdings nur mit einer gtx560... Hast du eine Empfehlung?
vom Prinzip reicht mir ja eine gtx660ti,wenn diese nur 75% bringt reicht das für hohe Einstellung immer noch locker.
Das mit dem Case muss ich mir noch überlegen wie ich das realisiere.
Gruß und schönen Sonntag abend noch
 
Hallo :)

Jemand intresse an einem PE4H Adapter+ mini hdmi+ expresscard un swex??
Wollte es bei ebay reinstellen, aber vorher mal fragen ob es hier einer brauch!!!
Natürich funktioniert alles :) hatte eine XFX Radeon HD 6870 verbaut! aber benutze nun den lappi von meiner Freundin ;) da kann ich 1.2 optimus nutzen.. un Setup schon geordert :)

Also falls jemand intresse hat, gern melden!

MFG
 
@ MeisterFenster
Also das umlöten könnte funktionieren, sofern du weißt wo was ist. Das einzige was dich davon abhalten könnte, wäre, das die Lenovo Netzteile keine 5V Ausgang haben, was die 203Watt Netzteile haben. Und sofern die ViDock nicht aus dem 12V auf 5V umformt, könntest du ein Problem auf der PCI-e Schiene bekommen, da dort ein 5V Anschluss notwendig ist.
Aber mal eine andere Frage, würde bei deiner GTX 660 nicht ein 203Watt Netzteil reichen? Oder ist einst schon sehr/so laut?

@ ...Fi...
Da du ein Quad-Core hast, kannst du von der Leistung nehmen was du willst. Und die genannte GTX 660 Ti sollte in der Effizienz und Leistung zwischen der GTX 660 und GTX 770 liegen. Zum Gehäuse könntest du ja die ViDock angucken, sonst frage MeisterFenster ob er notfalls Bilder hochlädt.

@ Windeugen
Aber mit einer AMD GPU kannst du kein Optimus benutzten, nur zur Info....
 
Zurück
Oben