Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Leserartikel [eGPU] externe Grafikkarte für das Notebook
- Ersteller Eisbrecher99
- Erstellt am
Rohirrim
Lieutenant
- Registriert
- Apr. 2007
- Beiträge
- 586
Hallo,
mein PE4C-V2.1 ist angekommen und ich wollte meine ersten Erfahrungen posten.
Zum System:
Lenovo X230 mit i5-3320m, 2x4GB Ram, HD 4000 iGPU
PE4C-V2.1, altes ATX-Netzeil mit 400W
Zotac GTX750Ti mit gemoddetem Bios (nur übertaktet und das Powerlimit aufgehoben)
Der TOLUD-Wert des X230 lag vor dem Anschließen der GPU bei DFA0000000.
Habe die Grafikkarte in den Adpater gestellt, das HDMI-Kabel mit Expresscard-Adapter an das X230 angeschlossen, die Stromversorgung des Adapter mit Hilfe des 4pin-CPU Kabels, sowie des 24PIN-ATX Kabels hergestellt.
Im Anschluss den Laptop gestartet.
Es kam nach zwei Sekunden zu einem Neustart und Windows ist ganz normal gestartet. Dann habe ich die NVidia-Treiber installiert, neu gestartet und das wars auch schon - lief alles "plug & play".
Ein erster Test mit 3dmark11 ergab 4994 Punkte, siehe link.
http://www.3dmark.com/3dm11/9212946
Achja, TOULD-Wert nach dem Anschluss ist BFA0000000. Optimus funktioniert, ich kann im Treiber auswählen welche GPU übernehmen soll. Desweiteren lief der Test in 3dmark11 auf dem internen Bildschirm.
Weitere Tests mit Spielen werden folgen.
Guten Rutsch!
edit: Der Adapter kam leider ein wenig beschädigt an (am PCI-e-Slot ist am Ende ein Stück abgebrochen) . Meint ihr ich kann einen Teil des Betrages zurückbekommen - obwohl er zumindest bis jetzt tadellos funktioniert?
mein PE4C-V2.1 ist angekommen und ich wollte meine ersten Erfahrungen posten.
Zum System:
Lenovo X230 mit i5-3320m, 2x4GB Ram, HD 4000 iGPU
PE4C-V2.1, altes ATX-Netzeil mit 400W
Zotac GTX750Ti mit gemoddetem Bios (nur übertaktet und das Powerlimit aufgehoben)
Der TOLUD-Wert des X230 lag vor dem Anschließen der GPU bei DFA0000000.
Habe die Grafikkarte in den Adpater gestellt, das HDMI-Kabel mit Expresscard-Adapter an das X230 angeschlossen, die Stromversorgung des Adapter mit Hilfe des 4pin-CPU Kabels, sowie des 24PIN-ATX Kabels hergestellt.
Im Anschluss den Laptop gestartet.
Es kam nach zwei Sekunden zu einem Neustart und Windows ist ganz normal gestartet. Dann habe ich die NVidia-Treiber installiert, neu gestartet und das wars auch schon - lief alles "plug & play".
Ein erster Test mit 3dmark11 ergab 4994 Punkte, siehe link.
http://www.3dmark.com/3dm11/9212946
Achja, TOULD-Wert nach dem Anschluss ist BFA0000000. Optimus funktioniert, ich kann im Treiber auswählen welche GPU übernehmen soll. Desweiteren lief der Test in 3dmark11 auf dem internen Bildschirm.
Weitere Tests mit Spielen werden folgen.
Guten Rutsch!
edit: Der Adapter kam leider ein wenig beschädigt an (am PCI-e-Slot ist am Ende ein Stück abgebrochen) . Meint ihr ich kann einen Teil des Betrages zurückbekommen - obwohl er zumindest bis jetzt tadellos funktioniert?
Ich habe eine Frage. Man kann ja die Bandbreite in Setup 1.3 verändern um seinen Leistung zu verbessern (so stand es in der FAQ). Aber wenn ich es in der Setup 1.3 verändern will kann ich nicht meine eGPU auswählen sondern nur "BroadCm" (BroadCm ist auf Port 1 und meine eGPU auf Port 2). Kann ich es irgendwie schaffen, meine eGPU auf x4 oder x2e Bandbreite zu erhöhen?
- Registriert
- Juli 2008
- Beiträge
- 4.636
@gwstier: Für alles über einer x1 Lane brauchst du halt notwendiger Weise auch entsprechend mehr physische Lanes. Allein der PE4H v2.4a (leider nur PCIe 1.1) würde max. 4 Lanes bieten, wenn dein Notebook auch 1x Expresscard und 3x mPCIe bietet. Und dann kommt es noch darauf an, welche Ports die jeweiligen Anschlüsse intern belegen. Es gehen nämlich nur bestimmte Ports paarweise.
Bei Thunderbolt1 hat man über ein Kabel 2 Lanes, bei TB2 schon 4.
Das BoardCm auf Port1 ist eine Netzwerkkarte... so denke ich.
Schön, dass das bei dir so unkompliziert geklappt hat! Kannst ja mal fragen bei hwtools.net und noch ein Bild vom Adapter und dem Schaden mitschicken. Kann ich nicht ausschließen, dass die eine adequatsche Lösung finden werden bzw. evtl. auch einen Austausch schicken.
Bei Thunderbolt1 hat man über ein Kabel 2 Lanes, bei TB2 schon 4.
Das BoardCm auf Port1 ist eine Netzwerkkarte... so denke ich.
Rohirrim schrieb:edit: Der Adapter kam leider ein wenig beschädigt an (am PCI-e-Slot ist am Ende ein Stück abgebrochen) . Meint ihr ich kann einen Teil des Betrages zurückbekommen - obwohl er zumindest bis jetzt tadellos funktioniert?
Schön, dass das bei dir so unkompliziert geklappt hat! Kannst ja mal fragen bei hwtools.net und noch ein Bild vom Adapter und dem Schaden mitschicken. Kann ich nicht ausschließen, dass die eine adequatsche Lösung finden werden bzw. evtl. auch einen Austausch schicken.
Zuletzt bearbeitet:
DaysShadow
Admiral
- Registriert
- Jan. 2009
- Beiträge
- 8.878
@gwstier: Du kannst in Setup 1.3 nur die Version der PCIe Leitung einstellen, du änderst nicht wirklich die Bandbreite. Version 1 bot halt nur die Hälfte der Bandbreite von Version 2, aber trotzdem bleibt die Leitung in deinem Notebook natürlich die gleiche, sie wird nur anders betrieben.
Und wenn das so einfach wäre, wäre man nicht scharf auf Thunderbolt oder M.2 und die eGPU Geschichte wäre schon viel weiter verbreitet.
Und wenn das so einfach wäre, wäre man nicht scharf auf Thunderbolt oder M.2 und die eGPU Geschichte wäre schon viel weiter verbreitet.
Rohirrim
Lieutenant
- Registriert
- Apr. 2007
- Beiträge
- 586
Hier sind noch ein paar Ergebnisse:
3dmark06 internes Display: 17947
http://www.3dmark.com/3dm06/17709990
3dmark06 externes Display: 19828
http://www.3dmark.com/3dm06/17710294
3dmark11 internes Display: 4991
http://www.3dmark.com/3dm11/9218562
3dmark11 externes Display: 5232
http://www.3dmark.com/3dm11/9221426
Battlefield 3 lässt sich problemlos auf mittleren Details auf dem internen Display spielen. Selbst Ultra-Einstellungen sind meist über 30fps. Allerdings fühlt es sich ein bisschen träge an, auch wenn die Frames scheinbar in Ordnung sind.
Auf einem externen Display sind hohe-ultra-Details kein Problem. Dort läuft es gefühlt auch flüssiger.
Was mir noch aufgefallen ist. Wenn ich die Ausgabe auf einem externen Monitor haben möchte, so muss ich ihn während des Betriebs anschließen. Steck ich ihn bei ausgeschalteter eGPU an, so bleibt der Boot direkt am Anfang stehen und der Monitor wird nicht angesteuert. Ist das "normal" oder kann/muss ich irgendwas bei den Einstellungen ändern?
Mfg
3dmark06 internes Display: 17947
http://www.3dmark.com/3dm06/17709990
3dmark06 externes Display: 19828
http://www.3dmark.com/3dm06/17710294
3dmark11 internes Display: 4991
http://www.3dmark.com/3dm11/9218562
3dmark11 externes Display: 5232
http://www.3dmark.com/3dm11/9221426
Battlefield 3 lässt sich problemlos auf mittleren Details auf dem internen Display spielen. Selbst Ultra-Einstellungen sind meist über 30fps. Allerdings fühlt es sich ein bisschen träge an, auch wenn die Frames scheinbar in Ordnung sind.
Auf einem externen Display sind hohe-ultra-Details kein Problem. Dort läuft es gefühlt auch flüssiger.
Was mir noch aufgefallen ist. Wenn ich die Ausgabe auf einem externen Monitor haben möchte, so muss ich ihn während des Betriebs anschließen. Steck ich ihn bei ausgeschalteter eGPU an, so bleibt der Boot direkt am Anfang stehen und der Monitor wird nicht angesteuert. Ist das "normal" oder kann/muss ich irgendwas bei den Einstellungen ändern?
Mfg
Zuletzt bearbeitet:
- Registriert
- Juli 2008
- Beiträge
- 4.636
Ja, das ist normal. Der externe Monitor wird erst spätestens beim Login-Screen von Windows aktiviert. Ich habe einen HDMI-Switch und erst ab diesem Zeitpunkt wird vom Notebook zum externen Monitor umgeschaltet.
amorosa
Captain
- Registriert
- Okt. 2013
- Beiträge
- 4.033
Hey, ich bins nochmal. Habe nun einen anderen Laptop hier stehen wo ich nochmal die ein oder andere Frage habe.
Es ist ein Intel Core I7 740QM und eine Nvidia GTX460M verbaut (MXM-Auswechselbar).
Optimus ist somit nicht vorhanden.
Nun wollte ich die Grafikkarte sowieso über einen externen Monitor betreiben. Und nun kommen wir zu den Fragen :-).
1. Optimus dürfte doch gar keine Rolle spielen, wenn ich die Grafikkarte sowieso über einen externen Monitor betreibe oder ? Also ich hatte vorher einen anderen Laptop der über Optimus verfügte, aber auch da hätte ich das Bild über einen externen Monitor laufen lassen. Würde es da einen Unterschied geben ? Soweit ich das verstanden habe, gibt es KEINEN Leistungsverlust, wenn man es am externen Monitor dran hat. Stimmt das so weit ?
2. Frage : Welche Graka könnte meine CPU noch stemmen ? Vorher wurde mir zu meinem I5 eine GTX660TI angeraten. Ist der I7 schwächer, weil er älter ist ? Oder habe ich mit dem älteren I7 ein +-=0 ?
3. Frage : Dieser Laptop hier hat einen ExpressCard Slot. Kann jemand von euch mir das passende Produkt dazu raussuchen ? Ich habe bei den vielen Revisionen keinerlei Plan und hätte bei meinem anderen Laptop auch zu dem falschen Produkt gegriffen, wenn ihr mir nicht das richtige genannt hättet ;-). ( Danke nochmal dafür !)
4. Frage : Der Tould...Jedes mal, wenn ich den ausrechnen will, dann kommen da ganz seltsame Zahlen bei heraus, die nicht wirklich in das Schema passen. Keine Ahnung, was für einen Fehler ich mache, aber da es so ähnlich wie bei meinem alten Laptop aussieht müssten das doch glatte 2.5GB sein, oder ?

5. Frage : Muss ich dann die MXM Grafikkarte ausbauen ? Oder kann ich sie einfach im Laptop lassen ? Reicht es, sie im Gerätemanager zu deaktivieren, NACHDEM ich die EGPU angeschlossen und installiert habe ?
Ich danke euch schonmal im Voraus ^^
Wenn das alles nichts wird, dann rüste ich eben mit MXM nach ^^. Ist im Endeffekt genauso teuer
Es ist ein Intel Core I7 740QM und eine Nvidia GTX460M verbaut (MXM-Auswechselbar).
Optimus ist somit nicht vorhanden.
Nun wollte ich die Grafikkarte sowieso über einen externen Monitor betreiben. Und nun kommen wir zu den Fragen :-).
1. Optimus dürfte doch gar keine Rolle spielen, wenn ich die Grafikkarte sowieso über einen externen Monitor betreibe oder ? Also ich hatte vorher einen anderen Laptop der über Optimus verfügte, aber auch da hätte ich das Bild über einen externen Monitor laufen lassen. Würde es da einen Unterschied geben ? Soweit ich das verstanden habe, gibt es KEINEN Leistungsverlust, wenn man es am externen Monitor dran hat. Stimmt das so weit ?
2. Frage : Welche Graka könnte meine CPU noch stemmen ? Vorher wurde mir zu meinem I5 eine GTX660TI angeraten. Ist der I7 schwächer, weil er älter ist ? Oder habe ich mit dem älteren I7 ein +-=0 ?
3. Frage : Dieser Laptop hier hat einen ExpressCard Slot. Kann jemand von euch mir das passende Produkt dazu raussuchen ? Ich habe bei den vielen Revisionen keinerlei Plan und hätte bei meinem anderen Laptop auch zu dem falschen Produkt gegriffen, wenn ihr mir nicht das richtige genannt hättet ;-). ( Danke nochmal dafür !)
4. Frage : Der Tould...Jedes mal, wenn ich den ausrechnen will, dann kommen da ganz seltsame Zahlen bei heraus, die nicht wirklich in das Schema passen. Keine Ahnung, was für einen Fehler ich mache, aber da es so ähnlich wie bei meinem alten Laptop aussieht müssten das doch glatte 2.5GB sein, oder ?

5. Frage : Muss ich dann die MXM Grafikkarte ausbauen ? Oder kann ich sie einfach im Laptop lassen ? Reicht es, sie im Gerätemanager zu deaktivieren, NACHDEM ich die EGPU angeschlossen und installiert habe ?
Ich danke euch schonmal im Voraus ^^
Wenn das alles nichts wird, dann rüste ich eben mit MXM nach ^^. Ist im Endeffekt genauso teuer
w32alcarys.zip
Newbie
- Registriert
- Jan. 2015
- Beiträge
- 6
Hi liebe Leute, erstmal wünsch ich euch noch ein tolles neues Jahr 
sehr schöner Thread übrigens. Durch diesen hat sich neulich Abend auch meine Entscheidung gefestigt eine eGPU zu nutzen, um mein Lenovo ideapad s12, das nur eine iGPU besitzt, für parallel computing nutzbar zu machen.
Bevor ich euch jetzt mit allen Einzelheiten zu meinem problem konfrontiere, wollte ich zunächst fragen, ob ich das überhaupt in diesem Thread tun darf oder lieber einen neuen eröffnen soll
(will hier kein Threadnapping betreiben)
Grob: ich nutze Xubuntu 12.04, eGPU wird nach kurzem Wechsel ins BIOS erkannt; ich erhalte dann alles Ausgaben auf dem externen Monitor; Lenovo-ideapad-Monitor gibt dann aber eine Fehlerhafte Ausgabe.
Liebe Grüße und vielen Dank im Voraus für eure Antworten

sehr schöner Thread übrigens. Durch diesen hat sich neulich Abend auch meine Entscheidung gefestigt eine eGPU zu nutzen, um mein Lenovo ideapad s12, das nur eine iGPU besitzt, für parallel computing nutzbar zu machen.
Bevor ich euch jetzt mit allen Einzelheiten zu meinem problem konfrontiere, wollte ich zunächst fragen, ob ich das überhaupt in diesem Thread tun darf oder lieber einen neuen eröffnen soll

Grob: ich nutze Xubuntu 12.04, eGPU wird nach kurzem Wechsel ins BIOS erkannt; ich erhalte dann alles Ausgaben auf dem externen Monitor; Lenovo-ideapad-Monitor gibt dann aber eine Fehlerhafte Ausgabe.
Liebe Grüße und vielen Dank im Voraus für eure Antworten
- Registriert
- Juli 2008
- Beiträge
- 4.636
@amorosa:
1) Jaein. Das kommt darauf an, welchem Grafikkartenhersteller zu den Vorzug geben willst. Nvidias profitieren von der implementieren Signalkompremierung. Jedoch schaffen die aktuellen AMDs mittlerweile in etwa das gleiche Niveau, auf dem sich die Nvidias mit Optimus bewegen.
2) Eine GTX660TI oder eine HD7950 halte ich immer noch für die maximale Wahl. Der i7-740QM ist gerade mal 10% schneller als ein T9600 und zu aktuellen Ivy Bridge / Haswell - CPUs >25%... das sind für Notebook-CPUs gewaltige Unterschiede.
3) Einen Adapter mit EC2C-Stecker, d.h. z.B. von Bplus der PE4L v2.1b, PE4C 1.2, PE4C 2.1 oder der EXP GDC.
4) Ist bei dir die 12. Zeile mit "E0000000", d.h. das sind 3,5GB. Ergo ein DSDT Override zwingend erforderlich.
5) Deaktivieren im Gerätemanager hat nur Einfluss auf den Treiber, nicht auf die dGPU selbst und somit keinerlei Auswirkungen auf den PCI_BUS. Problem wird auch seien, dass du mit ausgebauter dGPU im Fall der Fälle, d.h. beim Konfigurieren von eGPU nichts siehst. Ergo hoffen, dass der DSDT Override funktioniert und du unter 3,25GB kommst.
6) Ein Wechsel der MXM wäre naheliegend, nur bist du durch die max. TDP der MXM-GPUs beschränkt. Die 460M hat 72W, ergo ist das Kühlkonzept des Notebooks auch darauf ausgelegt. Max. wäre eine 780M mit 75W möglich. Alles darüber verlangt dann schon 100W und mehr. Für eine 780M von einem dt. Händler werden ~700€ fällig. Heftig.
@w32alcarys.zip: Klar kannst du das hier machen. Wenn du einen neuen Thread eröffnest, dann sprichst du eben nicht jene User an, die sich explizit damit auseinandersetzen können und würden.
Erläuter uns etwas, wie das "parallel computing" genau aussehen soll und was für eine fehlerhafte Ausgabe geliefert wird.
1) Jaein. Das kommt darauf an, welchem Grafikkartenhersteller zu den Vorzug geben willst. Nvidias profitieren von der implementieren Signalkompremierung. Jedoch schaffen die aktuellen AMDs mittlerweile in etwa das gleiche Niveau, auf dem sich die Nvidias mit Optimus bewegen.
2) Eine GTX660TI oder eine HD7950 halte ich immer noch für die maximale Wahl. Der i7-740QM ist gerade mal 10% schneller als ein T9600 und zu aktuellen Ivy Bridge / Haswell - CPUs >25%... das sind für Notebook-CPUs gewaltige Unterschiede.
3) Einen Adapter mit EC2C-Stecker, d.h. z.B. von Bplus der PE4L v2.1b, PE4C 1.2, PE4C 2.1 oder der EXP GDC.
4) Ist bei dir die 12. Zeile mit "E0000000", d.h. das sind 3,5GB. Ergo ein DSDT Override zwingend erforderlich.
5) Deaktivieren im Gerätemanager hat nur Einfluss auf den Treiber, nicht auf die dGPU selbst und somit keinerlei Auswirkungen auf den PCI_BUS. Problem wird auch seien, dass du mit ausgebauter dGPU im Fall der Fälle, d.h. beim Konfigurieren von eGPU nichts siehst. Ergo hoffen, dass der DSDT Override funktioniert und du unter 3,25GB kommst.
6) Ein Wechsel der MXM wäre naheliegend, nur bist du durch die max. TDP der MXM-GPUs beschränkt. Die 460M hat 72W, ergo ist das Kühlkonzept des Notebooks auch darauf ausgelegt. Max. wäre eine 780M mit 75W möglich. Alles darüber verlangt dann schon 100W und mehr. Für eine 780M von einem dt. Händler werden ~700€ fällig. Heftig.
@w32alcarys.zip: Klar kannst du das hier machen. Wenn du einen neuen Thread eröffnest, dann sprichst du eben nicht jene User an, die sich explizit damit auseinandersetzen können und würden.
Erläuter uns etwas, wie das "parallel computing" genau aussehen soll und was für eine fehlerhafte Ausgabe geliefert wird.
Zuletzt bearbeitet:
amorosa
Captain
- Registriert
- Okt. 2013
- Beiträge
- 4.033
Dankeschön für die vielen Informationen @Eisbrecher99 !
Also dann lasse ich das ganze mal lieber sein und werde mir eine GTX770M besorgen. Da habe ich die Chance günstig heran zu kommen. In FullHD spiele ich sowieso nicht, sondern noch in der guten alten 1280x1024-Auflösung. Dafür reicht es alle male
Also dann lasse ich das ganze mal lieber sein und werde mir eine GTX770M besorgen. Da habe ich die Chance günstig heran zu kommen. In FullHD spiele ich sowieso nicht, sondern noch in der guten alten 1280x1024-Auflösung. Dafür reicht es alle male

- Registriert
- Juli 2008
- Beiträge
- 4.636
Wie gesagt, auf die TDP achten. Eine GTX770M hatt 100W TDP.
w32alcarys.zip
Newbie
- Registriert
- Jan. 2015
- Beiträge
- 6
@ Eisbrecher99 und alle anderen natürlich auch 
Ich hab mir das PE4C v2.1 mit Expresscard EC2C zugelegt; funktioniert tadellos. Mein Netbook ist ein Lenovo ideapad s12, ohne nvidia Grafikchip, CPU ist ein Intel Atom, Betriebssystem ist Ubuntu 12.04.5 LTS.
Folgendes ereigent sich beim booten mit einer eGPU: ohne Wechsel ins BIOS bleibt die eGPU auf maximaler Lüfterdrehzahl und ich erhalte nur Treiber für die iGPU werden geladen. Über den externen Monitor erfolgt keine Ausgabe, sondern nur über den des Netbooks.
Wechsele ich hingegen vor dem booten von Xubuntu ins BIOS wird die eGPU erkannt (Treiber habe ich zuvor schon installiert), Lüfterdrehzahl der eGPU geht runter und ich kriege eine Ausgabe über einen externen Monitor, den ich an die eGPU angeschlossen habe. Jedoch sieht dann der Netbookscreen folgendermaßen aus:

~$ dmesg zeigt mir dann auch an, dass es ein Speicherproblem gibt ( das wird unter anderem auch beim shutdown des Systems angezeigt: detected 8192K stolen memory):
[ 1.317292] agpgart-intel 0000:00:00.0: Intel 945GME Chipset
[ 1.317403] agpgart-intel 0000:00:00.0: detected gtt size: 262144K total, 262144K mappable
[ 1.317550] agpgart-intel 0000:00:00.0: detected 8192K stolen memory
[ 1.317820] agpgart-intel 0000:00:00.0: AGP aperture is 256M @ 0xd0000000
[ 60.893633] [drm] capturing error event; look for more information in /debug/dri/0/i915_error_state
[ 60.896022] render error detected, EIR: 0x00000010
[ 60.896022] [drm:i915_report_and_clear_eir] *ERROR* EIR stuck: 0x00000010, masking
[ 60.896022] render error detected, EIR: 0x00000010
(die gesamte Ausgabe nochmal hier: https://bpaste.net/show/de6f185a6372)
In diesem Fall liefert mir ~$ cat /var/log/Xorg.0.log folgende Ausgabe:
[ 66.956] (II) NVIDIA dlloader X Driver 304.125 Mon Dec 1 19:57:42 PST 2014
[ 66.956] (II) NVIDIA Unified Driver for all Supported NVIDIA GPUs
[ 66.957] (II) NOUVEAU driver Date: Wed Nov 30 18:56:54 2011 +0100
[ 66.957] (II) NOUVEAU driver for NVIDIA chipset families :
[ 66.957] (II) NOUVEAU driver for NVIDIA chipset families :
[ 66.957] RIVA TNT (NV04)
[ 66.957] RIVA TNT2 (NV05)
[ 66.958] GeForce 256 (NV10)
[ 66.958] GeForce 2 (NV11, NV15)
[ 66.958] GeForce 4MX (NV17, NV18)
[ 66.958] GeForce 3 (NV20)
[ 66.958] GeForce 4Ti (NV25, NV28)
[ 66.958] GeForce FX (NV3x)
[ 66.959] GeForce 6 (NV4x)
[ 66.959] GeForce 7 (G7x)
[ 66.959] GeForce 8 (G8x)
(gesamte Ausgabe auch nochmal hier: https://bpaste.net/show/5d0626a9f478)
~$ lspci zeigt die Karte auch an:
05:00.0 VGA compatible controller: NVIDIA Corporation G92 [GeForce 8800 GTS 512] (rev a2)
Hingegen, ohne einen Besuch im BIOS (~$ cat /var/log/Xorg.0.log):
[ 70.572] (EE) Failed to initialize GLX extension (Compatible NVIDIA X driver not found),
dafür aber dann:
[ 70.300] (II) LoadModule: "intel"
[ 70.302] (II) Loading /usr/lib/xorg/modules/drivers/intel_drv.so
[ 70.307] (II) intel: Driver for Intel Integrated Graphics Chipsets: i810,
i810-dc100, i810e, i815, i830M, 845G, 854, 852GM/855GM, 865G, 915G,
E7221 (i915), 915GM, 945G, 945GM, 945GME.......
( Link zur gesamten Ausgabe findet sich hier: https://bpaste.net/show/e1e157832d44)
Das ist erstmal alles, was ich herausgefunden habe. Könnt Ihr mir damit weiterhelfen ? Ich bin etwas ratlos. Danke schön

Ich hab mir das PE4C v2.1 mit Expresscard EC2C zugelegt; funktioniert tadellos. Mein Netbook ist ein Lenovo ideapad s12, ohne nvidia Grafikchip, CPU ist ein Intel Atom, Betriebssystem ist Ubuntu 12.04.5 LTS.
Folgendes ereigent sich beim booten mit einer eGPU: ohne Wechsel ins BIOS bleibt die eGPU auf maximaler Lüfterdrehzahl und ich erhalte nur Treiber für die iGPU werden geladen. Über den externen Monitor erfolgt keine Ausgabe, sondern nur über den des Netbooks.
Wechsele ich hingegen vor dem booten von Xubuntu ins BIOS wird die eGPU erkannt (Treiber habe ich zuvor schon installiert), Lüfterdrehzahl der eGPU geht runter und ich kriege eine Ausgabe über einen externen Monitor, den ich an die eGPU angeschlossen habe. Jedoch sieht dann der Netbookscreen folgendermaßen aus:

~$ dmesg zeigt mir dann auch an, dass es ein Speicherproblem gibt ( das wird unter anderem auch beim shutdown des Systems angezeigt: detected 8192K stolen memory):
[ 1.317292] agpgart-intel 0000:00:00.0: Intel 945GME Chipset
[ 1.317403] agpgart-intel 0000:00:00.0: detected gtt size: 262144K total, 262144K mappable
[ 1.317550] agpgart-intel 0000:00:00.0: detected 8192K stolen memory
[ 1.317820] agpgart-intel 0000:00:00.0: AGP aperture is 256M @ 0xd0000000
[ 60.893633] [drm] capturing error event; look for more information in /debug/dri/0/i915_error_state
[ 60.896022] render error detected, EIR: 0x00000010
[ 60.896022] [drm:i915_report_and_clear_eir] *ERROR* EIR stuck: 0x00000010, masking
[ 60.896022] render error detected, EIR: 0x00000010
(die gesamte Ausgabe nochmal hier: https://bpaste.net/show/de6f185a6372)
In diesem Fall liefert mir ~$ cat /var/log/Xorg.0.log folgende Ausgabe:
[ 66.956] (II) NVIDIA dlloader X Driver 304.125 Mon Dec 1 19:57:42 PST 2014
[ 66.956] (II) NVIDIA Unified Driver for all Supported NVIDIA GPUs
[ 66.957] (II) NOUVEAU driver Date: Wed Nov 30 18:56:54 2011 +0100
[ 66.957] (II) NOUVEAU driver for NVIDIA chipset families :
[ 66.957] (II) NOUVEAU driver for NVIDIA chipset families :
[ 66.957] RIVA TNT (NV04)
[ 66.957] RIVA TNT2 (NV05)
[ 66.958] GeForce 256 (NV10)
[ 66.958] GeForce 2 (NV11, NV15)
[ 66.958] GeForce 4MX (NV17, NV18)
[ 66.958] GeForce 3 (NV20)
[ 66.958] GeForce 4Ti (NV25, NV28)
[ 66.958] GeForce FX (NV3x)
[ 66.959] GeForce 6 (NV4x)
[ 66.959] GeForce 7 (G7x)
[ 66.959] GeForce 8 (G8x)
(gesamte Ausgabe auch nochmal hier: https://bpaste.net/show/5d0626a9f478)
~$ lspci zeigt die Karte auch an:
05:00.0 VGA compatible controller: NVIDIA Corporation G92 [GeForce 8800 GTS 512] (rev a2)
Hingegen, ohne einen Besuch im BIOS (~$ cat /var/log/Xorg.0.log):
[ 70.572] (EE) Failed to initialize GLX extension (Compatible NVIDIA X driver not found),
dafür aber dann:
[ 70.300] (II) LoadModule: "intel"
[ 70.302] (II) Loading /usr/lib/xorg/modules/drivers/intel_drv.so
[ 70.307] (II) intel: Driver for Intel Integrated Graphics Chipsets: i810,
i810-dc100, i810e, i815, i830M, 845G, 854, 852GM/855GM, 865G, 915G,
E7221 (i915), 915GM, 945G, 945GM, 945GME.......
( Link zur gesamten Ausgabe findet sich hier: https://bpaste.net/show/e1e157832d44)
Das ist erstmal alles, was ich herausgefunden habe. Könnt Ihr mir damit weiterhelfen ? Ich bin etwas ratlos. Danke schön

halopole
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.065
Weiss jemand wie ich Optimus mit meiner Quadro nutzen kann? Im Treiber gibts diese Option nicht und wenn ich den GeForce Treiber installiere, fehlt die Option weiterhin und es kommt hin und wieder zu Hängern.
Optimus ist nicht nur wegen der Kompression für mich wichtig, sondern vor allem wegen der Möglichkeit alles weiterhin über das interne Display laufen zu lassen.
Optimus ist nicht nur wegen der Kompression für mich wichtig, sondern vor allem wegen der Möglichkeit alles weiterhin über das interne Display laufen zu lassen.
Hallo Leute, ich wollte mal fragen ob es schon jemand versucht oder hinbekommen hat, eine EGPU am m.2 slot zu betreiben? Dieser würde ja meines Wissens nach bis zu 4 Lanes pcie 3.0 bieten. Habe aktuell einen Acer vn7 mit einer gtx860m, daher würde sich kaum eine pcie x1 anbindung über mpcie lohnen. Adapter scheint es ja schon dafür zu geben, bin jedoch bei meiner Suche auf kein funktionierendes Setup gestoßen.
Adapter: http://www.adapter.co.jp/ExtenderBoard/P4SM2-jp.html
Danke schonmal, und freues Neues
Adapter: http://www.adapter.co.jp/ExtenderBoard/P4SM2-jp.html
Danke schonmal, und freues Neues
- Registriert
- Juli 2008
- Beiträge
- 4.636
@roma90: Nein, probiert hat das noch niemand. Kenne auch niemanden, der das im techinferno-Forum schon mal probiert hätte. Das Hautproblem dabei sollte nur sein, ob sich die Verbindung ohne Unterbrechnung auch per PCie-Riser weitergeben lässt. Mit den PCIe-Risern funktioniert nämlich nicht immer. Ansonsten müsste man die Grafikkarteschnittstelle nach oben bringen, d.h. Grafikkarte verkehrt herum in ein Eigenbaugehäuse einbauen und das Notebook quasi draufdocken. 
@halopole: Welchen Treiber hast du denn probiert?

@halopole: Welchen Treiber hast du denn probiert?
Zuletzt bearbeitet:
DaysShadow
Admiral
- Registriert
- Jan. 2009
- Beiträge
- 8.878
@roma90: Dann doch eher das EXP GDC v7 mit M.2(=NGFF) Anschluss -> http://www.yoybuy.com/en/show/40808703110/?s=t
Das ist wenigstens dafür konzipiert als eGPU zu dienen, im Gegensatz zu dem Produkt von BPlus, denn wenn es das wäre, würde es unter der eGPU Sektion geführt und das ist es nicht.
@all: Dass der EXP GDC v7 mit Thunderbolt funktioniert ist übrigens eine Fehlinformation(hatte ich mal irgendwann gelesen und hier geschrieben, weil er damit beworben wurde). Thunderbolt benötigt End-zu-End Authorisierung und das ist mit einem HDMI - Thunderbolt Kabel entsprechend nicht möglich. Das Gerät müsste dann einen Thunderbolt Chip haben, was aber bedeuten würde, dass Intel das abgesegnet hat und das ist dann doch eher unwahrscheinlich. Abgesehen davon wäre es dann eine reine Thunderbolt Verbindung.
So wurde es mal im Techinferno geklärt.
Das ist wenigstens dafür konzipiert als eGPU zu dienen, im Gegensatz zu dem Produkt von BPlus, denn wenn es das wäre, würde es unter der eGPU Sektion geführt und das ist es nicht.
@all: Dass der EXP GDC v7 mit Thunderbolt funktioniert ist übrigens eine Fehlinformation(hatte ich mal irgendwann gelesen und hier geschrieben, weil er damit beworben wurde). Thunderbolt benötigt End-zu-End Authorisierung und das ist mit einem HDMI - Thunderbolt Kabel entsprechend nicht möglich. Das Gerät müsste dann einen Thunderbolt Chip haben, was aber bedeuten würde, dass Intel das abgesegnet hat und das ist dann doch eher unwahrscheinlich. Abgesehen davon wäre es dann eine reine Thunderbolt Verbindung.
So wurde es mal im Techinferno geklärt.
DaysShadow
Admiral
- Registriert
- Jan. 2009
- Beiträge
- 8.878
Ok, ja. Erst HDMI 2.0 erfüllt die Bandbreite einer x2.2 Leitung mit 10 Gbit bei 14,4 Gbps die HDMI 2.0 hergibt, alles darunter kann nur eine x1.2 mit 5 Gbps bieten, da dort 7-8 Gbps mit den jeweiligen HDMI Versionen möglich sind. Ich bezweifle, dass HDMI 2.0 im EXP GDC verbaut ist und unten in der Spezifikation stehen auch die 5 Gbps drin.
Gut aufgepasst, besser als ich auf jeden Fall.
Gut aufgepasst, besser als ich auf jeden Fall.
Zufälligerweise hab ich auch noch so ein Gerät in der Schublade.w32alcarys.zip schrieb:Ich hab mir das PE4C v2.1 mit Expresscard EC2C zugelegt; funktioniert tadellos. Mein Netbook ist ein Lenovo ideapad s12, ohne nvidia Grafikchip, CPU ist ein Intel Atom, Betriebssystem ist Ubuntu 12.04.5 LTS.
...
Das ist erstmal alles, was ich herausgefunden habe. Könnt Ihr mir damit weiterhelfen ? Ich bin etwas ratlos. Danke schön![]()
Ich habe mal mein PE4C v2.1a + GTX460 angeklemmt. Es ist in der Tat etwas zickig. Linux habe ich derzeit zwar nicht installiert, aber unter Windows 7 (32 Bit) konnte ich Alles in Betrieb nehmen.
Dazu ist der Standby-Trick notwendig:
- Windows 7 booten
- Ideapad in den Standby schicken
- EC2C einschieben (beide Delay-Schalter auf 0 am PE4C)
- Ideapad aufwecken
Jetzt werden die Treiber installiert und die Karte kann verwendet werden. Ohne diese Schritte wird die Karte über ein Hotplugging am Bootloader sichtbar, kann allerdings nicht verwendet werden (Code 43 im Device Manager).
w32alcarys.zip schrieb:~$ dmesg zeigt mir dann auch an, dass es ein Speicherproblem gibt ( das wird unter anderem auch beim shutdown des Systems angezeigt: detected 8192K stolen memory):
[ 1.317292] agpgart-intel 0000:00:00.0: Intel 945GME Chipset
[ 1.317403] agpgart-intel 0000:00:00.0: detected gtt size: 262144K total, 262144K mappable
[ 1.317550] agpgart-intel 0000:00:00.0: detected 8192K stolen memory
[ 1.317820] agpgart-intel 0000:00:00.0: AGP aperture is 256M @ 0xd0000000
Das ist in dem Sinne kein Speicherproblem, sondern normal. Die iGPU hat keinen eigenen Speicher und reserviert/stiehlt sich was vom RAM.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 19
- Aufrufe
- 2.020
- Antworten
- 16
- Aufrufe
- 2.811
M
- Antworten
- 8
- Aufrufe
- 4.249
- Antworten
- 6
- Aufrufe
- 2.355