Den Unterschied kenne ich, es ist allerdings auch ein Unterschied, ob ich eine CPU unter Last damit kühle oder die Verlustleistung eines Netzteils. OK, im Notebook, welches für eine eGPU gedacht ist, sind es ja nur rund 45W für die CPU plus VRMs und Chipsatzestros schrieb:Lern bitte den Unterschied zwischen der Funktionsweise eines Radial- und Axiallüfter.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Aorus RTX 2080 Ti Gaming Box: Erstes eGPU-Gehäuse mit RTX 2080 Ti ist wassergekühlt
Wattwanderer
Rear Admiral
- Registriert
- Juni 2005
- Beiträge
- 5.789
der Unzensierte schrieb:Wer bitte nutzt wirklich eine eGPU-Box? Die Zocker die keinen Desktop zu Hause stehen haben? Wie groß ist der Markt da eigentlich? Ich halte das eher für eine Machbarkeitsstudie.
Ich staune auch.
Spiele die solche Grafikkarten benötigen werden kaum ohne sie laufen, sprich auch unterwegs mal spielen geht nicht. Dann marschieren die Spiele stramm auf 100 GB auf SSD zu. Im Notebook lassen sich aber keine zusätzliche SSDs nachrüsten. Mit Touchpad wird wohl keiner spielen, die Notebooktastaturen sind ohnehin solala. Dazu noch ein Display und diese Kiste.
Bei dem Preis der woh aufgerufen werden wird, warum nicht ein klein wenig mehr für CPU, RAM, etwas größeres Gehäuse?
Einen Vorteil sehe ich aber. Man kann sie einfacher entsorgen ohne das Gehäuse aufschrauben zu müssen.
der_infant
Lieutenant
- Registriert
- Dez. 2014
- Beiträge
- 858
Hat eine Weile ein starkes Gaming Notebook fürs Gaming unterwegs und zuhause am WQHD Monitor.
Der Kabelsalat auf dem Schreibtisch daheim hat aber so genervt dass ich schnell wieder ein Desktop besorgt habe.
Einschalten, fertig.
Als Businessnotebook hätte der Monster Laptop aber nicht getaugt. Zu groß, zu schwer, zu viel Bling Bling, einfach nur peinlich xD.
Da macht eine solche eGPU schon Sinn.
Der Kabelsalat auf dem Schreibtisch daheim hat aber so genervt dass ich schnell wieder ein Desktop besorgt habe.
Einschalten, fertig.
Als Businessnotebook hätte der Monster Laptop aber nicht getaugt. Zu groß, zu schwer, zu viel Bling Bling, einfach nur peinlich xD.
Da macht eine solche eGPU schon Sinn.
estros
Fleet Admiral
- Registriert
- Sep. 2009
- Beiträge
- 10.424
Wenn du den Unterschied kennst, warum schreibst du dann solch Unsinn? Es gibt keinen Axiallüfter im Notebook, da dies technisch keinen Sinn macht.Ozmog schrieb:Den Unterschied kenne ich, es ist allerdings auch ein Unterschied, ob ich eine CPU unter Last damit kühle oder die Verlustleistung eines Netzteils. OK, im Notebook, welches für eine eGPU gedacht ist, sind es ja nur rund 45W für die CPU plus VRMs und Chipsatz
feed3r
Cadet 4th Year
- Registriert
- Juni 2008
- Beiträge
- 69
Gaming-GPUs kommen nicht nur zum Zocken zum Einsatz, sondern immer mehr für GPU-basierte Renderer (z.B. Otoys Octane Render) – für Mac-User, die mit ihrer integrierten GPU nicht weit kommen, ist so eine eGPU die einzige Lösung, an wirkliche Renderpower zu kommen. Auf jeden fall eher eine Nische, aber nicht zu unterschätzen!
Hab ich behauptet, dass da ein Axiallüfter drin ist? Es geht eben doch um die eher begrenzte Fördermenge und relativ kleine Lüfter, dazu ja auch die relativ kompakte Kühlung an sich. Ein Notebook ist eben ein Kompromiss bei der Kühlung notwendig, da wird es bei vielen schon bei 45W TDP einer CPU knapp, der Turbo kommt nur kurz zum Tragen und dann geht es mit Basistakt weiter. Immerhin wenn man gedenkt, dass an dem Laptop eine 2080Ti ran soll, sollte die CPU wenigstens etwas Leistung bringen.
polaxis
Cadet 4th Year
- Registriert
- Okt. 2012
- Beiträge
- 94
Denke, der Markt wird schon eher beschränkt sein. In einem Freundeskreis, in dem einige von uns regelmässig spontan an unterschiedlichen Firmenstandorten arbeiten mussten und in Hotels gelebt haben, war ich der einzige, der sich eine eGPU angeschafft hat. Damals noch eine 560ti in einer ViDock angeschlossen via Express Card Slot an ein Lenovo X220. Für mich im Nachhinein immer noch eine Anschaffung, welche ich nie bereut habe.der Unzensierte schrieb:Wer bitte nutzt wirklich eine eGPU-Box? Die Zocker die keinen Desktop zu Hause stehen haben? Wie groß ist der Markt da eigentlich? Ich halte das eher für eine Machbarkeitsstudie.
Meine Frage zu dem Ding hier: Ist da das Netzteil schon im Gehäuse mit drin? Wenn ja, gehts für mich eigentlich ganz OK mit der Grösse. Bei der ViDock hatte ich 2 massive, externe Netzteile.
Drin und kann noch das NB mit 100w laden.polaxis schrieb:Meine Frage zu dem Ding hier: Ist da das Netzteil schon im Gehäuse mit drin? W
TB3 mit 4 Lanes sind 32 Gbit/s, denn eine Lane ist 8 Gbit/s.Sephe schrieb:TB3 mit 4 lanes (40 gbit/s) ist in Grunde schon ausreichend.
Voraussetzung ist aber, dass das Display an die eGPU angeschlossen ist, und die Anzeigedaten somit nicht zurück zum Display müssen.
Wenn man auf die Netzwerkkarte verzichtet, werden nochmal 2 gibt frei.
Hab ein MBPro 2018 mit integrierter Radeon Pro 555X und einer Vega 56 per eGPU, wo 3x 1440p60 und 1x 1080p60 dran hängen.
Von den vergleichen her, bin ich 0-5% langsamer als eine vega 56 ohne TB3.
(Nutze es für videobearbeitung, Fusion 360, Games wie Far cry 4/5, csgo etc....)
Läuft ohne Probleme auch im Windows 10 Bootcamp.
https://de.m.wikipedia.org/wiki/Thunderbolt_(Schnittstelle)j-d-s schrieb:TB3 mit 4 Lanes sind 32 Gbit/s, denn eine Lane ist 8 Gbit/s.
40 Gbit/s brutto = 32 gbit/s an pcie lanes.Thunderbolt 3
- Thunderbolt
- 40-Gbit/s-Thunderbolt-3 – verdoppelte Geschwindigkeit gegenüber Thunderbolt 2
S
so_oder_so
Gast
Ich habe bei Alu-Radiator aufgehört zu lesen. o__O
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.882
Lange wird es wohl nicht mehr dauern bis Nachschub in Form von nVidia 7nm Ampere GPUs kommen sollen, von Juni 2020 ist die Rede in WccfTechs Gerüchteküche.
Angeblich sollen zuerst Tesla Ampere Karten im Frühling an den Start gehen und dann im Sommer eben gewohnt (vor Turing) traditionell 70er und 80er Karten bevor dann später eine RTX 3080Ti mit nicht ganz mehr so teuer zu fertigenden Grosschip an den Start gehen soll.
Angeblich sollen die Ampere Grafikkarten sogar günstiger als jetzige Turing (Refresh) GPUs werden, aber das glaube ich erst, wenn ich es sehe (Preisdruck durch Konkurrenz von AMD/RTG und evt. Intel in der Mittelklasse?) .
Somit dürfte diese eGPU von Gigabyte auch in ca. einem halben Jahr ausgedient haben, denn eine RTX 3080 wird mit Sicherheit schneller sein als eine RTX 2080Ti und vielleicht kommt eine RTX3070 ganz nahe an eine RTX 2080Ti heran, nur deutlich günstiger und effizienter, wir werden sehen .
Angeblich sollen zuerst Tesla Ampere Karten im Frühling an den Start gehen und dann im Sommer eben gewohnt (vor Turing) traditionell 70er und 80er Karten bevor dann später eine RTX 3080Ti mit nicht ganz mehr so teuer zu fertigenden Grosschip an den Start gehen soll.
Angeblich sollen die Ampere Grafikkarten sogar günstiger als jetzige Turing (Refresh) GPUs werden, aber das glaube ich erst, wenn ich es sehe (Preisdruck durch Konkurrenz von AMD/RTG und evt. Intel in der Mittelklasse?) .
Somit dürfte diese eGPU von Gigabyte auch in ca. einem halben Jahr ausgedient haben, denn eine RTX 3080 wird mit Sicherheit schneller sein als eine RTX 2080Ti und vielleicht kommt eine RTX3070 ganz nahe an eine RTX 2080Ti heran, nur deutlich günstiger und effizienter, wir werden sehen .
O
OTM-Offline
Gast
Die ganzen intern-extern-Vergleiche gibt es doch schon länger.
https://egpu.io/forums/mac-setup/pcie-slot-dgpu-vs-thunderbolt-3-egpu-internal-display-test/
Und zur Skalierung:
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/3.html
Am Ende ist es eigentlich ganz einfach:
FPS-Jäger können eGPU-Lösungen aktuell ignorieren.
Realistisch gesehen wird eine x4-Anbindung bei Hochleistungs-GPUs ab PCIe 4.0 interessant.
Ab PCIe 5.0 wird es kaum noch Einbussen geben und ab PCIe 6.0 wird es dann wahrscheinlich zu 98% egal sein, ob man eine interne oder externe Grafikkarte nutzt.
https://egpu.io/forums/mac-setup/pcie-slot-dgpu-vs-thunderbolt-3-egpu-internal-display-test/
Und zur Skalierung:
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/3.html
Am Ende ist es eigentlich ganz einfach:
FPS-Jäger können eGPU-Lösungen aktuell ignorieren.
Realistisch gesehen wird eine x4-Anbindung bei Hochleistungs-GPUs ab PCIe 4.0 interessant.
Ab PCIe 5.0 wird es kaum noch Einbussen geben und ab PCIe 6.0 wird es dann wahrscheinlich zu 98% egal sein, ob man eine interne oder externe Grafikkarte nutzt.
Zuletzt bearbeitet von einem Moderator:
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 426
- Antworten
- 9
- Aufrufe
- 420
- Antworten
- 19
- Aufrufe
- 1.367
- Antworten
- 4
- Aufrufe
- 1.191
- Antworten
- 2
- Aufrufe
- 778