Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAorus RTX 4090 Gaming Box: Nvidias Flaggschiff kommt ins eGPU-Gehäuse von Gigabyte
Du, wie viele andere macht den Fehler, dass du nur an spielen denkst. Für professionelle Anwendungen zum Beispiel 3-D Rendering ist so eine Lösung Gold wert. Und da ist auch die Anbindung der PCIe Lanes nicht so wichtig.
Du hast vollkommen Recht. Ich dachte mir nur wenn die Lösung schon 2000,00-2500,00€ kostet dann noch 2000,00€ für ein Notebook mit entsprechender Leistung dann kann man gleich das ganze in einem nehmen und keine Probleme wegen der mangelnden Bandbreite haben.
Mir ist auch klar, dass eine 4090 Laptop nicht vergleichbar mit einer Desktop ist. Aber die Dinger haben trotzdem schon eine echt gute Leistung laut der ersten Testberichte........
Was ich bisher vom Razer 16 gesehen habe hat mich schon beeindruckt. Natürlich ist es preislich weit über dem was ich maximal bezahlen würde.
Es gibt aber einen Markt und wer es kaufen möchte, "darf" es jederzeit kaufen. Es ist immer nur ein Angebot, was man macht.
Ist das Angebot (vor allem in finanzieller Hinsicht) schlecht, bleibt man darauf sitzen.
Wenn mein Kumpel mit seinem Raspberry ankommt und Games mit dem Pi über Streaming mit seiner Hardware zockt, die im Rechenzentrum in FF/M steht und die Leitung gut ist, schaue ich mit meinem Ryzen7 4800H und meiner RTX3060 auch immer neidisch, was bei ihm so geht.
Er vermietet Rechenleistung an Geschäftskunden und ein bisschen kann man immer abzweigen.
Wenn wir bei anderen Kumpels sind und da liegt 16 Mbit von der Telekom an, weil noch nichts schnelleres geht, sieht es natürlich anders aus.
Natürlich kann man die Leistung auslagern. Es muss nicht im Endgerät stecken.
Wenn du damit Geld verdienst und es jeden Tag benutzt finde ich 4500,00€ für einen Laptop keine schlimme Investition. Man kann es abschreiben es spart einem Zeit und generiert Umsatz. Sicher eine bessere Investition als der Audi A6, BMW 5er oder die E-Klasse als Firmenwagen (auch hier gibt es natürlich andere Meinungen und soll jetzt nur als plakatives überspitztes Beispiel dienen).
Aber bei dem externen TB4 Gehäuse ergibt sich für mich kein Sinn. Vielleicht geht es hier auch einfach darum das technisch machbare zu demonstrieren...... und etwas Aufmerksamkeit für die grundsätzliche Lösung zu generieren.
Wahrscheinlich werden mehr die Docking-Lösung mit schwächeren Grafikkarten nutzen.
Die Idee war ursprünglich mal interessant. Aber richtig Sinn hat das ganze ja noch nie gemacht. Die Leistung der GraKa verkümmert durch Flaschenhals und softwaremäßige Umsetzung extrem. Abgesehen davon gelangt man beim Gesamtkunstwerk in preisliche Regionen, die ein ernsthaftes Nachdenken über einen separaten Zocker-PC sinnvoll erscheinen lassen.
Wenn dann gehört die Karte in den Rechner. Mich würde schon das zweite Gehäuse nerven. Aber wenigstens sollte in dem separaten Gehäuse der Stecker nicht anfangen zu schmoren... 😁
Asus hatte doch mal eine eGPU mit einer Laptop GPU drin. Das Ding wurde über USB (eventuell kein TB?) UND PCIe angebunden. Und haben die RTX 3000 eGPUs nicht auch schon Probleme mit Bandbreite gehabt?
hab auch schon mit dem gedanken gepielt. cpu-power ist für mich in nem vernünftigen laptop auf jeden fall genug vorhanden.
aber wenn ne 3060 in egpu wirklich das vernünftige maximum ist, sollte man vielleicht eher auf einen laptop mit 4050m oder 4060m schielen.
Das wäre als Limit echt zu wenig Dampf von der CPU, aber wenn man eine 8-16 Core CPU mit höherem Takt hat, ist man auch gleich bei >25W - eher bei 35-55W.
Wie gesagt in irgend einem Limit ist man immer.
TB3/4 ist hier natürlich fürn Arsch ganz klar. Erst mit USB 4 2.0 könnte ich mir vorstellen das man das ganze soweit bekommt und weniger als 5% Leistungsverlust hat zum Desktop. Das wäre dann der Punkt wo ich Persönlich umsteigen würde.
Aber eine 28Watt 8 kern CPU mit Sehr schnellem Ram ist dann fürs Gaming meistens total ausreichend. Klar ist dann eher die CPU der Flaschenhals aber in irgend ein Limit rennt man immer. Für mich sind 4 K Max setting und dann mit Free/Gsync 70-120 fps das optimum was ich gern hätte.
Dafür brauch ich keine 6GHZ 12 Kern CPU. Zumindest nicht in jedem Game
Das stimmt wohl - hab derzeit im Server nen Ryzen 5560U mit 25W und der rennt halt nur mit 3,9GHz Allcore bei 12 Threads.
Das ist halt auch grenzwertig, man wird def. AVG FPS einbüßen, sollte man in 4K dort versuchen >60 FPS zu kommen.
Laufen sollte es natürlich, aber so gut wie z.B. mein 13700K heute schon vom Threadload ausgelastet ist, ist klar in welche Richtung es geht.
Kommt auch immer auf das Spiel an, neue Titel werden hier ggf. stärkeren Impact haben, ältere Titel nicht, aber bei älteren Titeln stellt sich die Frage nach einer 4090^^
Wenn ich aber sehe wie Effizient ein 5800X3D ist für die Leistung sehe ich da für die nächsten 2 Gens bis USB4 2.0 kommt ganz hoffnungsvoll in die Zukunft.
Könnte mir vorstellen das man dann im NOtebook mit 28-45 Watt wirklich Leistungsstarke CPUs bekommen kann. Ich wünsche es mir auf jedenfall.
Es gibt Laptops, die einen PCIe 3.0 x8 Anschluss haben. Asus hat hier eine proprietäre Lösung namens "ROG XG Mobile Interface", Alienware hatte etwas eigenes, MSI oder GigaByte glaube ich auch, aber das ist alles schon wieder vom Markt verschwunden.
Es gibt einen Molex Standard für einen PCIe x8 Anschluss (hauptsächlich im Serverbereich), sowie SFF-8611 alias OCuLink-2 - diesen habe ich bis jetzt erst auf 2 oder 3 Notebooks gesehen, einer davon war ein obskurer Chinalaptop. OCuLink-2 würde aber sogar PCIe 4.0 x8 unterstützen.
Da hab ich mich wirklcih darüber gefreut. Aber dann kommen sie mit mobile GPUs in einem Externen Gehäuse. Also wer sich den Mist ausgedacht hat gehört auch mit dieser eGPU verprügelt bis er seine Blasphemie einsieht.
Hätten sie wenigstens ihr normales eGPU gehäuse auch mit dem anschluss gebracht. Und schon wäre eine 4090 wieder super angebunden gewesen. Kein Plan warum die sowas nicht zu ende denken.
Hab die Auros mit 1070 und die bringt quasi Desktop Leistung. Benches mit einer Oberklasse GPU würden mich echt interessieren. Ist vermutlich Perlen vor die Säue.
Jein. Wenn dir da 2m Kabel reichen dann ja. Ansonsten wirds nix, da es keine längeren Kabel gibt, die dir volle Bandbreite liefern.
Das stimmt nicht ganz,
regulär gibt es noch das TB Kabel von Apple (was ich als 3m Version habe) und welche von Corning per Glasfaser TB3 (5m, 10m etc).
Aber diese sind richtig schweine Teuer…
Da bin ich mit meinen 108€ noch günstig weggekommen im Verhältnis.
Wenn man mit cuda auf der Karte signal prozessierung rechnet. Z. B. Mrt oder CT Bild prozessierung tut einem die thunderbolt Bandbreite nicht weh, man profitiert aber schon von der Gpu Performance.
Das stimmt nicht ganz,
regulär gibt es noch das TB Kabel von Apple (was ich als 3m Version habe) und welche von Corning per Glasfaser TB3 (5m, 10m etc).
Aber diese sind richtig schweine Teuer…
Da bin ich mit meinen 108€ noch günstig weggekommen im Verhältnis.
Okay, habe mich nicht präzise genug ausgedrückt. Ich bezog mich auf passive Kabel. Das 3m Kabel von Apple war mir bisher nicht bekannt. Hab für mein 2m Kabel 60 EUR bezahlt.