News eGPU-Gehäuse mit GeForce 3000: Refresh der Gigabyte Aorus Gaming Box im Anmarsch

Schade, dass es keine eCPU gibt, um ein betagtes TB3 i5-8350U Laptop mit einem AMD Ryzen 5900X zu versorgen :)

Freue mich schon auf die Ryzen 5000 mobile APU Vorstellung in Jan 2021.
 
IIIIIIIIIIIIIII schrieb:
betagtes TB3 i5-8350U Laptop
Was soll an dem Teil betagt sein? 4C/8T mit 3,6GHz Boost ist immer noch flott und das Ding ist gerade einmal vor 3 Jahren erschienen. Das Ding reicht für alltägliche Anwendungen (und sein wir ehrlich, für sowas kauft man sich halt eine 15W-CPU) noch mindestens 5 Jahre.
Ich selbst hab noch einen Core2Duo produktiv (Office, Videochat, etc) im ThinkPad laufen, ist zwar kein Genuss mehr, aber auch das geht noch.
 
  • Gefällt mir
Reaktionen: Homie2009 und icetom
He4db4nger schrieb:
Nja, die Präsentationsfolien von Apple waren da eigentlich relativ eindeutig, ebenso die Aussagen von einem der Entwickler, dass in Zukunft nur noch die Apple GPUs unterstützt werden.
Oh ok, das hab ich wohl verpasst. Ich fragte nur, weil ich bislang immer so Schlüsse gelesen hatte "kein eGPU im M1 - eGPU ist tot". Ich glaube aber, dass der M1 eben erst ein ganz frühes Ergebnis der ganzen 'ARM-Reise' ist und über den Verbleib von eGPUs nicht unbedingt etwas aussagt. Es ist ja auch kaum anzunehmen, dass es nicht mehr als 2 TB-Ports geben wird (mein persönliches k.o.-Kriterium übrigens, speziell beim M1 Mac mini).

Und wenn Apple an dem Thema noch Interesse hätte, würden sie die Probleme in FCP mal angehen. Aber mit dem Update auf eine der 10.4 Versionen wars ja plötzlich nicht mehr da, obwohl es vorher noch ging.
FCP benutze ich nicht. Was war nicht mehr da? eGPU Support? Ich benutze Adobe Premiere und dort läuft die eGPU eigentlich sehr gut, bis zur letzten Version im neuesten Catalina. Die Beschleunigung, besonders beim Rendern, ist wirklich ziemlich heftig. Bei aller ARM Euphorie, davon dürfte der M1 weit entfernt sein.

Man wird freilich die ersten realen Benchmarks abwarten müssen, aber mir schien die M1-GPU eher als Alternative zur Intel-GPU. Darauf beziehen sich ja auch die Aussagen 5x so schnell etc. Mit einer 'echten' GPU wird sich der M1 ja nicht messen wollen. Klar weiß man nicht, was Apple noch in petto hat. Aber selbst zu Mittelklasse GraKas dürfte noch Einiges fehlen. Alleine die Speicherausstattung, Busbreite, Core-Anzahl etc. ist nun so leicht auch wieder nicht zu 'emulieren', nur weil man ein bisschen mit der ARM-Architektur zaubert :).

mal abgesehen von der tatsache, dass amd erstmal einen apple silicon treiber liefern müsste bzw. diesen auf der plattform veröffentlichen dürfte.
Ja gut, das ging bislang ja auch, wobei ich mir nicht sicher bin, ob die Treiber überhaupt von AMD kommen. War nicht der Todesstoß für nvidia (wenn man es so sehen will), dass sie nicht alle Infos über ihre Chips offenlegen wollten, sodass Apple den Treiber selbst fummeln kann? Die wollen ja immer 100% Kontrolle. Wie auch immer, das sollte wohl kein Problem sein. Die Frage ist wirklich, ob Apple 'erwachsenen' Graphikkarten wirklich auch gleich Konkurrenz machen will.
 
Artikel-Update: Gigabyte hat heute die neue Aorus Gaming Box mit Gaming Ampere offiziell vorgestellt und in gleichem Zuge die technischen Eckdaten verraten. Wie im Vorfeld bereits erwartet, erscheint das Modell Aorus RTX 3080 Gaming Box unter der Bezeichnung GV-N3080IXEB-10GD als erstes. Das mit der stärkeren GeForce RTX 3090 bestückte eGPU-Gehäuse Aorus RTX 3090 Gaming Box folgt zu einem späteren, bislang noch nicht genannten Zeitpunkt.

Wie die ersten Gerüchte nahe gelegt hatten, setzt die Aorus RTX 3080 Gaming Box auf eine mittels AiO-Wasserkühlung aus der 240er-Klasse temperierte Gigabyte GeForce RTX 3080 Waterforce, die mit den für die Founders Edition typischen Taktraten von bis zu 1.710 MHz bei der GA102-GPU und 9.500 MHz für den 10 GB großen GDDR6X-VRAM angegeben ist. Ein nach 80+ Gold zertifiziertes Netzteil mit 550 Watt übernimmt die Spannungsversorgung. Als Videoausgänge sind zweimal HDMI- und drei DisplayPort-Ausgänge geboten. Die RGB-Beleuchtung bleibt im Vergleich mit dem Vorgänger unverändert, genau wie Aufbau und Gewicht des Gehäuses.

Zu welchem Preis Gigabyte plant, das externe Grafikkarten-Gehäuse in den Handel zu bringen, lässt der Hersteller noch im Unklaren. Weiterhin fehlen auch noch Informationen zur Verfügbarkeit.
 
POINTman-10 schrieb:
Zu welchem Preis Gigabyte plant das externe Grafikkarten-Gehäuse in den Handel zu bringen, lässt der Hersteller noch im Unklaren. Weiterhin fehlen auch noch Informationen zur Verfügbarkeit.

Die Tage war die besagte Aorus Watercooled Karte (ohne das Gehäuse etc drumrum) tatsächlich kurz verfügbar für 900€. Wenn man bedenkt was der Kühlblock + Backplate kostet war das tatsächlich n ansatzweise normaler Preis.....habe leider n Augenblick zu lange gezögert weil ich eigentlich ne 6800 XT möchte, ärgere mich immer noch
 
Lieber nen Razer Core X und die GPU selber kaufen und auf Standard HW setzen hat man am Ende mehr von.
 
  • Gefällt mir
Reaktionen: v_ossi und xexex
Kein TB4, kein HDMI 2.1?
 
Macht es eigentlich noch Sinn solche starken GPUs über x4 anzubinden? Gerade falls man die Bandbreite brauchen sollte ist man damit sehr langsam unterwegs.

Aber auch Beim gaming dürfte sich dies bemerkbar machen. Ist wahrscheinlich eher eine Notlösung für Leute die kleinen PC haben und auch nicht haben können aber trotzdem regelmäßig GPU Power brauchen. Eine schnellere Schnittstelle wäre hier langsam mal angebracht
 
Das ganze bitte auch noch mit AMD Grafikkarten für die MacBooks (da Nvidia GPUs von Apple ja nimmer gewollt). Apple möge bitte bei seinen künftigen MacBooks und Macs mit Apple Silicon EGPUs wieder unterstützen.
 
Ebu85 schrieb:
lieferbar 2023... sorry aber Amper Karten und verfügbarkeit sind 2 verschiedene paar dinge aber schön das es wieder was neues auf dem papier gibt
.. Also 3090 ist sofort lieferbar, bald wird die den Ladenhüter Status annehmen sobald 6900xt raus kommt.
 
PS828 schrieb:
Macht es eigentlich noch Sinn solche starken GPUs über x4 anzubinden?

Klar. Schau dir mein Fall an:

Intel Core i7-8700B iGPU oder eine 5700 XT bzw. 6800 bis 6900 XT?

Klar, man wird nicht die volle Leistung bekommen aber es ist immer noch 1000 mal besser als die iGPU.
 
  • Gefällt mir
Reaktionen: v_ossi und PS828
@Cool Master unbestritten :D aber generell wird's P/L technisch umso schlechter je mehr Leistung man damit verschenkt. 3.0 x4 ist halt schon ein wenig staubig
 
@PS828

Klar kommt halt drauf an was man machen muss/will. Gibt aber durchaus Sachen wo die GPU einfach nur berechnen muss und alles im RAM hält und daher die Anbindung egal ist. Das Ergebnis zu übertragen dauert dann evtl. ein paar Sekunden länger aber das juckt dann nicht.

Ich würde mir auch eine echte Breakout Möglichkeit wünschen aber da würde sich wieder jeder nicht einigen können.
 
  • Gefällt mir
Reaktionen: PS828
@Cool Master theoretisch gibt's sowas ja. Da lässt sich ein kompletter x16 Slot durch ein Kabel drücken. (Hab gerade den Namen dieses Standards nicht im Kopf) ist im Server Gang und gebe, auch bei storage Systemen zum Beispiel. Könnte man sicherlich auch hierfür übertragen.

Sowas könnte diese Produkte hier halt richtig verbessern.

Voraussetzung ist halt dass die Laptops mal eben 16 lanes dafür zur Verfügung Stellen^^ also eher was für die größeren Vertreter
 
  • Gefällt mir
Reaktionen: v_ossi und Cool Master
@PS828

Ja, kenn ich aber das ist halt sau teuer :D Wusste aber nicht, dass da schon ein Standard dahinter steckt.
 
  • Gefällt mir
Reaktionen: PS828
PS828 schrieb:
Macht es eigentlich noch Sinn solche starken GPUs über x4 anzubinden? Gerade falls man die Bandbreite brauchen sollte ist man damit sehr langsam unterwegs.

Schaue dir mal so eine 3090 an, mit 24GB VRAM kann da so einiges an Texturen in den Speicher geladen werden und der Rest benötigt gar nicht so viel Bandbreite. Trotzdem ist es schade, dass Thunderbolt 4 kein PCIe 4.0 mitbringt.
 
  • Gefällt mir
Reaktionen: v_ossi und PS828
Wie sinnlos ist es eigentlich, eine 3090 über Thunderbolt anzubinden?

Für was bringt das Nutzen? Professionelle Arbeiten/Berechnungen?
Für Spiele hat man ja schon ab der 2060 deutliche Limitierungen gesehen. Wie viel von der Leistung verpufft da?
 
v_ossi schrieb:
Und dann trägst du 'immer' dein Mini ITX System inkl. Monitor, Tastatur und Maus durch die Gegend?
Schlepst du immer das Gehäuse durch die Gegend? Eure Rechnung scheitert schlicht an den Preisen und Einschränkungen solcher Lösungen. Am Ende bekommt man dafür einen ganzen Rechner im Miniformat, mit Standardkomponenten, voller Anbung, ohne Verbindungsprobleme und vor allem mit voller Leistung von CPU und RAM. Als ob ein Notebook mit Mobilcpu, TDP Grenze und typischem Müll RAM mithalten könnte. Dazu schränkt man sich bei der Gerätewahl noch mehr ein.
 
Wieviel Latenz und Geschwindigkeit geht eigentlich durch den USB Bus statt PCIe verloren ? Wie installiert man einen PC neu, wenn die Grafikkarte extern ist ? Erst einmal intern einbauen ?
 
Zurück
Oben