Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Razer Core: eGPU-Gehäuse kostet wohl 500 US-Dollar, ohne GPU
- Ersteller MichaG
- Erstellt am
- Zur News: Razer Core: eGPU-Gehäuse kostet wohl 500 US-Dollar, ohne GPU
KlaasKersting
Captain
- Registriert
- Okt. 2015
- Beiträge
- 3.085
EchoeZ schrieb:Wobei.. 1000 fürs Blade, 500 fürs Core, 450-500 für ne dicke Graka wie GTX980 oder Nano
Sind weniger als 2000, Notebooks mit GTX980 fangen bei 3000 an!
Dann hast du eine 980 mit einer Dualcore 15W CPU...
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.511
Gibt man halt noch 500 € mehr aus und hat die 45W Quad Cores welche genau so schnell sind wie die Sandy Dekstop CPUs...
- Registriert
- Juli 2010
- Beiträge
- 13.323
Artikel-Update: Mittlerweile ist die Bestätigung von Razer da, die vorab durchgesickerten Preise von 499 US-Dollar oder 399 US-Dollar beim Kauf eines kompatiblen Razer-Notebooks stimmen. Der Meldung auf der Webseite des Herstellers zufolge startet der Vorverkauf sofort, ab April wird ausgeliefert.
Andreas10000
Lieutenant
- Registriert
- Juni 2013
- Beiträge
- 803
@Cool Master ah okay danke
hat mich ein bisschen verwirrt, dachte das der kaufpreis von 500$ bei uns auf einmal 600-700€ wären und nicht dass sich das ganze auch in den USA teurer wird (mit steueren)
hat mich ein bisschen verwirrt, dachte das der kaufpreis von 500$ bei uns auf einmal 600-700€ wären und nicht dass sich das ganze auch in den USA teurer wird (mit steueren)
mentecaptus
Cadet 1st Year
- Registriert
- Jan. 2015
- Beiträge
- 12
Können die komplett vergessen
Habe mich echt darauf gefreut, nur bei 500 Euro wie hier so viele geschrieben haben, war auch mein erster Gedankengang: Bekomme ich doch einen vernünftigen PC dafür!
Da das ganze sowieso Stationär ist und nicht mitgenommen wird, spielt der Mobilitätsfaktor keine große Rolle.
So wie ich gelesen habe, lässt sich ja die externe GPU NICHT richtig mit dem Notebook Monitor betreiben, sondern man benötigt einen externen Monitor. Oder?
Ich würde sofort 250 Euro auf den Tisch legen, aber alles darüber wäre mir zu viel. Vor allem hat man ja sowieso nicht die volle PCI übertragungsrate.
Habe mich echt darauf gefreut, nur bei 500 Euro wie hier so viele geschrieben haben, war auch mein erster Gedankengang: Bekomme ich doch einen vernünftigen PC dafür!
Da das ganze sowieso Stationär ist und nicht mitgenommen wird, spielt der Mobilitätsfaktor keine große Rolle.
So wie ich gelesen habe, lässt sich ja die externe GPU NICHT richtig mit dem Notebook Monitor betreiben, sondern man benötigt einen externen Monitor. Oder?
Ich würde sofort 250 Euro auf den Tisch legen, aber alles darüber wäre mir zu viel. Vor allem hat man ja sowieso nicht die volle PCI übertragungsrate.
major_tom111
Lt. Junior Grade
- Registriert
- Mai 2011
- Beiträge
- 456
Seiyaru2208 schrieb:@Madman
Diese Box wird aller Voraussicht mehre
GPU's überdauern, sprich man investiert 1x und dann ist für die nächsten Jahre Ruhe.
Wenn man das mit einbezieht ist der Preis immer noch gesalzen aber nicht viel zu teuer meiner Meinung nach.
Da muss dann aber auch gesichert sein, dass das mit zukünftigen Technologien kompatibel ist.
Wenn TB 3.5, der ab 2018 dann in allen Notebooks drinnen ist nicht mehr zu TB 3.0 kompatibel ist, hilft die lange Haltbarkeit der Box nix
Das ist auch meine Kritik... Zuerst braucht man das passende, teuere Notebook. Das muss dann so schlecht sein, dass ich extra nochmal 500€ in die Hand nehmen muss, damit ich mir um nochmal 500 - 700€ eine GPU zuschalten kann.
Und mit großer Wahrscheinlichkeit wäre das nächste NB leistungsfähiger als es diese Lösung sein kann.
9t3ndo
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.671
Eisbrecher99 schrieb:
Danke für die ausführliche Erklärung das es an der Performance hackt. Darauf zielte mein Kommentar aber nicht ab. Es ging rein um die Kostenfrage.
Der Kollege aus dem Artikel hat für 3 Komponenten Entwicklungskosten und Steuer bezahlt und kommt am Ende auf ca. 240€ (damals ca. 190€). Nun erzähl mir mal einer, wenn alles aus einem Guss kommt, dazu alles OEM Standartkomponenten (Intel, und OEM Netzteilfertiger) sind, wo Razer den Preis her nimmt?
Hat das Gehäuse drum herum so viel Entwicklungskosten verschlungen um einen Aufpreis von 250€ zu rechtfertigen?
Was damals halt TB1 war und wenig verbreitet, ist heute TB3 und mehr verbreitet durch USB 3.1
Ich denke mal die haben den Preis, an einem Freitag Abend in der Kneipe, ausgewürfelt.
Pat
Commander
- Registriert
- Jan. 2003
- Beiträge
- 2.249
Darauf warte ich schon seit 15 Jahren. Ziemlich übel dass das so lange gedauert hat. Technisch ist das ziemlich einfach zu realisieren. Und jetzt muss man nochmal 5 Jahre warten, bis das bezahlbar wird... Aber gut, immerhin mal ein Fortschritt! Hoffe da tut sich was mit Konkurrenz & Preis :-)
sOuLjA4eVeR
Lt. Junior Grade
- Registriert
- Aug. 2011
- Beiträge
- 321
Weiß zufällig jemand ob solch eine Lösung auch ohne einen zusätzliche Monitor möglich ist?
Generell ist das ganze ja ganz Nett, nur wenn ich einen Monitor dafür stehen haben muss dann kann ich mir das auch sparen und den an einen PC anschliessen.
Schön wäre es ein Notebook mit schwacher GPU zu haben und bei Bedarf den Kasten per Thunderbolt anzuschliessen wobei das Bild direkt über den Bildschirm des Notebooks wiedergegeben wird.
Hierbei geht es mir schlicht um den Platzbedarf.
edit
https://www.computerbase.de/forum/threads/egpu-externe-grafikkarte-fuer-das-notebook.924865/
Um die bestmögliche Leistung mit einer eGPU zu erreichen, wird ein externer Monitor benötigt.
Der Grund dafür ist, dass bei der Nutzung des internen Displays, über das eGPU-Kabel sowohl Daten- als auch Bildmaterial geschickt werden müssen, was die Bandbreite in eine Richtung reduziert und somit die Performance um ca. 30% sich verringert.
Beitrag ist von 2011, evtl hat sich da seitdem was getan?
Generell ist das ganze ja ganz Nett, nur wenn ich einen Monitor dafür stehen haben muss dann kann ich mir das auch sparen und den an einen PC anschliessen.
Schön wäre es ein Notebook mit schwacher GPU zu haben und bei Bedarf den Kasten per Thunderbolt anzuschliessen wobei das Bild direkt über den Bildschirm des Notebooks wiedergegeben wird.
Hierbei geht es mir schlicht um den Platzbedarf.
edit
https://www.computerbase.de/forum/threads/egpu-externe-grafikkarte-fuer-das-notebook.924865/
Um die bestmögliche Leistung mit einer eGPU zu erreichen, wird ein externer Monitor benötigt.
Der Grund dafür ist, dass bei der Nutzung des internen Displays, über das eGPU-Kabel sowohl Daten- als auch Bildmaterial geschickt werden müssen, was die Bandbreite in eine Richtung reduziert und somit die Performance um ca. 30% sich verringert.
Beitrag ist von 2011, evtl hat sich da seitdem was getan?
Zuletzt bearbeitet:
mentecaptus
Cadet 1st Year
- Registriert
- Jan. 2015
- Beiträge
- 12
TheKenny schrieb:* Überflüssiges Zitat editiert! *
Quelle wäre super, hab nichts offizielles gefunden.
Zuletzt bearbeitet von einem Moderator:
An sich müsste es klappen. Bei den Intel Specs werden sogar zwei Displayports 1.2 genannt. Also 2x 4K bei 60Hz. Sollte für einen Laptopmonitor reichen. Bandbreite hat der Thunderbolt 3 genug.sOuLjA4eVeR schrieb:Weiß zufällig jemand ob solch eine Lösung auch ohne einen zusätzliche Monitor möglich ist?
Generell ist das ganze ja ganz Nett, nur wenn ich einen Monitor dafür stehen haben muss dann kann ich mir das auch sparen und den an einen PC anschliessen.
Schön wäre es ein Notebook mit schwacher GPU zu haben und bei Bedarf den Kasten per Thunderbolt anzuschliessen wobei das Bild direkt über den Bildschirm des Notebooks wiedergegeben wird.
Hierbei geht es mir schlicht um den Platzbedarf.
edit
https://www.computerbase.de/forum/threads/egpu-externe-grafikkarte-fuer-das-notebook.924865/
Um die bestmögliche Leistung mit einer eGPU zu erreichen, wird ein externer Monitor benötigt.
Der Grund dafür ist, dass bei der Nutzung des internen Displays, über das eGPU-Kabel sowohl Daten- als auch Bildmaterial geschickt werden müssen, was die Bandbreite in eine Richtung reduziert und somit die Performance um ca. 30% sich verringert.
Beitrag ist von 2011, evtl hat sich da seitdem was getan?
SoDaTierchen
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.539
@Preis: 500€ find ich happig. Klar steckt da ein Gehäuse drin (~40€), ein Netzteil (~90€, wir unterstellen mal Qualität), der lustige TB3 -> PCIe-Adapter samt Kabel (lassen wir den 150€ kosten, da muss ja auch das Bildsignal zurück und so™) und Lizenzgebühren für TB3 (keine Ahnung was das kostet. 30€ pro Gerät?). Damit wären wir rechnerisch bei 310€ pro Box. Entwicklung und Marketing kommen noch dazu, und Razer will sicherlich noch was dran verdienen. Also wären 340€ als Kampfpreis realistisch, so denn meine Rechnung stimmt. Da das Gerät aber neu ist, kann man natürlich hohe Preise veranschlagen. 500€ scheint mir gar nicht mal zu teuer für die Box, wenngleich ich sie mir aufgrund des Preises nie holen würde. Aber ich bin auch einfach nicht die Zielgruppe
@Bandbreitendiskussion: Irgendwie schreit ihr alle nach Fakten, aber keiner interessiert sich dafür.
Fakt ist: Es funktioniert erstmal.
Fakt ist: PCIe 3.0 x4 liefert auf einer GTX 980 ca. 95% der maximalen Leistung, je höher die Auflösung, umso größer der Wert. (Diesen Test nutzt ihr ja alle als Faktenlage).
Was aber irgendwie KEINER sieht: Bei niedriger Auflösung werden die Werte schlechter. Das bedeutet aber nicht, dass die Werte kacke sind. Das bedeutet nix anderes, als dass die Bandbreite genau dann zum "Problem" wird, wenn die GPU nichts zu rechnen hat. Und was scheinbar auch großartig vergessen wurde: PCIe 1.1 x4 steht mit 88% nicht so schlecht da, wie ihr hier suggeriert (Auflösung 4K, warum die anderen Diagramme murks sind steht ein Satz vorher). Die ganze Diskussion um "heute mag das reichen, morgen aber nicht" ist viel zu engstirnig. Etwas weiter gedacht: Der hornalte PCIe 1.1-Standard mit 4 Lanes, der ja wirklich gammlig wenig Bandbreite liefert schafft in 4K noch heute 88% der Leistung, die PCIe 3.0 x16 packt. Denken wir also mal spontan 10 Jahre weiter, genau der abstand zwischen PCIe 1 und 3: HBM hat sich noch immer nicht im Massenmarkt durchgesetzt, XPoint steht kurz vor dem Durchbruch im RAM-Geschäft, ist aber noch nicht parat und die verfügbare Bandbreite in GPUs hat sich mit bisher bekannter Geschwindigkeit weiterentwickelt: Ich kaufe mir also für mein altes Razer-Gehäuse eine brandneue GTX 1890 und höre mir von Leuten an, dass das doch die üble Verschwendung ist, ich in FullHD nur 60% der Leistung habe und blablabla. Aber ehrlich: Warum sollte ich so eine Karte kaufen, nur damit die dann in FullHD vergammelt? Mit der Karte strebe ich doch 4K-Gaming auf nem VR-Headset an und da zählt Rechenleistung mehr als Bandbreite. Und etwas ältere Titel wie CoD 45 möchte ich doch auch mal in 8K genießen. Da ist es mir dann doch wums, ob ich unter FullHD "nur" 250 statt 450 fps kriege, weil die Bandbreite limitiert, wenn sie für 90 fps noch bequem reicht. Wenn ich weniger Leistung will, hole ich eben nicht das externe Gehäuse, sondern daddel auf der OnChip-GPU.
Oder zusammengefasst: Betrachtet man mal nicht die Worst-Case-Zahlen, sondern ein SINNVOLLES Szenario, dann ist man mit PCIe 3.0 x4 nichtmal im Ansatz in irgendeinem Limit. Das eine % was da verloren geht bringen wir ins Tierheim, damit es sich auch wohlfühlt.
Ob das in 10 Jahren noch immer gilt, weiß keiner. Aber es weiß auch keiner, ob man in 10 Jahren mit PCIe 3.0 x16 noch hinkommt, oder ob wir dann nicht auf den neuen "PHC 1.0" - Standard zurückgreifen, weil der pro Lane seine 20GB/s schafft und nur so XPoint HBM befeuert werden kann. Das ganze Zukunftsgeblubber ist was für die Leute von morgen, ich will heute spielen ! Und heute stellt TB3 für eGPU-Lösungen keinen nennenswerten Flaschenhals dar und es ist auch nicht zu erwarten, dass sich daran so bald was ändert. Zahlen sind zwar schön und gut, aber man sollte eventuell auch manchmal überlegen, ob diese Zahlen denn ein reales Szenario abbilden können oder ob sie arg fiktiv sind.
PS: Alle Zahlen und Bezeichnungen aus der Zukunft sind KEINE Product-Announcements und die Leistungsdaten sind Fiktiv. Ebenso ist das kein Spoiler für künftige Technologien. Ich übernehme keine Haftung, sollten etwaige Produkte oder Standards so, anders oder gar nicht erscheinen, ebenso nicht, wenn die Jahreszahlen nicht stimmen.
@Bandbreitendiskussion: Irgendwie schreit ihr alle nach Fakten, aber keiner interessiert sich dafür.
Fakt ist: Es funktioniert erstmal.
Fakt ist: PCIe 3.0 x4 liefert auf einer GTX 980 ca. 95% der maximalen Leistung, je höher die Auflösung, umso größer der Wert. (Diesen Test nutzt ihr ja alle als Faktenlage).
Was aber irgendwie KEINER sieht: Bei niedriger Auflösung werden die Werte schlechter. Das bedeutet aber nicht, dass die Werte kacke sind. Das bedeutet nix anderes, als dass die Bandbreite genau dann zum "Problem" wird, wenn die GPU nichts zu rechnen hat. Und was scheinbar auch großartig vergessen wurde: PCIe 1.1 x4 steht mit 88% nicht so schlecht da, wie ihr hier suggeriert (Auflösung 4K, warum die anderen Diagramme murks sind steht ein Satz vorher). Die ganze Diskussion um "heute mag das reichen, morgen aber nicht" ist viel zu engstirnig. Etwas weiter gedacht: Der hornalte PCIe 1.1-Standard mit 4 Lanes, der ja wirklich gammlig wenig Bandbreite liefert schafft in 4K noch heute 88% der Leistung, die PCIe 3.0 x16 packt. Denken wir also mal spontan 10 Jahre weiter, genau der abstand zwischen PCIe 1 und 3: HBM hat sich noch immer nicht im Massenmarkt durchgesetzt, XPoint steht kurz vor dem Durchbruch im RAM-Geschäft, ist aber noch nicht parat und die verfügbare Bandbreite in GPUs hat sich mit bisher bekannter Geschwindigkeit weiterentwickelt: Ich kaufe mir also für mein altes Razer-Gehäuse eine brandneue GTX 1890 und höre mir von Leuten an, dass das doch die üble Verschwendung ist, ich in FullHD nur 60% der Leistung habe und blablabla. Aber ehrlich: Warum sollte ich so eine Karte kaufen, nur damit die dann in FullHD vergammelt? Mit der Karte strebe ich doch 4K-Gaming auf nem VR-Headset an und da zählt Rechenleistung mehr als Bandbreite. Und etwas ältere Titel wie CoD 45 möchte ich doch auch mal in 8K genießen. Da ist es mir dann doch wums, ob ich unter FullHD "nur" 250 statt 450 fps kriege, weil die Bandbreite limitiert, wenn sie für 90 fps noch bequem reicht. Wenn ich weniger Leistung will, hole ich eben nicht das externe Gehäuse, sondern daddel auf der OnChip-GPU.
Oder zusammengefasst: Betrachtet man mal nicht die Worst-Case-Zahlen, sondern ein SINNVOLLES Szenario, dann ist man mit PCIe 3.0 x4 nichtmal im Ansatz in irgendeinem Limit. Das eine % was da verloren geht bringen wir ins Tierheim, damit es sich auch wohlfühlt.
Ob das in 10 Jahren noch immer gilt, weiß keiner. Aber es weiß auch keiner, ob man in 10 Jahren mit PCIe 3.0 x16 noch hinkommt, oder ob wir dann nicht auf den neuen "PHC 1.0" - Standard zurückgreifen, weil der pro Lane seine 20GB/s schafft und nur so XPoint HBM befeuert werden kann. Das ganze Zukunftsgeblubber ist was für die Leute von morgen, ich will heute spielen ! Und heute stellt TB3 für eGPU-Lösungen keinen nennenswerten Flaschenhals dar und es ist auch nicht zu erwarten, dass sich daran so bald was ändert. Zahlen sind zwar schön und gut, aber man sollte eventuell auch manchmal überlegen, ob diese Zahlen denn ein reales Szenario abbilden können oder ob sie arg fiktiv sind.
PS: Alle Zahlen und Bezeichnungen aus der Zukunft sind KEINE Product-Announcements und die Leistungsdaten sind Fiktiv. Ebenso ist das kein Spoiler für künftige Technologien. Ich übernehme keine Haftung, sollten etwaige Produkte oder Standards so, anders oder gar nicht erscheinen, ebenso nicht, wenn die Jahreszahlen nicht stimmen.
mentecaptus
Cadet 1st Year
- Registriert
- Jan. 2015
- Beiträge
- 12
Schauen wir mal was die Zukunft bringt, ich werde mich jetzt erst einmal mit einer GTX 960M begnügen müssen. Hoffentlich ziehen bis Ende des Jahres ein paar Hersteller nach. Seit ich die erste e GPU beim Sony Vaio gesehen habe, wollte ich so etwas haben. Ist schon traurig wie lange das Ganze machmal dauert, ich kann mich auch an die ersten VR Brillen auf der IFA erinnern
SoDaTierchen schrieb:Zitat entfernt
Erst einmal danke für dieses Kluge Statement. Ich würde es ganz ähnlich sehen. Was mein Problem dabei ist, werden wohl erste Test bringen, wie es wirklich um die Aufrüstbarkeit steht.
Denn klar ist, aktuelle GPUs funktionieren hervorragend bis kurz vor knapp. Aber warum sollte ich mir eine neuere Graka reinhauen, um die, im schlimmsten Falle, gleichen FPS zu erreichen. Ich mahne im Moment nur an, dass man sich bei Erwerb dieser eGPU Lösung extrem darauf verlässt, dass die Bandbreite nicht steigt. Die nächste Konsolen gen wird wohl, solange AMD weiter bauen darf, mit APUs mit HBM kommen. Dann werden GameEntwickler wieder vermehrt auf die höhere Bandbreite setzen. Ich würde mindestens noch eine Thunderbolt Generation warten.
Generell werde ich erstmal die neue 14/16nm Produktion abwarten. Vielleicht gucken ich mich dann im mobilen Sektor ganzschön um.
Zuletzt bearbeitet von einem Moderator:
(Zitat entfernt)
Yann1ck schrieb:Vorstellen könnte ich mot auch die Nutzung in Unternehmen, den schwere Workstations werden immer unbeliebter. Mit einer eGPU hätte man eine starke GPU am Arbeitsplatz und eine mobilen Laptop für Kundenpräsentationen, aber ob das in Zeiten von Cloud etc. einen Zukunft hat wage ich nicht zu beurteilen
Was hat eine GPU mit der Cloud zu tun? Und für was sollte man im Büro eine starke GPU brauchen?
Leute die im Büro eine starke GPU benötigen haben meist eine richtige Workstation dort stehen.
Yann1ck
Vice Admiral
- Registriert
- Apr. 2013
- Beiträge
- 6.868
@Loopman: Ingenieure, Designer etc. alles was CAD bzw. GPGPU nutzen kann. Da will nunmal nicht jeder an einer Desktop-Workstation arbeiten, sondern auch von unterwegs arbeiten etc. Da könnte eine eGPU eine Lösung sein, wenn keine klobige Notebook-Workstation genutzt werden soll. Mit der Cloud hat es in soweit zu tun, dass man Berechnungen immer weiter in die Cloud auslagert, teilweise wird ja auch nur noch Office 365 oder Google Docs genutzt. Dasselbe kann mit jeder Art von Berechnungen passieren und so sind keine starken Workstations mehr nötig. Ist natürlich alles Spekulation.
XCPTNL
Lieutenant
- Registriert
- Aug. 2004
- Beiträge
- 947
Der Preis ist ja wirklich ein schlechter Scherz. So für 100 wäre das okay, letztlich ist es ja nur ein Gehäuse. Meinetwegen auch noch ein paar Euro mehr, aber 500$ ist ja nur noch absurd. Find es zudem auch nicht sehr durchdacht, dass es scheinbar nur normale 2-Slot Karten aufnehmen kann, womit dann viele 2.5- und 3-Slot Karten nicht passen.
Mal sehen wie sich dieser Markt noch weiter entwickelt - vor allem auch welche Auswirkungen er auf die Laptops hat. Denn eine schwache mobile CPU bringt einem mit einer Highend Grafikkarte nicht viel und die stärkeren CPUs kommen meistens direkt in Kombination mit dedizierten Grafikkarten, die man dann eigentlich nicht braucht - wenn man nur zu Hause in Verbindung mit eGPU zockt und ansonsten gern ein halbwegs mobiles Notebook mit integrierter Grafik, aber leistungsstarker CPU haben möchte.
Mal sehen wie sich dieser Markt noch weiter entwickelt - vor allem auch welche Auswirkungen er auf die Laptops hat. Denn eine schwache mobile CPU bringt einem mit einer Highend Grafikkarte nicht viel und die stärkeren CPUs kommen meistens direkt in Kombination mit dedizierten Grafikkarten, die man dann eigentlich nicht braucht - wenn man nur zu Hause in Verbindung mit eGPU zockt und ansonsten gern ein halbwegs mobiles Notebook mit integrierter Grafik, aber leistungsstarker CPU haben möchte.
Ähnliche Themen
- Antworten
- 11
- Aufrufe
- 3.096
- Antworten
- 20
- Aufrufe
- 5.591
- Antworten
- 20
- Aufrufe
- 6.553
- Antworten
- 46
- Aufrufe
- 10.073
- Antworten
- 4
- Aufrufe
- 13.669