Einen sinnfreieren Vergleich hast du nicht gefunden?SweetOhm schrieb:Bei NV ja ! (siehe Anhang 1 u. 2)
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RTX 6000 Blackwell: Profi-GPU kommt mit 96 GB und 600 Watt
- Ersteller MichaG
- Erstellt am
- Zur News: RTX 6000 Blackwell: Profi-GPU kommt mit 96 GB und 600 Watt
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.773
Nein, ich gehöre nur nicht zu den Schwurblern, die unsinnige Vergleiche anstellen müssen um Sachverhalte möglichst dramatisch darzustellen.SweetOhm schrieb:Gehörst also auch zu den nVidia/Apple "sich den RAM vergolden lassen" Leugner ?
Jeder mit etwas Verstand und Anstand hätte einfach eine W7900 mit ner RX6000 Ada verglichen.
Aber dass du mich hier in eine gewisse Ecke stellen willst, nur weil ich deinen absurden Vergleich kritisiere, erzählt einem alles was man über dich wissen muss.
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.823
Direkt Heat Exhaust bekommt man auch auf eine andere Art und Weise und sehr viel sinnvoller (leiser und kühler am Chip, durch die geringeren Leckströme verbesserte Effizienz) hin: FullCover-AiO oder Custom-WaKü.blauescabrio schrieb:Das war er nie. Im Gegenteil: Ein Radiallüfter brachte/bringt das zustande, wofür es beim offenen Design mindestens zwei 90 mm Axiallüfter braucht. Und selbst damit wird das ganze System schön aufgeheizt, was man besonders bei kleinen Gehäusen merkt. Habe ich nie verstanden, warum man im Consumer-Markt fast nur noch dieses offene Lüfterdesign bekommt. Wenn Radiallüfter nichts taugen würden, wären sie wohl kaum in Profi-GPUs verbaut. In jedem Notebok stecken übrigens auch Radiallüfter. Nur bei Consumer-GPUs muss man mit diesem Krampf von Ventilatoren leben, die die Luft mehr verteilen als aus dem Gehäuse zu befördern.
Mit anderem Gehäusekonzept bekäme bzw. bekommt man übrigens ebenfalls mit Axiallüftern DHE hin. Dafür muss die Karte schlicht raudblasend am Gehäuse eingebaut sein.
LuciusFerrum
Cadet 4th Year
- Registriert
- Jan. 2025
- Beiträge
- 88
Irgendwann müssen wir Spieler uns ein eigenes Kraftwerk bauen um die neueste Grafikkarte betreiben zu können die dann selbst schon 100.000 Euro kostet.
ElisaMüller
Cadet 4th Year
- Registriert
- März 2016
- Beiträge
- 79
Leider lässt sich NVIDIA vGPU kräftig bezahlen.twx24 schrieb:Mit soviel VRAM in einer Kiste kann man auch schön Terminalserver mit 3D-Power für Multiuser-Umgebungen aufsetzen.
wahli
Admiral
- Registriert
- Feb. 2010
- Beiträge
- 9.597
Die normale 5090 hat 512 Bit Speicheranbindung mit 32GB VRAM.Rickmer schrieb:Wie funktioniert das, 3GB GDDR7 Speichersteine
Die 6000er hat 768 Bit und kann damit 48 GB VRAM anbinden. Mal zwei ist dann kein Problem und man hat 96 GB VRAM.
Mit der kleineren 6000er nutzt man 384 Bit um 48 GB anzubinden. Mit 384 Bit könnte man im Gamingbereich also 24 GB VRAM machen und eine 5080 Ti rausbringen. Das würde die Lücke ein wenig schließen.
OpticalFiber
Cadet 4th Year
- Registriert
- Feb. 2023
- Beiträge
- 127
Diese spezielle Grafikkarten eignen sich nicht für spielen, sondern mehr für K.I. Server Farmen, Bitcoin, 3D, Universitäten, Medizin.
- Registriert
- Dez. 2016
- Beiträge
- 233
Dann kauft man halt mehrere Strix Halos für den selben Preis und schwupps sieht es ganz anders aus.MalWiederIch schrieb:...
Mit einer RTX 6000 Ada ist man bei 20 Token pro Sekunde bei Deepseek R1 70B - Strix Halo kommt hier auf 5-6 Token pro Sekunde, das ist schon unterhalb dem was die meisten als absolutes Minimum sehen:
...
Meine Meinung: Es gibt nahezu keine Anwendungen dafür. Es gibt nur Scheinanwendungen.
Zuerst weiß man bei einem öffentlich verfügbaren LLM nicht, welche Inhalte es enthält. Es gibt zwar Behauptungen, aber niemand kann es prüfen: Niemand kann Terabytes von Texten oder Bildern prüfen.
Zweitens gibt es ein Wahrscheinlichkeitsproblem: Egal, welches LLM: Auch nach 5000, oder 50'000, oder 5 Millionen, oder 5 Milliarden halbwegs korrekt beantworteter Fragen kann die nächste Antwort immer noch lauten, den roten Knopf zu drücken, um die Atomraketen zu starten. Oder, dass "die Juden"/"die Uiguren"/"die Migranten"/... an allem schuld seien. Oder, dass Herr Xi der Anführer der freien Welt sei, die sogenannte "Volksrepublik" China eine pluralistische Demokratie mit verfassungsrechtlich garantierten Menschen- und Bürgerrechten und es keine Todesstrafe gäbe. Alles falsch.
Anwendungen, die mir einfallen, wären, dass man ein LLM ausschließlich (!) mit redaktionell geprüften Texten aus einem eng begrenzten Fachgebiet füttert, zum Beispiel (fiktiv!), wenn eine Firma wie ZEISS alle ihre Bedienungsanleitungen, Anwendungsleitfäden und spezifische Kundenanfragen aus dem Geschäftsbereich Elektronenmikroskopie dort verknüpfte.
Selbst dann besteht immer noch das grundsätzlich inhärente Problem, dass jegliche Antwort eines LLM grundsätzlich wahrscheinlichkeitsbehaftet ist, also mit einer gewissen Wahrscheinlichkeit > 0 grundsätzlich falsch.
Momentan bezahlt sich die Branche selbst, allen voran NVidia, durch steigende Aktienkurse bei subventionierten Strompreisen. Das geht aber auch nicht lange gut, denn es wird irgendein ökonomischer Druck entstehen, die riesigen Investitionen auf irgendeine Art wieder einzuspielen, notfalls durch Anwendungen, wo es immer Geld gibt: Beim Militär. Brandgefährlich!
Ich als Nichtinformatiker finde das Thema LLM durchaus spannend. Aber dann sollte man sich damit beschäftigen, ein leeres (!), kleines open-source LLM selbst, zuhause, offline, zu füllen und zu verstehen, wie es innerlich funktioniert. Nicht zu verstehen, wie die Konzepte in der Praxis funktionieren, aber der Faszination zu erliegen, ist gesellschaftlich einfach zu gefährlich.
Und ich kann nur davor warnen, sich -- egal, zu welchem Preis -- seine individuell erarbeitete Bildung und seine individuelle Intelligenz abkaufen zu lassen. Je unübersichtlicher die gesellschaftlich-politischen Verhältnisse werden, umso wichtiger ist es, auf ein persönliches, umfassendes, ethisch-moralisch gefestigtes Wissen und die darauf aufbauende Bildung samt ausgiebig eingeübter Kompetenzen zur Informationsbewertung und Meinungsbildung zurückzugreifen.
Beispielhaft: Ich bekomme 10 verschiedene LLM vorgesetzt. Welchem "glaube" ich?
Antwort: Gar keinem. Ich "glaube" nur mir selbst und verwende die LLM allenfalls als kritisch-falsche Ideensammlung, um eventuell zusätzlicher Verknüpfungen zwischen meinen eigenen Kenntnissen zu bilden, die ich aber trotzdem noch ethisch-moralisch bewerten muss.
Zuerst weiß man bei einem öffentlich verfügbaren LLM nicht, welche Inhalte es enthält. Es gibt zwar Behauptungen, aber niemand kann es prüfen: Niemand kann Terabytes von Texten oder Bildern prüfen.
Zweitens gibt es ein Wahrscheinlichkeitsproblem: Egal, welches LLM: Auch nach 5000, oder 50'000, oder 5 Millionen, oder 5 Milliarden halbwegs korrekt beantworteter Fragen kann die nächste Antwort immer noch lauten, den roten Knopf zu drücken, um die Atomraketen zu starten. Oder, dass "die Juden"/"die Uiguren"/"die Migranten"/... an allem schuld seien. Oder, dass Herr Xi der Anführer der freien Welt sei, die sogenannte "Volksrepublik" China eine pluralistische Demokratie mit verfassungsrechtlich garantierten Menschen- und Bürgerrechten und es keine Todesstrafe gäbe. Alles falsch.
Anwendungen, die mir einfallen, wären, dass man ein LLM ausschließlich (!) mit redaktionell geprüften Texten aus einem eng begrenzten Fachgebiet füttert, zum Beispiel (fiktiv!), wenn eine Firma wie ZEISS alle ihre Bedienungsanleitungen, Anwendungsleitfäden und spezifische Kundenanfragen aus dem Geschäftsbereich Elektronenmikroskopie dort verknüpfte.
Selbst dann besteht immer noch das grundsätzlich inhärente Problem, dass jegliche Antwort eines LLM grundsätzlich wahrscheinlichkeitsbehaftet ist, also mit einer gewissen Wahrscheinlichkeit > 0 grundsätzlich falsch.
Momentan bezahlt sich die Branche selbst, allen voran NVidia, durch steigende Aktienkurse bei subventionierten Strompreisen. Das geht aber auch nicht lange gut, denn es wird irgendein ökonomischer Druck entstehen, die riesigen Investitionen auf irgendeine Art wieder einzuspielen, notfalls durch Anwendungen, wo es immer Geld gibt: Beim Militär. Brandgefährlich!
Ich als Nichtinformatiker finde das Thema LLM durchaus spannend. Aber dann sollte man sich damit beschäftigen, ein leeres (!), kleines open-source LLM selbst, zuhause, offline, zu füllen und zu verstehen, wie es innerlich funktioniert. Nicht zu verstehen, wie die Konzepte in der Praxis funktionieren, aber der Faszination zu erliegen, ist gesellschaftlich einfach zu gefährlich.
Und ich kann nur davor warnen, sich -- egal, zu welchem Preis -- seine individuell erarbeitete Bildung und seine individuelle Intelligenz abkaufen zu lassen. Je unübersichtlicher die gesellschaftlich-politischen Verhältnisse werden, umso wichtiger ist es, auf ein persönliches, umfassendes, ethisch-moralisch gefestigtes Wissen und die darauf aufbauende Bildung samt ausgiebig eingeübter Kompetenzen zur Informationsbewertung und Meinungsbildung zurückzugreifen.
Beispielhaft: Ich bekomme 10 verschiedene LLM vorgesetzt. Welchem "glaube" ich?
Antwort: Gar keinem. Ich "glaube" nur mir selbst und verwende die LLM allenfalls als kritisch-falsche Ideensammlung, um eventuell zusätzlicher Verknüpfungen zwischen meinen eigenen Kenntnissen zu bilden, die ich aber trotzdem noch ethisch-moralisch bewerten muss.
Zuletzt bearbeitet:
FlowFun
Ensign
- Registriert
- Nov. 2009
- Beiträge
- 252
Nee nicht KI, dafür sind die nicht optimal.Boimler schrieb:Das ist eigentlich nur professionell nutzbare Leistung für KI-Anwendungen, oder? Die Leistung kommt bei Otto-Normal Anwendungen doch gar nicht auf die Straße.
Games haben in der Regel Texture pools, da wird halt mal ne kleinere MipMap reingestreamt wenn kein Platz mehr ist. Game assets sind auch in der Regel stark optimierte assets.
Aber für VFX, Produktovisualisierung und weitere Industrieanwendungen braucht man einfach unmenschlich viel RAM, weil nix optimiert ist aber die Qualität optimal sein muss.
Ja, weil es jedes Mal die gleichen Kommentare der pseudo-GPU-Profis sind, die allesamt bestimmt selbst so ne Karte zu Hause im Rechner stecken haben und ganz genau bescheid wissen. Zumindest wird dann immer so getan als ob.wesch2000 schrieb:Warum denn so aggressiv?
Ich behaupte das mindestens 95% der Nutzer hier niemals eine solche Karte auch nur mit eigenen Augen gesehen, oder sie gar in der Hand gehalten oder damit gearbeitet oder gehandelt haben etc. pp und behaupte auch, dass das für den Rest ihres Lebens so bleiben wird.
Das heißt 95% der Kommentare, Echauffierungen über Preise, Verfügbarkeiten, Anwendungsgebiete usw. sind nichts weiter als halbwissenbasiertes Gequatsche.
Über die Preise brauchst du mich wirklich nicht aufzuklärenSweetOhm schrieb:Dass es von NV "Profi" Karten für 30´000 - 40´000 € gibt/gab (H100 und H200) steht ja außer Frage.
Ist halt nur ne andere Liga/Baustelle (bzgl. Verwechslung vs. Lüge) ...
https://www.heise.de/news/Nvidias-H100-kommt-im-deutschen-Retail-Handel-an-10004748.html#:~:text=DGX B200 ab 349.000 Euro&text=Der verkauft die H200 mit,knapp 25.000 Euro exklusive Steuern.

Und by the way... die Preise die Nvidia aufruft, kommen auch durch die damit verbundene Software und Schnittstellen wie z.B. CUDA und deren Verbreitung. Ja, es ist unverschämt das auszunutzen... aber Leute, ganz im Ernst... wäre ein anderer Hersteller in dieser Position, würde es JEDER ausnahmslos genau so machen. Auch AMD würde das so machen...
So funktioniert Kapitalismus nun einmal.
GB202 hat maximal 512 Bitwahli schrieb:Die normale 5090 hat 512 Bit Speicheranbindung mit 32GB VRAM.
Die 6000er hat 768 Bit und kann damit 48 GB VRAM anbinden.
wovon redest du???
ErnstHaft99
Cadet 3rd Year
- Registriert
- März 2025
- Beiträge
- 38
Karten für die Uni. Wir hatten nur uralten Billigkram. Hatte natürlich auch keine reichen Eltern, die mir Tübingen finanziert haben.
kryzs
Lt. Commander
- Registriert
- Apr. 2012
- Beiträge
- 1.721
Randfee schrieb:Echt schade, vor 7Jahren konnte man die titan für 2500€ kaufen, äquivalent wären das heute gut 48GByte für 5000€, dafür kriegt man aber nix mehr... :-/
Ja echt schade. Ein wahrer Verlust für die Spieler. Die meisten würden gern 5000€ für eine GPU ausgeben, um nicht ins VRAM Limit zu laufen. 😟
Leider darf man nicht mal 3000€ für 32GB ausgeben. Was für eine traurige Welt... 😔
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.987
Es ist immer noch State of the Art. Thermisch ist total ineffezient wie im Konsumer breich die Luft andauernd rum zu schaufeln.... Bei dem System wird die heiße Luft hinten rausgeblasen. AIOs sind wiederum extrem teuer und Fehleranfällig, nicht standartisiert, damit auch nicht skalierbar. Das mag bei einem Konsumerprodukt funktionieren welches alle 2 Jahre ausgetauscht wird, aber nicht in Betriebsumgebung, wo solche Maschiene über dei Abschreibungsdauer von 4-8 Jahren durch laufen. Und wo auch ständig etwas erweitert oder ausgetauscht werden können muss.Termy schrieb:Was ich ja immer wieder faszinierend finde ist, dass diese Karten so viel Leistung über einen solch primitiven Kühler abführen können (ja, ich weiss, dass "silent" hier noch weiter weg ist als "günstig" - trotzdem).
Klar es ist auch Laut, so das man das nicht im Wohnzimmer haben möchte, haben kann. Aber dafür sind sie ja auch nicht gesacht und von der Kühleffizens gibt es ncihts besseres bis auf viel teurere und fehleranfääige Flüssigkühlungen. Die Dinger sollen 24/7 Laufen und effiezent Kühlen. Und die Dinger stellen sie in den Serverraum, wo sie niemanden Stören, am arbeitsplatz haben sie nen "dummen" Client stehen und verbinden sie mit dem Netzwerk. Das zeug ist kompatibel, skalierbar, und bezahlbar.
Da können sie "custom" kühlungen, deshalb heist es ja auch "custom", vergessen! Weil die passen halt nicht in die Schränke rein. Dafür sind sie Leise, einfach aufs Gaming und Leistung, aber nicht auf effizens getrimmt.
Ergänzung ()
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 78
- Aufrufe
- 8.369
- Antworten
- 111
- Aufrufe
- 7.559