Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 5090 mit 32 GB: Ein erster Blick auf ein Custom-Design des neuen Topmodells
Ano_Dezimal
Lieutenant
- Registriert
- Juli 2019
- Beiträge
- 842
Ich glaube nicht das er es aus der Sicht gesehen hat, sondern eher aus der Sicht das man tatsächlich eine Karte auch mal 5 Jahre benutzt. Das Argument kommt ja immer mal wieder. Soll Menschen geben die nicht alle 2 Jahre wechselnTzk schrieb:Ja, aber vermutlich nur an den Erstkäufer. Nützt dir auf dem Gebrauchtmarkt also nix.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.993
calippo schrieb:Man kann auch mit deutlich günstigeren/älteren Karten wunderbar Spaß haben, es muss nicht immer UHD, >100 FPS und alle Regler auf max sein.
Scheint so ein Bubble Ding zu sein. Wenn man auf Computerbase so schaut, bekommt man fast den Eindruck, mit 16GB kann man gerade so noch Full HD Spielen und unter 24GB braucht man gar nicht nachdenken. Dabei sind super viele Spiele zum einen nicht so hardwarehungrig und zum anderen hat man es selbst in der Hand, wenn das Spiel nicht technische Probleme hat.
Mit ein paar angepassten Settings kann man bei vielen Spielen problemlos 30% mehr Leistung rausholen und hat nahezu keinen optischen Unterschied. Das ist immerhin der Unterschied zwischen einer 4080 und 4090.
Da ist auch 4K mit kleineren karten, als der 4090 möglich. Mit Upscaling sogar mit mehr als ordentlichen Bildraten meistens. Wenn man zur "Alle Einstellungen auf Max und DLSS ist der Teufel" Fraktion gehört, dann muss man das Problem halt mit Geld ersticken.
calippo schrieb:Man kann auch mal ein, zwei Jahre auf ein Spiel warten, wenn die Hardware noch nicht taugt. Indiana Jones scheint z.B. nicht auf Karten mit 8GB zu laufen. Das Spiel wird in 3-4 Jahren noch exakt genauso gut und aktuell sein wie heute.
Definitiv. Gerade Singleplayer werden mit dem Alter nicht schlechter, nur besser. Man bekommt nach einiger Zeit eine wesentlich bessere Spieleerfahrung. Die Probleme wurden behoben, Zusatz Inhalte hinzugefügt, die Performance verbessert und sie kosten nur noch einen Bruchteil vom Preis. Ist bei mir wirklich selten, dass ich ein Spiel zu Release spielen will. In diesem Jahr ist das bei genau einem Titel der Fall. Ansonsten kommen jedes Jahr so viele Spiele raus, dass man eh nicht alle schafft.
Sierra1505
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 612
mscn schrieb:Sowas fehlt mir noch als Ersatz für meine 3090. Idealerweise würde sie in ein A4H2O passen, wird sie aber nicht - insofern hoffe ich, dass ein NR200Pv2 genug Platz hat.
In´s A4H2O würde man aktuell so wie es aussieht zumindest eine 4090 MSI Gaming X Slim oder eine 4090 MSI Suprim Liquid rein bekommen.
Zumindest von der Liquid-Variante kann ich berichten, dass die von der Kühlleistung NICHT an der Kotzschwelle arbeitet. Auch nicht unter Last (Benchmark).
So oder so ein ähnliches Derivat (ohne OC Potenzial/nicht am TDP-Limit) dürfte auch von einer 5090 möglich sein bzw. würde ich erwarten das sowas kommt.
s!r.einSTein
Lt. Junior Grade
- Registriert
- Aug. 2006
- Beiträge
- 301
Mich interessieren die Encoder Und Decoder Details im vergleich zu den bisherigen Lösungen
Ano_Dezimal
Lieutenant
- Registriert
- Juli 2019
- Beiträge
- 842
Das ist zwar richtig, aber ... Die Augen werden immer schlechter, also muss die Grafik immer besser werdenShoryuken94 schrieb:Mit ein paar angepassten Settings kann man bei vielen Spielen problemlos 30% mehr Leistung rausholen und hat nahezu keinen optischen Unterschied.
Mac_Leod
Captain
- Registriert
- Dez. 2001
- Beiträge
- 3.840
leider nicht wirklich -.-Der_Picknicker schrieb:Geil, endlich 32GB VRAM ideal für LLM + TTS.
Alle 70b zB: Lama 3.2 70B laufen darauf immer noch nicht.
Aber es geht natürlich schon viel mehr
Mal eine Frage, welcher von den Herstellern baut hochwertige Lüfter auf die Karten?
Hatte jetzt mit ASUS und Inno3D Rattergeräusche und das nach ca einem Jahr, Gigabyte hatte riesige Haarföne die ewig laut waren (früher zumindest) und MSI hatte ich lang keine mehr.
Hatte jetzt mit ASUS und Inno3D Rattergeräusche und das nach ca einem Jahr, Gigabyte hatte riesige Haarföne die ewig laut waren (früher zumindest) und MSI hatte ich lang keine mehr.
calippo schrieb:Tear R55s + Adaptec 2940 SCSI Controller, an den genauen Preis kann ich mich nicht erinnern, geschätzt 500DM +1500 DM, inkl. historischer Inflation sind das heute 1600€.
Plextor PX-R820T an Tyan S1837UANG FTW!
Sierra1505
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 612
Puuh, hochwertig ist immer so eine Sache. Mit Lüftern (Langlebigkeit) kannst du Glück oder Pech haben. Klar Lüfter-Rasseln/Rattern ist natürlich direkt Mist und gehört Retourniert.eax1990 schrieb:Mal eine Frage, welcher von den Herstellern baut hochwertige Lüfter auf die Karten?
Hatte jetzt mit ASUS und Inno3D Rattergeräusche und das nach ca einem Jahr, Gigabyte hatte riesige Haarföne die ewig laut waren (früher zumindest) und MSI hatte ich lang keine mehr.
Ich habe seit 10 Jahren in aller erster Linie MSI im Einsatz und hatte noch nie Probleme mit verschlissenen Lüftern. Generell habe ich das Gefühl, hochwertig verarbeitete GPUs mit MSI in der Hand zu haben.
Neben MSI habe ich noch mit Zotac gute Erfahrungen gemacht, jedoch nicht über so viele Jahre.
Soviel zumindest von meiner einseitigen Sichtweise.
dazu gibts doch NDAsShowOff schrieb:du kannst davon ausgehen, dass das noch bis zum Marktstart dauert, ansonsten würde man ja die ganze " Shut up and take my money" Fraktion abschrecken.
- Registriert
- Feb. 2019
- Beiträge
- 5.773
Mac_Leod schrieb:leider nicht wirklich -.-
Alle 70b zB: Lama 3.2 70B laufen darauf immer noch nicht.
Aber es geht natürlich schon viel mehr
Bin auch am überlegen... 32gb hört sich zwar gut an, aber eigentlich wäre das nächste Upgrade für LLM und Videogenerierung eher bei 64gb. Da wären wir aber schon bei den deutlich teureren Profi Karten. Und wenn das Ding nicht 24h läuft, ist Cloud dann günstiger und flexibler.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.993
pfreampfl schrieb:Jede Grafikkarte mit über 150W Aufnahme ist verrückt....
Warum genau? Alles eine Frage der Anforderungen. Anfang der 2000er hätte man auch 80 Watt für eine Grafikkarte für verrückt gehalten.
Özil schrieb:und ich kann mir mit Bauchschmerzen wieder nen 16gb Krüppel kaufen
Wenn man beim Kauf von einem Produkt Bauchschmerzen empfindet, sollte man es einfach nicht kaufen.
k0ntr schrieb:hat CB bereits Grafikkarten zum testen, oder kommt das kurz vor Marktstart?
Sehr wahrscheinlich nicht. Der Marktstart scheint ja auf den 21 zu fallen. So lange vorher verschickt Nvidia keine Pressemuster, wenn es keine Werbekooperation ist, wie bei den RTX30er Karten und Digital Foundry. Aber selbst wenn, dürften Sie es natürlich nicht sagen.
+1.s!r.einSTein schrieb:Mich interessieren die Encoder Und Decoder Details im vergleich zu den bisherigen Lösungen
Wenn NVDEC endlich h265 4:2:2 können sollte, kaufe ich eine RTX 5070 Ti. Aber vermutlich wird es nicht so kommen - dann kaufe ich eine Intel Arc B750.
Misdemeanor
Lieutenant
- Registriert
- Mai 2009
- Beiträge
- 526
Spekulieren und Spekulatius ... abwarten und Tee(quila) trinken.
Morgen ist es doch so weit. Auch wenn wir alle heiß drauf sind, endet morgen die Gerüchteküche.
GeForce auf der CES 2025
Sieh dir die NVIDIA Keynote mit CEO Jensen Huang an
Dienstag, 7. Jan. | 3.30 Uhr MEZ
Link zum YT-Video
Quelle: https://www.nvidia.com/de-de/geforce/special-event/
Morgen ist es doch so weit. Auch wenn wir alle heiß drauf sind, endet morgen die Gerüchteküche.
GeForce auf der CES 2025
Sieh dir die NVIDIA Keynote mit CEO Jensen Huang an
Dienstag, 7. Jan. | 3.30 Uhr MEZ
Link zum YT-Video
Quelle: https://www.nvidia.com/de-de/geforce/special-event/
Zuletzt bearbeitet:
(CB-Forum hat meine Formatierung zerpflückt)
- Registriert
- Juli 2021
- Beiträge
- 2.862
Wird in der Regel vermieden, noch mal Strom extra über den PCIe zu beziehen. Klar, möglich, aber meist kommt man aktuell so auf 15 W was da so benötigt wird.ermel83 schrieb:Wenn der Stecker 600W liefert wie im Artikel genannt, kommen dann nicht noch die 75W über die PCIe-Stecker dazu?
Locker? Kommt auf die anderen Komponenten an. Wenn CPU bis zu 250 Watt zieht und die GPU 450, dann sind 50 W für den Rest ziemlich knapp bemessen.Ano_Dezimal schrieb:Am Ende konntest locker mit 750W die Karte betreiben. Wird hier auch wieder so sein. Keine Ahnung wieso man sich so auf dieser Zahl aufhängt.
Zu mal man bei Netzteilen immer auch eine gewisse Reserve einrechnen sollte. Alleine auch wie bei anderen Komponeten wegen der Temperatur.
Sollte die RTX 5090 auf 575 W zu gehen, können bei 750 W die letzten 175 W je nach Prozessor, RAM, Mainboard und dem Rest verdammt knapp werden.
Zuletzt bearbeitet: