MSI-MATZE
Commander
- Registriert
- Mai 2018
- BeitrÀge
- 2.309
Es zĂ€hlen doch immer die inneren Werte đGhostSniper4090 schrieb:Vom Design finde ich die RTX 4090 schicker, aber nun gut wir brauchen ja Leistung, also wird gekauft.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfĂŒgbar.
Es zĂ€hlen doch immer die inneren Werte đGhostSniper4090 schrieb:Vom Design finde ich die RTX 4090 schicker, aber nun gut wir brauchen ja Leistung, also wird gekauft.
Nochmals fĂŒr euch....FatalFury schrieb:Kurz und BĂŒndig
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergÀnzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube ĂŒbermittelt werden. Mehr dazu in der DatenschutzerklĂ€rung.
Naja liegt er an AMD und Valve oder wie viel Konsolen gibt es von Nvidia.Kraeuterbutter schrieb:es war tatsĂ€chlich nie so gĂŒnstig PC-Games zu spielen wie heute.
hennich schrieb:Wer die Karte zum UVP bekommt findet auch das Bernsteinzimmer.
Man könnte sogar von bewusster IrrefĂŒhrung sprechen. Die 5070 erreicht mit DLSS4 die Leistung einer 4090 ohne DLSS wĂ€re korrekter. Bei der PrĂ€sentation sagte Lederjacke im letzten Satz das dies bei der 5070 nur durch AI möglich wird (impossible without artificial intelligence), sprich mit DLSS4 . Von Rohleistung einfach sonst schier unmöglich.QXARE schrieb:5070 mit der Performance der 4090, fĂŒr 549$? Und die 5090 mit 100% der Performance der 4090, aber 4x so teuer? Wie geht sich das aus, mal abgesehen vom Speicher? Das ist doch pure TĂ€uschung ohne dem Kleingedruckten, oder etwa nicht?
Sollte man als Entwickler eigentlich fast schon boykottieren, um möglichen KompatibilitĂ€tsproblemen aus dem Weg zu gehen und den ganzen Markt konsequent und einheitlich bedienen zu können. Aber auch hier wird wohl einiges an Geld in den obersten Ebenen flieĂen die keine Ahnung haben was sie damit anrichten...
Wenn du die FE meinst, ich kann mir ehrlich gesagt nicht vorstellen wie dieser Dualslot SFF KĂŒhler die fast 600W ordentlich abfĂŒhren soll, leise schon garnicht.GhostSniper4090 schrieb:Vom Design finde ich die RTX 4090 schicker, aber nun gut wir brauchen ja Leistung, also wird gekauft.
wenn du das sagst dann bin ich ja wirklich ein LĂŒgner đ€Łdaknoll schrieb:LĂŒg dir doch nicht so in den Sack.
Cyberpunk und die andere Ray/pathtracing Games nuckeln in 4K die volle Leistung auch aus einer 4090. Und die Effizienz kannst du vergessen, effizient ist sie bei 450W auch, das tut aber nichts zur Sache. Es geht dabei nur um den Maximalverbrauch und die zugehörige AbwÀrme.
NamensÀnderung dann?GhostSniper4090 schrieb:Vom Design finde ich die RTX 4090 schicker, aber nun gut wir brauchen ja Leistung, also wird gekauft.
Das ist ja der Witz der Karten mit DLSS4 und MFG...du brauchst so viel VRAM ĂŒberhaupt nicht mehr, weil die Games auch nicht mehr nativ in hohen Auflösungen rasterized werden. Man braucht sich auch nur mal die Test bei techpowerup anschauen von Alan Wake 2, Cyberpunk 2077, Ratchet & Clank, Horizon Forbidden West etc.Explo2224 schrieb:Eine 649⏠mit 12GB VRAM... eine 1100⏠Karte mit nur 16GB VRAM. Videospeicher ist zwar nicht alles, aber es ist der Bottle-Neck Nr. 1 in der aktuellen Zeit. Diese Karten sind keine Karten, die man fĂŒr 5 Jahre oder so im Rechner behalten wird, wenn man in ner hohen Auflösung mit hohen Settings zocken will. HĂ€tte die 5080 mindestens 20GB, könnten wir darĂŒber reden oder die 5070(non ti) mit 16GB.
War eher witzig gemeint Ich sitz hinten im Auto und Futter Popcorn mit meiner 7900XT Nitro + die ich mir vor 2 monaten fĂŒrn SchĂ€ppchen geholt hab.Kuhprah schrieb:Kommt drauf an. Wenn man nicht in D bei den ganzen Firmen bestellt sondern ganz normal im Handel zum Listenpreis (da muss man halt eventuell paar Wochen warten) sollte das auch kein Problem sein. Nicht alle HĂ€ndler erhöhen die Preise wie sie es grad von den Kunden abziehen können....
Ach das suche ich schon so lange đȘhennich schrieb:Bernsteinzimmer.
nein...Apocalypse schrieb:Hmmm. 4k per eye gibt es ja schon von pimax,
wĂŒrd ich so gern mal durchschauen.. ob man da wirklich keine Pixel mehr sieht..Apocalypse schrieb:Varjo xr4 kratzt man iirc schon ziemlich an maximalen ppd ab der keine Pixel mehr erkennbar sind mit zwei 4k displays und 51 ppd...
Kauf eine 4080, denn die bringt im Endeffekt die gleiche Leistung und gut! AuĂer du spielst lediglich keine high-fps-needed Games, dann helfen dir Ghost-Fps sicher weiter.The_Wizzard schrieb:Mit der 5080 steige ich final auf 4k UHD um..welcher Moni arrrgh wird teuer
Und andere sagen eben: Ăhm - da will ich aber gar nicht hin!iamcriso schrieb:Hi,
Ich bin tatsĂ€chlich etwas erschrocken darĂŒber, wie hier in einem Community IT Forum so derart unsachlich und teilweise herablassend ĂŒber neue Technologie (KI, Neuro-Rendering, DLSS) geurteilt wird
Das stĂ€ndige Herumreiten auf âJa aber Nativ dies dasâŠâ erinnert mich bisschen an so âaber damals mit der Mark warâŠâ
Wir sind im Jahre 2025. Das war eine gelungene Vorstellung von NVIDIA, die aufgezeigt haben wo die Reise hingeht.
Flachband Kabel vom NotebookConvert schrieb:Das heiĂt die AnschlĂŒsse werden ĂŒber DrĂ€hte an die Slotblende dran gefĂŒhrt?