budspencer
Lt. Junior Grade
- Registriert
- Mai 2006
- Beiträge
- 345
Hätte man sich 2017 lieber 20 Nvidia Aktien im Wert von ca. 800 Euro anstelle einer 1080Ti gekauft, dann wärst heute bei 80.000 Euro. Jedes Jahr ne neue GPU für den Rest Deines Lebens^^
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Raytracing wird durch Nvidia dominiert, die entsprechend Ressourcen aufwenden, sowohl Studenten als auch Spielestudios unterstützen und damit wichtige Erfahrungen sammeln. Auch im KI-Markt ist AMD hinten dran .
So weit ich das verstehe, kann man ungefähr 4 RTX4090 bauen oder einen KI-Beschleuniger, limitieren tut hier die Fertigungskapazität bei TSMC.Ein (noch aktueller) Hopper-Beschleuniger H100 kostet weit jenseits der 20.000 Euro und treibt Nvidias Nettomarge nah an die 80 Prozent. Beim Nachfolger B100 werden Preise von mindestens 60.000 Euro erwartet. Dagegen stehen GeForce-Grafikkarten, deren schnellste Versionen Nvidia mit Ach und Krach für 2000 Euro verkauft bekommt. Und die Fertigungskapazität des Zulieferers TSMC ist begrenzt.
Wie willst Du denn Veränderungen über die Zeit feststellen? Indem Du Spiele von 2016 testest?0x8100 schrieb:um was geht es denn? laut titel um die ausage "fine wine", also ob sich vega im laufe der zeit verbessert hat. und was wird dann getestet? cyberpunk und avatar, von denen beim release der karte niemand auch nur geträumt hat.
Kannst ja mal bei CB fragen, ob sie Dir die Karten für einen LeserInnentest leihen können. Ich bezweifel allerdings, dass das passieren wird, da Du hier unter Beweis gestellt hast, dass Du nicht weißt, was der Sinn und Zweck eines GPU-Tests ist.0x8100 schrieb:gerne, auch unter linux - brauchst mir nur die hardware zukommen lassen
verrückte idee, ich weiss /sMoinWoll schrieb:Indem Du Spiele von 2016 testest?
Ja, richtig. (Kein /s)0x8100 schrieb:verrückte idee, ich weiss /s
Mit der Aussage wäre ich vorsichtigbudspencer schrieb:Hätte man sich 2017 lieber 20 Nvidia Aktien im Wert von ca. 800 Euro anstelle einer 1080Ti gekauft, dann wärst heute bei 80.000 Euro. Jedes Jahr ne neue GPU für den Rest Deines Lebens^^
Heise ist leider mittlerweile häufig unseriös. Für eine Analyse und Bewertung des Heise-Artikels kannst Du Dir den Artikel hier mal durchlesen:scooter010 schrieb:Dazu ein Kommentar (heise.de).
Same hatte auch ne Vega64 Nitro+ gekauft für so 500€ damals zum Mining Boom dann auch für so 700 verticket, das hat sich gelohnt.Zenx_ schrieb:Vega 64 ne geile Karte gewesen, für 550€ gekauft und 750€ nach 2 Jahren in 2021 verkauft. Hatte viel spaß mit dem Teil.
beide Karten können FSR. Damit gibt es keine unterschiedlichen Variablen innerhalb eines Spiels. Direkt vergleichbar sind verschiedene Spiele untereinander eh nicht. Wenn es mehr Sinn macht, wie du sagst und das tut es bei 20 FPS zweifelsohne, hätte man das bei den Spielen mit FSR Support aktivieren müssen.kicos018 schrieb:Ja, es macht sicherlich mehr Sinn Hilfsmittel wie FSR anzuwenden, aber was genau erwartest du jetzt von diesem Test? Einen Vergleich mit identischer Ausgangsbasis oder einen Test unter Realbedingungen mit unterschiedlichsten Variablen?
Weil wenn ich Manor Lords mit mittleren bis hohen Einstellungen spiele, dann habe ich unter WQHD mit meiner 1070 nicht nur 30 FPS, wie im Community-Benchmark, anliegen.
Natürlich soll der Test ein bestimmtes Ergebnis provozieren. Wenn ich nun Settings und Spiele nehme die eher der Leistung einer 1080Ti oder Vega 64 entsprechen ( ESports, Indie, aktueller Parcour), wird sich nicht so viel tun, auch wegen V-ram.0x8100 schrieb:um was geht es denn? laut titel um die ausage "fine wine", also ob sich vega im laufe der zeit verbessert hat. und was wird dann getestet? cyberpunk, avatar und cities skyline 2 - also titel, von denen beim release der karte niemand auch nur geträumt hat.
Naja, aber es ergibt trotzdem wirtschaftlich Sinn, wenn man sich auf das fokussiert, dass am Ende mehr Marge bringt als das andere Produkt. Natürlich ist es richtig, dass momentan das Packaging und der HBM speicher nicht in den Mengen verfügbar sind, wie sie gebraucht würden, aber wenn man mal ein Gedankenspiel macht, in dem das eben der Fall wäre, dann ist die Schlussfolgerung eigentlich passend.MoinWoll schrieb:Derzeit limitiert bei der Fertigung das Advanced Packaging und der HBM-Speicher. Beides Dinge, die man für Consumer-GPUs nicht braucht. Die Fertigungskapazität ist daher nicht der Flaschenhals. Kann sich natürlich zukünftig ändern, ist aber noch nicht absehbar. Dass NVIDIA auf der Computex nichts zu RTX 50 gesagt hat, liegt daran, dass die Karten voraussichtlich Ende des Jahres/Anfang nächsten Jahres kommen und NVIDIA, zumindest in den letzten 10 Jahren, neue Consumer-Karten immer etwa einen Monat vor Release vorgestellt und davor dazu geschwiegen hat. Ergibt ja auch keinen Sinn, weil die Konkurrenz dann weiß was Sache ist und entsprechend reagieren kann. Das war auch komplett ohne KI-Boom/Hype der Fall.
Falls das gemeint war und all diese Vermutungen irgendwann eintreffen werden, stimme ich zu. Allerdings ist das nicht der Inhalt des verlinkten Heise-Artikels, der von der Gegenwart spricht und auf der Grundlage faktisch falscher Behauptungen Panikmache betreibt.edenjung schrieb:Das ist allerdings eine Annahme für die Zukunft. Und ich glaube, dass meinte der Forist auch, dass es in 5-6 Jahren nicht mehr wirklich interessant ist für Nvidia viel in normale Grakas zu investieren.
Die Wave64-Unterstützung haben sie ja auch nie gestrichen. Eines der "Geheimnisse" von RDNA war ja, dass die primären "Wave64" damals dann in 2 Takten, statt 4 und in einem, wenn es weniger gleich 32 Warte waren.Anteru schrieb:Und ja, zwar hat man von SIMD16 auf SIMD32 umgestellt, aber unterstützt weiterhin Wave64
Ich bin an der Stelle nicht überrascht. Das AMD bei RDNA 3 mit den Dual-Issues Vec32 gerade die Wave64-Ausführung stärken wollte, findet man im Whitepaper und ist wohl besonders wichtig bei RT.Anteru schrieb:Die SIMD-Breite ist jetzt zwar nicht völlig egal, aber wenn Du Dir mal anschaust welche Shader in welcher Breite auf einer RDNA3 Karte laufen, wirst Du wahrscheinlich überrascht sein
Wie geschrieben, das ganze vereinfache ich an der Stelle sehr stark, weil es viele Informationen dazu gibt, was wie wo passiert und was AMD über die Zeit bis Vega da auch alles verbessert hat, damit das alles wesentlich schneller ausgeführt wird.Anteru schrieb:Das hat aber damit nichts zu tun. Das sagt nur, dass ein Workload der von der Grafik-Queue aus startet Priorität hat - und das hat er auf RDNA3 auch noch. Eine Compute Unit kann trotzdem gleichzeitig arbeit aus beiden Queues am Start haben ohne "Kontext-Wechsel".