LamaMitHut schrieb:
Ist klar... Natürlich kann man mit den Karten von AMD jetzt schon gut in 4k zocken, ich weiß echt nicht was das unreflektierte getrolle soll.
¯\(ツ)/¯
Es ist halt sehr stark vom Titel abhängig und RT bedeutet quasi immer das Aus für 4K ohne FSR. F1-22 kommt zB auf nur 44fps, eine 3080 Ti ist auch nicht krass schneller mit 50, 57 bei einer unrealistisch teuren 3090 Ti und 74 bei ner 4080.
Sobald 4K und RT zusammenkommen sind beide Hersteller mit RDNA2 als auch Ampere schnell am Ende der Fahnenstange angekommen. Umso spannender wirds jetzt wie viel mehr RDNA3 auch hier nachlegt.
Kaliauer schrieb:
Wofür kauf ich denn ne 4080? Die 16 GB reichen heute aus, ja. Aber in zwei Jahren? Wie schauts denn heute mit der 3080 Ti mit 12 GB aus - die läuft auch schon bei einigen Games in den RAM-Falschenhals.
Die Frage die ich mir heute stelle ist ganz einfach Kauf ich heute eine "günstigere" Karte und in zwei Jahren eine neue "günstige" oder kauf ich mir jetzt ne teure - die muss dann aber 4 Jahre halten. Und da mach ich bei 16 GB eben ein Fragezeichen dran.
Ich würd Speicher immer von der aktuellen Konsolen-gen abhängig machen. Wenn man jetzt mit 12GB in 4K mit RT gut klarkommt, dann braucht es nicht mehr in absehbarer Zeit. Mir wäre es sogar lieber gewesen wenn die 4090 nur 16GB hätte statt 24 aber dafür ein 512 Bit Speicher IF. 1,34 TB pro Sekunde ggü. 1 TB bringen der Architektur garantiert mehr als mir 24 GB VRAM bringen die eh in jedem Spiel zu 50% oder mehr brach liegen.
Ich zock grad The Outer Worlds und laut Afterburner werden zwar 8,9GB im Mittel reserviert auf der GPU, "in-use" sind aber nur ca. 4GB. Und das in 4K alles maxed und Aussenbereichen.
Was die 3080 Ti angeht hatte ich kein Spiel mit Flaschenhals finden können, welches wäre das (rein interessehalber) ?
Kaliauer schrieb:
Was interressiert mich mein dummes geschwätz von vor 5 Minuten?
Warten wir ab, was AMD aufruft (und was lieferbar ist). Davon hängt ab, welche Karte interessanter ist.
Es wird spannend. Es wär mir mehr als Recht wenn AMD eine 7990XTX noch nachlegt um die 4090 vom Thron zu stoßen. Das nötigt nämlich auch nVidia wieder mehr zu machen oder an den Preisen zu drehen. Seit 2016 mit Ryzen und 2019 mit RDNA2 macht Technik endlich wieder Spaß !
Ich hab kein Problem eine Radeon zu kaufen, sie muss halt schneller sein als das NV oder irgendwann mal Intel Produkt. Mich interessiert nur nackte Power.
Kaliauer schrieb:
Wenn du kein professioneller User bist, dann "brauchst" du auch keine Grafikkarte in der Leistungsklasse für Videobearbeitung & Co. Man kann es sich gönnen, definitiv, aber brauchen tut man es nicht.
Das ist es eben. Man "braucht" wenige Dinge wirklich. Wir wollen sie einfach gerne
anthony274 schrieb:
Ich definiere das daran, dass es nVidia, das ist der Hersteller, damals so propagiert hat und auch deswegen die Karte nicht der GTX Familie zugerechnet hat. Die Karte sollte abseits davon im Semi-Pro Bereich platziert werden. So hieß es damals. Wenn Du andere Infos hast; z.B. dass nVidia das nicht so gemeint hat, weil die Treiber andere waren, dann weißt Du mehr als das nVidia Marketing von damals.
Also ist das Marketing und nicht die Technik maßgeblich ? In dem Fall ist die 3090 was ? Mal als Gaming-Karte beworben, mal als Pro-Karte beworben ist die jetzt beides ?
anthony274 schrieb:
Du unterschlägst völlig den technischen Fortschritt in der Fertigung. Nach Deiner Rechnung geht der zu 100 % in die Tasche der Hersteller. Wenn das so wäre, müsste eine Alufelge mit Reifen heute mehrere 10.000 € kosten, weil man noch immer die Arbeitszeit und den Wareneinsatz von Zeiten nimmt, als ein Kutschrad per Hand gefertigt wurde, die Inflation und aktuellen Löhne draufschlägt, aber die Weiterentwicklung in der Fertigung unterlässt. Was Du machst, ist einfach nicht richtig. Die nächste GPU müsste dann 1000 € mehr kosten.
Nö, es ändern sich halt viele Rahmenbedingungen mit dazu. Software und dedizierte Zusatzhardware gewinnen immer mehr an Stellenwert (DLSS, FSR, RT, CUDA, NVENC, VCE etc. pp).
Beim Felgenvergleich würde ich sagen, wer Highend Alufelgen gekauft hat und immer das "krasseste" haben wollte, der kann heute 10k für einen Satz problemlos ausgeben - sind dann halt Carbonfelgen mit Einzelabnahme. Analog dazu EUV Belichtung und Highend-Chips und Materialien. Alles wird komplexer und technischer Fortschritt bedingt meist einen erhöhten Einsatz von neuen Fertigungs-Technologien, Materialien und somit auch einen gestiegenen finanziellen Aufwand. Das nVidia von heute hat auch nicht mehr nur 400 Mitarbeiter, das sind jetzt über 22k, die wollen alle bezahlt werden. AMD dasselbe, als Lisa Su übernommen hat hatten die etwa 8000 Mitarbeiter, jetzt sind es knapp 16000 und noch über 2k Stellen unbesetzt ausgeschrieben - die können nicht immer beim gleichen Preis bleiben und immer mehr Leute einstellen, immer mehr forschen, immer mehr und mehr und alles am Besten für Lau.
anthony274 schrieb:
Die Wafer haben zu Zeiten der 1080 sicherlich nicht weniger gekostet. Es waren ja 16nm Chips, bei denen viel weniger Chips aus einem Wafer kommen.
Aber selbst wenn wir all das außen vor lassen, kommen wir trotzdem nicht auf die Preise, die es heute gibt.
Leider falsch. Die Waferpreise für 16/12nm lagen bei TSMC noch knapp unter 4000$, ein 5nm Wafer kostet dich schlappe 17k $. Dazu war der Chip einer 1080 knapp halb so groß wie der einer 4090, selbst der einer 4080 ist noch ca. 20% größer und kostet pro mm² 4,25x soviel Geld wie ein Die aus 16nm Fertigung.
Ich rechne dir die Kosten mal so vor: aus einem 300mm Wafer konnte man bestenfalls 136 gute GTX1080 Dies schnitzen bei 314mm² Chipgröße, macht 29,41 $ pro Chip. 4080er Dies kriegt man aber nur noch 106 aus einem 300mm Wafer (379mm²). Bei den aktuellen 5nm Waferkosten macht das dann auf einmal 160,37$ pro Chip. Nur um das mal ins Verhältnis zu setzen.
anthony274 schrieb:
Ich habe gerade auch gesehen, dass ja, 2017 die 1080ti gelounched wurde für 699 $?
Wie geht das? Stärkere Karte, keine Veränderungen bei Dollar und €, MWST gleich, gleiche Technologie, gleiche Wafergröße und das neue Flagschiff kostet trotz Inflation einfach genau so viel wie das ältere Flaggschiff? Wie ging das damals nur?
Aus einem 300mm Wafer konnte man ca. 75 Chips holen -> 53,33$ pro Chip bei damaligen Waferpreisen. Die 1080Ti ist auch gleichzeitig für 100$ mehr gestartet. Ich würde behaupten nVidia hat hier einfach auf Marge verzichtet, war aber als FE auch kaum verfügbar. Eine ROG 1080 Ti wie ich sie hatte kostete damals auch 1029€.
Das kann man schon mal machen. Aber ist halt kein Konzept für gute Gewinne. Oder wärst du bereit ständig neue Aufgaben im Geschäft zu übernehmen und aber gleichzeitig nie mehr Lohn zu kassieren ? Ich sicher nicht.
Rockstar85 schrieb:
Sorry, aber WENN dem so wäre, hättest du nicht 2000€ für eine GPU hingelegt ohne auf kkonkurrierende Produkte zu warten. Das hat nichts mit Rationalität zutun, wenn von einem Produkt nur ein Produkt in Frage kommt.
Auch dieses öffentliche Profilieren mit einem Halo geht vielen auf den Sack.
Also hätte ich auf eine 7900XTX warten sollen, die AMD selbst "nur" gegen die 4080 positioniert ? Welchen Sinn würde das ergeben ? Ich habe ja extra noch auf die Präsentation von AMD gewartet bevor ich was entschieden hab.
Und wovon genau fühlst du dich jetzt von mir angegriffen ? Weil ich dieses Jahr für mich entschieden habe nicht mit meinem Paps nach Teneriffa zu fliegen und lieber in Zen 4 und RTX 4000 investiert hab für meinen Winterurlaub ?
Rockstar85 schrieb:
Keiner ist dir böse, wenn du außer NV nichts kaufst, aber dann sei bitte so ehrlich zu dir und kommuniziere das so. Und das gilt für viele hier!
Ich kaufe auch nur Suzuki und Kawasaki und stehe dazu.
Hä ? Wieso sollte ich ausser nVidia nix kaufen ? Ich hab früher Voodoo 2 gehabt und Riva128er Karten, Kyro und Kyro 2. Autos wechsel ich auch komplett die Marken, VW, Audi, Jaguar, Tesla...für mich kommt das in Frage was im Moment meine Bedürfnisse am Besten abdeckt.
Wenn AMD im März eine 7990XTX vorstellt die eine 4090 hart abzieht, dann ziehe ich auch da sofort einen Tausch in Betracht wenn er mir mehr gibt als ich verliere. Mich auf Marken zu fixieren kommt nicht in Frage, halte ich für dämlich. Man beraubt sich eventuell besserer Optionen wozu ?
C4rp3di3m schrieb:
Der infinity cache von AMD ist aber u.a. dafür den kleineren BUS zu kompensieren, die 390 z.B. hatten noch eine 512bit Anbindung. Die Radeon 7 ist auch heute keine schlechte Karte.
Also bei 1440p war mein GDDR schon immer mit (RTX 2060-12GB bis letzte Woche) 11GB+ belegt. Der Treiber und die Engines lagern dort auch viel ein z.B. bei openworld Titeln. Du merkst sehr wohl einen Unterschied, auch ohne RT gedöns. Alles unter 192bit ist Ramsch.
Reserviert. Nicht belegt behaupte ich. Das muss man schon unterscheiden. Ich hatte mit der 3080 Ti keinen einzigen Titel der die Karte VRAM-Technisch ausgelastet hätte. Das Problem ist eher dass die GPU schlicht nicht schnell genug war. VRAM ist selten das Problem abseits professioneller Anwendungen.
C4rp3di3m schrieb:
Ich finde es extrem Schade das HBM zur Zeit nur im Profibereich angeboten wird, in dem Fall wäre etwas höhere Preise auch eher gerechtfertigt, wenn jetzt wieder wer kommt das wäre so Teuer, nonsens, die Preise der Radeon 7 z.B. lagen bei 700€. AMD verschenkt auch nichts, von daher wären 1000€ Karten immer noch extrem gewinnbringend, wenn sie wieder HBM hätten, egal ob NV oder AMD.
AMD hat auch gemerkt dass das Verschwendung war und schlicht unnötig für den Zweck. Ich würde auch behaupten AMD hat mit der Radeon VII massiv Geld liegen lassen wie auch nVidia mit der 1080 Ti. Den Fehler machen die erstmal nicht mehr. Beide.
C4rp3di3m schrieb:
Schaut man sich die Aktienkurse der beiden Firmen an weißt Du wo dein Geld hingeht. Das ist alles einfach Abzocke der Kunden, Fakt.
Dann bist du also auch so fair und willst selbst nur so viel Gehalt haben dass es dir gerade so zum überleben reicht ? Sparen willst du nix und dir was gönnen auch nicht ? Sehr fair von dir ggü. deinem Chef. Ich bin da nicht so fair.
C4rp3di3m schrieb:
Upscale kann ich nichts abgewinnen, gar nichts. Am Ende ist die Physik im ganzen Universum gleich, man kann nichts mehr an Dietails erschaffen was nicht da ist. Skaliere mal ein VHS Video auf 4K hoch, dass ist Augenkrebs pur.
Kann man nicht ? Hier meine Freundin, soeben von AI erschaffen:
Ziemlicher Augenkrebs oder ?
C4rp3di3m schrieb:
Diese Techniken wie FSR oder DLSS sind einfach nur Blödsinn den keiner Braucht.
Wenn deine Grafikkarte nicht genug Performence für deine gewünsachte Auflösung hat, dann kaufe dir eine bessere oder Lebe damit.
Ja, so reagieren Menschen meist wenn sie eine Technologie nicht verstehen. Früher fand man auch dass keiner das Automobil braucht oder der Personal Computer eine Modeerscheinung ist. Über Apples iPhone haben auch alle gelacht und heute glotzt jeder auf sein Smartphone.
C4rp3di3m schrieb:
Für mich wurde dass nur eingeführt, um den Leuten tolle Benchmarkbalken presentieren zu können, die Bildqualität wird damit aber nicht besser.
Tatsächlich geht es auch darum die Bildqualität zu erhalten und nicht zwangsläufig zu verbessern. Ich find Upscaling mehr als sinnvoll und nutze das auch aktiv wenn ich am großen 4K TV zB in 720p gedrehte Serien hochskaliere damit sie nicht aussehen wie Matsch.
schkai schrieb:
Ich habe nichts gegen RT, wenn es gut eingesetzt wird und nicht unnötig viel Leistung frisst, dann aktiviere ich es gerne. Offensichtlich kümmert man sich aber mehr um Effekte, anstelle einfach eine gutes Game mit guter Grafik zu erstellen. Könnte auch der Grund sein weshalb ich kaum Spiele mit RT in meiner Bibliothek habe
Das war aber seit jeher so. Es gab immer wieder neue Fortschritte bei Grafik und die haben alle mal mehr, mal weniger Leistung gekostet. Es ist aber auch nunmal so dass man irgendwann an einem Punkt ist wo man immer mehr Leistung für immer weniger Return investieren muss um sich Perfektion anzunähern.
Daher braucht man eben neue Lösungen wie DLSS/FSR und Co. weil endlos skalieren aktuell GPUs halt auch nicht.