News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

JJJT schrieb:
Das hat dazu geführt, dass für mich die 6800 diesmal das rundeste Paket dargestellt hat.
Finde ich auch.

Die attraktivste Karte auf dem Gesamtmarkt.
Wenn man Leistung/Verbrauch gegenüber stellt und das ohne Hand anlegen zu müssen.
 
  • Gefällt mir
Reaktionen: danyundsahne
RogueSix schrieb:
AMD werden für jede einzelne MCM Navi Consumer-GPU vergleichsweise viel Wafer "opfern" müssen
Verstehe ich nicht. Eigentlich sollte das genaue Gegenteil der Fall sein.
Ein Multi Chip Konzept bedeutet weniger Fläche pro Chip und damit bessere Ausbeute und eine insgesamt höhere Produktion. Warum glaubst dass es andersherum ist?
 
  • Gefällt mir
Reaktionen: Strubbel99, Knutengore, ComputerJunge und 3 andere
KurzGedacht schrieb:
Die Leistung ist insbesondere für High Quality VR Gaming viel zu gering.
Selbst nen Dual 3090 Setup reicht aktuell kaum um >4k pro Auge vernünftig umzusetzen und eigentlich braucht man noch ne ganze Ecke mehr um tatsächlich Bilder zu erzeugen, die einigermaßen realitätsnah sind.
das ist eindeutig ein sonderfall das was du schilderst. Weil ganz einfach es viel zu teuerer ist. Die meisten Gamer können nicht mal so zich k € einfach so rauskloppen.

Dafür müsste Hardware ein gutes Stück billiger sein damit solche sachen bei der masse ankommen
 
bondage game schrieb:
das ist eindeutig ein sonderfall das was du schilderst. Weil ganz einfach es viel zu teuerer is
Neueste Technik ist immer teuer. Das macht ja auch nix.... Wird ja billiger mit der Zeit.
Mehr Leistungsbefarf besteht trotzdem da du sonst eine Henne-Ei Problem hast und kein Hersteller überhaupt VR Technik mit entsprechender Qualität bauen kann (also könnten sie schon, aber es bringt ja nix wenn sie niemand nutzen kann).
Der "Sonderfall" muss also abgedeckt werden, weil es sonst nicht voran geht, die Technik nie bei den Early Adoptern denen die Kohle eh egal ist landet, nicht mehr Hersteller aufspringen, der Kram nicht durch Masse und Fortschritt billiger werden kann usw...
 
  • Gefällt mir
Reaktionen: Strubbel99
Schwer zu sagen.

Bei NVIDIA kann man sich ja noch durch den klassischen Aufbau aus der Erfahrung und der Vergangenheit heraus und der gestiegenen Shaderleistung die Mehrleistung in etwa zusammenreihmen, welche wohl zwischen 50% und 70% liegen wird bei einem Mehrverbrauch von bis zu 30%.

Aber bei AMD ist einfach nur ein großes Fragezeichen angesagt.
Nimmt man dazu Ryzen als Parallele, so ist der erste Start sehr holprig und nur im Speziellen von Vorteil gereicht, was sich erst nach und nach immer mehr verbessert und entwickelt hat.

Natürlich wird AMD ihre ganze Erfahrung in das MCM-Design stecken und sicherlich die Schrauben schon an den richtigen Stelle drehen. Aber ob es dann wirklich reicht und man durch zu großen Schwankungen negativ auffällt und zu Inkompatibilitäten neigt ist deutlich mehr wahrscheinlicher als noch beim klassischen Ansatz, sprich bei manchen Enginen sau schnell, aber bei anderen funktioniert das MCM-Design nur sehr schlecht.
AMD wird sich da erst ganz kurz vor der Vorstellung in die Karten sehen lassen.

Eines wird aber sicher sein.
NVIDIA wird vor AMD erscheinen um den Käuferkreis schon vorbeliefern zu können.
 
Ich denke, dass AMD den größten Techniksprung vollziehen wird. Das Konzept der mehrfachen "Kerne" war auch schon im CPU-Bereich der nächste Evulotionsschritt für mehr Leistung. Von daher denke ich, dass AMD einen deutlichen Leistungssprung machen wird. Nvidia wird vermutlich nur mit einem enormen Energieaufwand dasselbe Leistungsniveau erreichen, wodurch Team Grün der Verlierer auf dem Feld Energieeffizienz sein werden.
Das Alleinstellungsmerkmal DLSS wird nächstes Jahr sicher nicht mehr so stark ausgeprägt sein.
 
Nvidia behält die Krone. AMD schließt mit der nächsten Generation weiter auf und wird auch ein deutlich runderes Paket abliefern können.
 
Am Ende wird der Gewinnen, der größere Mengen liefern kann - da ist die Leistung vielen auch Banane, solange sie ausreichend ist. :freaky:

Fehlermeldung schrieb:
Intel als Preisdrücker
Willkommen zur Märchenstunde. :evillol:
 
  • Gefällt mir
Reaktionen: .Ake
AMD hat in jüngster Zeit im beeindruckenden Maße gezeigt, was sowohl bei den klassischen CPUs, als auch im Bereich der GPUs möglich ist und besonders, wenn man die Effizienz hinzuzieht, wandert die Krone derzeit zweifellos weder an Intel, noch an nVidia. Das haben die kürzlich durchgeführten Tests von ComputerBase erst wieder eindrucksvoll bewiesen, dass nVidia derzeit nur in der Lage ist, vor AMD zu bleiben, wenn gleichzeitig im Verhältnis mehr Strom dafür aufgebracht wird:
https://www.computerbase.de/2021-12...3/#abschnitt_energieeffizienz_in_fps_pro_watt


Natürlich ist das aktuell alles nur Spekulatius, (kurz vor Weihnachten - lecker ^^) aber ich gehe nach derzeitigem Wissensstand davon aus, dass AMD hier nochmal eine Schippe drauflegen kann.
 
Diese Frage ist von so vielen Faktoren abhängig zu beantworten... Ich hab mir Mal ne Vega 56 gekauft, weil ich zu der Zeit heiß war auf das Gebastele. Danach wurde es eine Top 5700 xt, weil mir die nächste 2080 zu teuer war und Lüftung und Lautstärke wichtig waren. Zwischenzeitlich hätte ich gerne Mal DLSS getestet, aber die Preise + momentan zock ich fast nur WoW classic..
Also wenn ich mir das alles anschaue, dann hat AMD mit Sicherheit das sehr viel interessantere Paket mit der neuen Generation, in technischer Hinsicht. NV wiederum wird mit seinen Features noch weiter ausbauen können, die verdienen einfach zu viel Geld und haben die letzten Jahre fast alles richtig gemacht. Da wird weiter investiert.
In Frage der Leistung kann alles möglich sein, NV hat aber gewisse Limits, die jetzt schon klarer absehbar sind (Verbrauch/Hitze).
 
Powl_0 schrieb:
Und gerade bei sowas wie GPUs ist Latenz wichtig.
Das ist nicht richtig. Latenz ist bei CPUs und bestimmten GPGPU-Workloads sehr wichtig, beim Rendern von Spielen aber nicht. Klassisch arbeitet ein Rasterizer in jedem Shader die gleichen Arbeitsschritte ab, nur jeder Shader auf einen anderen Bereich des Bilds. Dadurch ist der gleichmäßige Datenstrom, also die Bandbreite, wichtig, nicht aber die Latenz.
t3chn0 schrieb:
Nvidia aber bestimmt deutliche Latenzvorteile haben wird. Das versucht man bei AMD mit dem Cache zu kompensieren.
Das ist auch nicht ganz richtig. Der Cache kompensiert Latenz- und Bandbreitennachteile des VRAMs. Latenzprobleme beim Hoppen einer Aufgabe von einem GCD zum anderen, wie es bei CPUs das Problem ist, kann man mit mehr Cache nicht auffangen.
RogueSix schrieb:
nVidia werden wesentlich mehr Chips pro Wafer produzieren können, wenn "nur" Hopper als MCM, aber Lovelace noch monolithisch daherkommen wird.
Wie jemand anderes schon erwähnte ist das genaue Gegenteil der Fall. Zwei kleine Dies sind besser für die Ausbeute als ein großer. Außer du rechnest den "Bridge"-Die noch mit, der Waferfläche verbraucht.
 
  • Gefällt mir
Reaktionen: Strubbel99
mike2105 schrieb:
Ich finde es ein bisschen diskriminierend gleich in eine Ecke gestellt zu werden. Kann man sich nicht einfach mal Vorurteilsfrei austauschen?

Ich würde als Besitzer einer amd
Karte momentan trotzdem zu nvidia Raten, weil die das bessere Gesamtpaket haben. Das kann sich auch natürlich schnell ändern. Aber dlss und raytracing sind halt besser bei nvidia. Mit Intels Variante und fsr Verbreitung bin ich gespannt wie sich das entwickelt.
 
Berserkervmax schrieb:
Warum ist sowas nicht vom Werk möglich bzw. warum muss eine GPU soviel zuviel Vcore bekommen ?
Nennt sich Streuung der Chipgüte.
Meine 6900XT läuft out of the Box mit 1,175V. Ich kann die Spannung max. auf 1,15V absenken, ohne dass sie abstürzt. Damit hab ich ne Gurke erwischt. Aber sie läuft unter den angegebenen Specs.
 
Ich traue AMD zu, dass sie nochmal ordentlich einen draufsetzen und Nvidia stark unter Bedrängnis bringen, vielleicht sogar stärker, als bei RDNA2 vs Ampere.

Dennoch ist DLSS mit Version 2.3 ein stärkeres Verkaufsargument, als es eh schon war.

Habs erst jüngst bei Horizon Zero Dawn gesehen. Das Spieleigene TAA neigt dazu, dass Vegetation deutlich flimmert, das war schon immer ne Schwäche des Spiels.
DLSS behebt dieses Flimmern nun vollständig. Das Bild sieht jetzt mit DLSS, welches eben seine eigene Kantenglättung mitbringt, deutlich besser und praktisch perfekt aus.

Zudem wurden mit DLSS 2.3 die Modi Ausgewogen, Performance und Ultra Performance in ihrer Qualität massiv verbessert.
Der Performance Modus ist nun nicht mehr nur in 4K gut nutzbar, sondern ist selbst in 1440p schon brauchbar. In Cyberpunk 2077 sieht der Ausgewogen Modus jetzt in Bewegung genauso gut aus, wie einst der Quality Modus bei zusätzlich deutlich weniger Ghosting und Smearing.


Für mich ist das einfach DER Gamechanger, der den ganzen Konkurrenzkampf und der Frage nach der "richtigen" Karte zum teil stark relativiert bzw. egalisiert.

Wenn ich sehe, dass meine 3060ti im DLSS Performance Modus selbst meinen 4K TV mit einem exzellenten Bild bespielen kann (wofür ich die Karte nichtmal gekauft habe), das in manchen Spielen sogar der standardmäßigen TAA Implementierung überlegen ist, dann fragt man sich schon, welche Relevanz da eine Karte hätte, die bei gleichem Preis meinetwegen 20% schneller wäre, aber kein vergleichbares Feature hat.


Zudem sieht man anhand von Intels XeSS und dem Temporal Super Resolution der Unreal Engine 5, dass es in Zukunft ohne Upscaling erstmal nicht weiter geht. Und da Upscaling grundlegend erstmal mit einem Qualitätsverlust einherkommt (da weniger Pixel berechnet), der durch einen guten Algorithmus erstmal möglichst vollständig wieder kompensiert werden muss, möchte ich da in Zukunft einfach auf den möglichst besten Algorithmus setzen, den man haben kann. Das Feature ist und wird nunmal verdammt wichtig.


Ich erwarte deshalb von AMD, dass mit dem RDNA 3 Release dann auch FSR 2.0 auf den Markt kommt, welches es mit DLSS und XeSS aufnehmen kann. Erst dann würde ich bereit sein, abzuwägen, ob eine schnellere AMD mit einem z.B. etwas schlechteren FSR 2.0 die bessere Wahl wäre.

Bis dato bleibt für mich DLSS der no Brainer.

Zumal ich meine GPU sowieso erstmal noch ne weile behalten möchte. Denn wie gesagt. Mit DLSS lässt sich wenn nötig nahezu beliebig viel Performance generieren bei mittlerweile immer geringeren Qualitätsverlusten selbst im Performancemodus. Ja, natürlich unterstützt nicht jedes Spiel DLSS. Aber die Anzahl hat gerade jetzt 2021 nochmal extrem zugenommen. "Gefühlt" unterstützt es mittlerweile jedes zweite Spiel, das ich kaufe.


Kurz gesagt. Upscaling Technik bleibt nach wie vor ein Fragezeichen bei AMD.

Wo ich mir wenig sorgen mache ist die Raytracing performance. AMD hat gezeigt, dass man mit den Karten auch mit RT was anfangen kann. RT wird generell immer besser optimiert und da in den Konsolen auch "nur" RDNA2 steckt und kein Nvidia Chip wird damit die Baseline eh schon fest definiert auf der man aufbauen kann. Heißt, es kann in der Hinsicht für AMD nur besser werden und der Vorsprung den Nvidia hat wird Nvidia nichts bringen, weil die bessere RT Leistung bei Nvidia aktuell nur dann in Form von mehr FPS auf die "Straße" kommt, wenn sehr viele RT Effekte parallel berechnet werden müssen. Ist die RT Last nicht sehr hoch, schrumpft der Abstand deutlich. Mal sehen, ob Nvidia da nachbessert oder ob AMD aufholen oder gar überholen kann.


Ich bin mal gespannt, was da so kommt. Ich persönlich werde aber vermutlich erst 2023 oder später wieder was kaufen zu dann hoffentlich humaneren Preisen.
 
Zuletzt bearbeitet von einem Moderator:
KurzGedacht schrieb:
Du möchtest also keinesfalls einen Regler einen Zentimeter nach links schieben.... Verstehe ich total. Ist ja auch krass viel verlangt.
Es gibt Leute, die noch nicht einmal das Wissen haben und daher nicht profitieren können. Ich schraube beim Auto auch nicht die letzte Schraube fest oder verändere etwas per Software, damit es besser läuft.
 
Ich mag effizienz, aber ob ich mehr Leistung brauche, muss mir erst ein neues Spiel, welches mich interessiert, zeigen (Stalker wäre ein Kandidat^^).
Tendenziell AMD, denn Nvidia ist äußerset unsympatisch mit GPP und vielen weiteren Aktionen. Am Ende zählt aber die Leistung und Verbrauch (und VRAM)
 
RDNA 3 wird symbolisch die Hütte abfackeln, während Lovelace es tatsächlich tut, um bei den Benchmarks weiterhin vorne sein, was den Fanboy aber nicht kümmern wird.
Knochen werf, im Teesatz les und die Fischeingeweide durchstöber
 
KurzGedacht schrieb:
Verstehe ich nicht. Eigentlich sollte das genaue Gegenteil der Fall sein.
Ein Multi Chip Konzept bedeutet weniger Fläche pro Chip und damit bessere Ausbeute und eine insgesamt höhere Produktion. Warum glaubst dass es andersherum ist?

Die Ausbeute wird kaum eine Rolle spielen. Die ist bei TSMC in den letzten Jahren offenbar sehr gut gewesen und 5nm wird dank Vorlauf schon recht ausgereift sein, wenn nVidia und AMD mit ihren GPUs kommen.

AMD wird im MCM-Setup drei relativ große Chips auf die Karte "löten" müssen. Ich zweifle stark daran, dass bei drei Chips insgesamt weniger Wafer/Silizium als für einen monolithischen Lovelace GL-102 drauf geht, sondern mit hoher Wahrscheinlichkeit signifikant mehr (auch wegen des unvermeidlichen Verschnitts).

Die Kunden buchen bei TSMC Kontingente in Wafern. Daher wird AMD hier mMn einen wirtschaftlichen Nachteil haben, da sie sich hinsichtlich ihrer ohnehin schon knappen Kontingente (dank Embedded/SoCs, CPUs, GPUs usw.) noch mehr Gedanken über eine sinnvolle Priorisierung werden machen müssen.
nVidia werden sich "nur" mit GH-100 und GL-102 (und eventuell GH-104, es sei denn die kleineren Chips gehen an Samsung) auseinandersetzen müssen. Nur GH-100 wird wohl ein MCM-Setup und GL-102 ein Monolith. Relativ easy und übersichtlich für nVidia.

Jetzt mal bei AMD ganz abgesehen davon, dass multiple Chips aus verschiedenen Fertigungsstufen (5nm und 6nm) sicherlich noch einige besondere Anforderungen an das Packaging, an die verbindenden Materialien und die Assemblierung stellen werden. Kostengünstig wird das im AMD-Lager alles ganz sicher nicht...
 
Zurück
Oben