News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

Mir ist es egal wer gewinnt. Ich kauf mir das was die passende Leistung, die ich benötige, hat.
Meine PCs der letzten Jahre sehen ungefähr so aus
Intel CPU / AMD GPU
AMD CPU / AMD GPU
AMD CPU / Nivdia GPU

Ich wünsche mir eine GPU mit der aktuellen Leistung die nur 10 Watt unter maximal Last benötigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75 und Onkel Föhn
AMD und Nvidia werden am Ende voraussichtlich wieder gleichauf liegen
Hier meine fundierte Begründung: Darum. 🤓

Der eine wird Games X, der andere bei Games Y etwas die Nase vorn haben. Ansonsten werden die unter'm Strich gleichauf sein.
 
Ich habe für AMD gestimmt. Denke aber sie werden sich die Krone gegenseitig polieren. Frohen 3ten Adventr allseits!
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Naja die zwei geben sich nicht viel, wenn einer eine gute GPU veröffentlicht, frickelt der andere wieder so oft an Takt und TDP rum bis Gleichstand herrscht.

Von daher erwarte ich eig. immer fast gleichstand, was die Leistung angeht. Man muss sich dann nur für ein Paket entscheiden, guter Chip oder die Brechstange ^^

Die Leistungskrone, ist dabei ja auch nicht mehr eindeutig, Raster liegt aktuell AMD besser und RT Nvidia. Hier bin ich auf die generelle Entwicklung gespannt.
 
  • Gefällt mir
Reaktionen: Zitterrochen, Onkel Föhn und Mulciber
Woher soll man jetzt schon wissen, wer das Rennen macht. Wäre schön, es wäre dann zu vernünftigen Preisen auch kaufbar - egal von wem.
Aber was ich interessant finde, sind die zwei verschiedenen Ansätze, die die Hersteller wählen ihre Projekte zu realisieren. Das ist TDP der neuen Generation weniger wird ist wohl kaum anzunehmen.
 
Ich denke es gewinnt der, der die massiven Shadermengen auslasten kann. Beide stoßen in Bereiche vor, die Unmengen größer sind als zuvor, dabei wird die jetzige Generation von Nvidias Karten mit den sehr vielen Shadern schon nur in UHD richtig ausgelastet. Wenn beide die Auslastung gut hinkriegen, kann AMD in der Effizienz vorne liegen.

Wenn die Zusammenfassung von 2 CUs in eine Workgroup besser klappt als bisher, wird es richtig spannend. Dann könnten 2 CUs an einer Aufgabe arbeiten, vielleicht eine fürs Shading und eine fürs Raytracing. Das könnte den notwendigen Sprung bringen.

Ich plane fest damit, nächste Generation aufzurüsten. Die Vega64-Leistung, die ich momentan habe, kann ich jetzt schon verdoppeln. Nächstes Mal dann vielleicht sogar vervierfachen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ja mal gucken. Laut aktuellen Leaks liegen beide ja wieder dicht beisammen. Bei AMD wird es spannend, wie gut das MCM Design funktioniert. Damit kommen natürlich latenzen und die richtige Auslastung wird auch ein Thema.

Wenn AMD aber keine DLSS Alternative anbietet, wird Nvidia in vielen Titeln weiter die Nase vorne haben. DLSS funktioniert mittlerweile sehr gut und ist früher oder später meistens Bestandteil anspruchsvoller Tripple A Spiele. Vielleicht kann XeSS ja hier eine wirkliche Alternative sein.

Persönlich ist mir egal, wer die schnellste Karte bringt. Ich kaufe die die das beste Gesamtpaket abliefert. Themen wie Raytracing Leistung und Bildrekonstruktion spielen dabei aber eine größere Rolle, als bei der letzten. Mittlerweile sind wir an dem Punkt, dass viele Neuerscheinungen Raytracing beinhalten. Aber da bin ich guter Dinge, dass sich AMD und Nvidia in Zukunft nicht viel nehmen werden. Bei der Bildrekonstruktion muss man mal schauen. Da ist DLSS bisher unangefochten die 1. vielleicht gelingt AMD aber mit FSR ja noch ein guter Sprung oder XeSS schlägt gut ein. Mal gucken.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Trimipramin schrieb:
...dann stets Schadensbegrenzung betrieben.
Guck mal unter Grafikkarten und Garantie hier auf cb, andere Hersteller sind da auch flexibel;)

Trimipramin schrieb:
Und nicht das ich es beurteilen könnte, aber hier und da liest man immer noch von einem nicht so prallen Zusammenspiel von AMD-Treibern und dem OS. Ob was dran ist, vermag ich aber nicht zu beurteilen.
Nein, ist nichts dran. Die meisten treiberprobleme entstehen durch ungünstige Konstellationen, welche es bei beiden gibt.

Sollte nextgen wieder so gut zum minen sein und Mining generell so profitabel das es sich gar im Hochstrompreisland Deutschland lohnt, werden wir 1:1 die Situation von heute haben😒
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Daniel D. schrieb:
Solange der Stromverbrauch nicht ungefähr gleich der Pascal-Ära ist, kaufe ich keine neue High-End Karte.
Die User wollen Leistung dann bekommen die auch Leistung und dieser wird nun mal durch die Leistungsaufnahme erkauft. Da wird sich in nächster Zeit mit Sicherheit nicht so schnell was ändern.
 
  • Gefällt mir
Reaktionen: Zarlak und t3chn0
Ich habe für RDNA3 gestimmt.

In der letzten Generation hat Nvidia im Consumermarkt den Vollausbau erst sehr spät gebracht. In der kommenden Generation setzen beide auf eine neue Architektur. Das monolithische Design ist zwar noch nicht am Ende, aber AMD kann prinzipiell auf die doppelte Chipfläche zurückgreifen durch ihre zwei Chips. AMD wird diese Möglichkeit nutzen um die prestigeträchtige Leistungskrone zu sichern.

Geht es um Raytracing-Leistung bleibt Nvidia aber vermutlich noch vorne. Die Hersteller sind aktuell zu nah beieinander, dass AMD diesen Rückstand ausgleichen kann.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Vitali.Metzger schrieb:
Die User wollen Leistung dann bekommen die auch Leistung und dieser wird nun mal durch die Leistungsaufnahme erkauft. Da wird sich in nächster Zeit mit Sicherheit nicht so schnell was ändern.
Daniel D. schrieb:
Solange der Stromverbrauch nicht ungefähr gleich der Pascal-Ära ist, kaufe ich keine neue High-End Karte.

Gibt es schon längst.
Eine 1080ti hat eine Leistungsaufnahme von 250Watt.Bei Gaming 230W->240W.Viele RDNA2 haben ab Werk weniger und selbst 6800xt sowie 6900xt incl. kann man dahingehend locker trimmen bei bis zu 80% Mehrleistung in 1440p und >100% bei UHD.Einfach mal besser informieren.
 
  • Gefällt mir
Reaktionen: Strubbel99 und Zarlak
Tornavida schrieb:
Gibt es schon längst.
Eine 1080ti hat eine Leistungsaufnahme von 250Watt.Bei Gaming 230W->240W.Viele RDNA2 haben ab Werk weniger und selbst 6800xt sowie 6900xt incl. kann man dahingehend locker trimmen bei bis zu 80% Mehrleistung in 1440p und >100% bei UHD.Einfach mal besser informieren.
High-End out of the box? Bekommt man nicht für 250W. Auch wenn ich könnte und darüber mehr als genug gelesen habe, möchte ich das nicht selbst machen müssen. Dafür zahle ich viel Geld an die Firmen, sollen die doch optimieren.
 
Ich glaube es wird wieder ein Kopf an Kopf Rennen werden. Ich lasse mich (positiv) überraschen. Für mich zählt jedoch überwiegend die Leistung im produktiven Umfeld, da liefert mir AMD einfach keinen Grund um umzusteigen, denn bis Stand heute, würde ich mich Performance technisch, immer signifikant verschlechtern.
 
Bin mit aktueller Generation zum UVP versorgt. 3080ti, Zweitrechner 6800XT.

Entweder ich überspringe die nächste Version, oder Miner finanzieren mir wieder alles vielfach.
 
  • Gefällt mir
Reaktionen: Tornavida
Nächstes Jahr wird es "SICHER" (?!?) eine INTEL GraKa bei mir geben.
Eine "rote" oder "grüne" Karte mit 400+ Watt kommt mir NICHT in den Automat.

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Chismon und borizb
Vielen Dank an die Redaktion und @SV3N das ihr dieses Format weiter macht!!!
Da lohnt sich das CB Pro Abo gleich noch mehr! :heilig:

Mein Vote bekommt AMD, hier sehe ich deutlich mehr Potential mit dem Multi-Chip.
Aber Nvidia wird selbstverständlich ebenfalls stark abliefern.
 
  • Gefällt mir
Reaktionen: Orok91, Onkel Föhn und SVΞN
fundierte Begründung
Im Computerbase Forum? Bei einer Frage AMD vs. egal was? Den Optimismus hätte ich gern.

Ich begründe aber gerne: Alle Titel, bei denen DLSS und / oder RTX unterstützt wird, werden
weiterhin auf Nvidia Karten schneller/hübscher sein, also etwa 2/3 der neuen 2-3x A Titel.
Nvidia wird softwareseiteig mehr für einfachere Implementierung seiner Killerfeatures tun, wo-
durch sie das weiter forcieren. AMD wird weiterhin überproportional von auf AMD optimierten Konsolenports/Multiplattformtiteln profitieren, vor allem bei den üblichen Ubisoftverdächtigen.
Das Featureset wird immer wichtiger, die Rohleistung eher nicht, da sehe ich den Trend.

Letztendlich wirds egal sein wer besser ist, weil beides trotzdem immer ausverkauft seind wird.
Ich bleib bei der Switch mit ihren 20Watt Systemverbrauch. Besser für Umwelt und Geldbeutel,
jetzt wo alles dauernd teurer wird :)
 
  • Gefällt mir
Reaktionen: Ardan Redburn, Onkel Föhn und feris
beide werden auf demselben niveau landen da ad106 vs n33 wird wobei amd klar die P/L gewinnen wird

Warum nun mcm ist zu teuer min müsste amd n31 oder n32 dann bei 2099-2199€ liegen
Und viel abspecken geht nicht auch wenn man 2 bis 4 wgp pro gcd deaktiviert muss man min zur hälfte eines gcd den preis beibehalten
somit sind dann 2199€ 1599€ 1099€ nötig
als rx7900xt rx7800xt rx7800
Während nvidia locker das unterbieten könnte
high end ad104 und 120 100 und mit ad106 80sm 72 60sm
1399€ 999€ 699€ 599€
rtx4090 rtx4080ti rtx4080 rtx4070
Die andere lösung wäre dann nvidia 999€ ad106 vs a,md n33 899€
beide etwa +35-40%
Da die refresh ampere 6nm tsmc und amd rdna2 6nm bestätigt sind.

Der n33 chip hat 256bit
n31 hat je gcd ein Si von 256bit in summe dann 512bit
und ja n33 und n31 sind vom Grund auf unterschiedlich
n33 40wgp in einen wpc mal zwei (ein wgp=64shader)
In n32 n31 sind es 20wgp in einen wpc mal zwei oder drei (ein wgp=128shader)

Zumal das cpu limit definitiv zum Problem wird
 
Philste schrieb:
mit nem Monolithen kann man einfach nicht mit extrem breiten Chiplet Designs
Richtig, aber ein großes Problem müssen die Chiplets überwinden: Latenz. Jegliche Designs mit Interconnects zwischen zwei Dies haben viel mehr Latenz als Monolithen. Und gerade bei sowas wie GPUs ist Latenz wichtig.

Ich kann mir gut vorstellen, dass die Chiplet Designs bei 4K und darüber gut abschneiden (weil mehr parallel verteilbare Berechnung), aber sobald es an high refresh rate geht, werden sie viel Effizienz einbüßen.

Ähnlich Ryzen Chiplets. Die skalieren sehr gut in die Breite, aber weniger gut in die "Höhe".
 
  • Gefällt mir
Reaktionen: feris
Zurück
Oben