News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

LamaMitHut schrieb:
Beide werden mindestens 100% mehr Leistung bieten, also ungefähr 3090 = 4070.

Das wird bestimmt lustig, ich denke die Preise der Vorgänger wird von jetzt auf gleich unter dem angepeilten UVP fallen.
Da bin ich auch mal gespannt. Bis jetzt war es aber immer so aus 2080TI wurde 3070.

Bei der nächsten Gen wird aber aus 5120 Alus 15000 Alus also 3 mal soviel bums.

Dann müsste die neue 7900XT 200% schneller sein wie eine jetzige 6900XT.
Wenn die dann wieder für 999$ zu haben sein wird hätten sie mich als Käufer verloren.
 
  • Gefällt mir
Reaktionen: LukS, Forum-Fraggle, Otsy und 2 andere
Viel interessanter als Nvidia vs. AMD ist die Frage nach der Leistungsaufnahme. Wenn die Karten wirklich in Regionen von 500-600 Watt vordringen bin ich raus, das ist nur noch krank und eine abartige Heizung. Meine auf 330W begrenzte 3090 heizt schon viel zu viel im Sommer, sodass ich mir das Zocken in der warmen Jahreszeit verkneife.
 
Daniel D. schrieb:
Solange der Stromverbrauch nicht ungefähr gleich der Pascal-Ära ist, kaufe ich keine neue High-End Karte.

Daniel D. schrieb:
High-End out of the box? Bekommt man nicht für 250W. Auch wenn ich könnte und darüber mehr als genug gelesen habe, möchte ich das nicht selbst machen müssen. Dafür zahle ich viel Geld an die Firmen, sollen die doch optimieren.
Was genau ist jetzt so schwer daran ein Powertarget selbst zu setzten mittels Schieberegler? Oder noch besser zusätzlich einen FPS Limiter zu aktivieren? Ist beides bei beiden Herstellern ganz einfach im Treiber implementiert. Man kann sich aber auch anstellen...
 
Puuh da bin ich gespannt, wenn es so weiter geht denke ich das die relativ gleich aufliegen werden von der Leistung, ich hoffe allerdings das die nächste Generation wieder etwas sparrsamer zu gange geht, und es nicht immer mehr wird.

Das größere Problem für den Gemeinen PC-Bauer wird sein, Verfügbarbarkeit bei halbwegs normalem Preis.
 
Ich glaube die werden sich wenig nehmen. Solange die Preise so hoch sind kommt für mich ein Kauf eh nicht in Frage. Dann müssen meine alten R9 290X und GTX980 noch die Zeit überbrücken.
 
Egal wer, ich würde mir aber von beiden wünschen es gäbe einen "Mining Workload Lock", sonst sitze ich ende 2022 immer noch auf meiner 1080.
 
Powl_0 schrieb:
Gibts doch schon seit Jahren, oder denk ich an was anderes? Die Qualität des AMD Encoders kommt nur noch nicht an Nvenc ran.
Ergänzung ()


Wie immer? nvidia hat schon einige Male tief ins Klo gegriffen. Sogar objektiv betrachtet.
Aber genau das meine ich =). Die Qualität der ShadowPlay Aufnahmen ist fantastisch. Der NVENC Encoder arbeitet doch über die Tensor Cores. Somit verliert man bei Aufnahmen nahezu keine Performance.

Bei AMD ist das an der Stelle noch relativ veraltet. Dort hat man zwar über das Treiber Menü Ähnliche Aufnahme Möglichkeiten, die Technik dahinter ist aber ein klassischer Software Encoder der Performance kostet bei deutlich schlechterer Qualität.
 
Mir fehlt in der Umfrage die Auswahl "Ist mir egal, ich kann mir bei den Wucherpreisen eh keine der Karten mehr leisten."
 
  • Gefällt mir
Reaktionen: halbtuer2
DBJ schrieb:
Lasst den Fanboy-Krieg in den Kommentaren beginnen!

Nvidia > Amd
Weißt du, wa
DBJ schrieb:
Lasst den Fanboy-Krieg in den Kommentaren beginnen!

Nvidia > Amd
Der erste Kommentar gleich so ein Schrott- Kommentar.
Um ehrlich zu sein: ich hatte schon beide Systeme verbaut, ich habe mal da gekauft, wo ich das beste
Preis- Lsistungs- Verhältnis gesehen habe.
Das ist ja in letzter Zeit nicht wirklich mehr gegeben, deshalb interessiere ich mich zur Zeit auch weniger
für Neuerscheinungen, die so gut wie unbezahlbar sind

Zur Zeit werkelt noch eine 1070ti in meinem Rechner, hoffentlich noch eine ganze Zeit lang.
Ich habe jetzt nicht mehr wirklich genau im Kopf, welches das vergleichbare Equivalent seitens AMD zur 1070ti ist, aber ich glaube, die Vega waren es?
Egal, für Nvidia hab ich mich damals entschieden, weil de AMD- Karten damals bei vergleichbarer Leistung mehr Strom verbraucht haben.
Wenn das Pendel wieder schwingt, kein Problem, ich könnte mir dann auch irgendwann mal wieder eine Karte von AMD kaufen.

Und nur am Rande, ich bin kein Fanboy, aber es gibt da eine Marke mit einem angebissenem Obst, daß
meide ich wie der Teufel das Weihwasser, nicht als Fanboy, sondern aus Prinzip, egal wie gut diese Geräte auch sind.
 
  • Gefällt mir
Reaktionen: Forum-Fraggle
Rein technisch bin ich gespannt wie gut das mit MCM funktionieren wird - nicht, dass anfangs Problemchen wie bei SLI bzw. CrossFire auftauchen.
Auch Nvidia wird sich damit auseinander setzen müssen wenn auch (zumindest öffentlich) etwas später.

Kleinere Chips sind sicher einfacher zu fertigen, die Datenaufbereitung wird aber nicht einfacher und für uns ist nur wichtig was auf dem Bildschirm ankommt und dann natürlich zu welchem Preis.
 
Tornavida schrieb:
Ich erreiche mit meiner 6900xt bei einem PL von 250Watt mehr Performance als eine 3090 stock;
genau das tust du eben nicht. Du gehst nur vom spielen aus. Schau mal in professionelle Anwendungen (GPU Rendering). Und schon hat AMD neben viel weniger Leistung und weniger Speicher absolut nichts mehr zu melden
 
Das ist mir alles zu hypothetisch und eher belustigend wie sich Leute ständig deswegen in die Haare kriegen. Halte ich mich raus, ich kauf das für mich jeweils aktuell Beste. Spielt das eine Rolle welches Logo da drauf klebt?
Viel wichtiger ist doch, dass man überhaupt Karten kaufen kann und das zu realistischen Preisen! Und wenn es geht auch mit vernünftigem Stromverbrauch.
 
  • Gefällt mir
Reaktionen: PeriQue1337
Ob und wer von beiden wer führt ist mir eigentlich egal, bin aber seit fast 20 Jahren AMD (damals ATi) treu, besonders da diese eher auf Open Source statt auf proprietären Kram setzen und die Karten nachweisbar besser reifen denn NV und meist großzügiger mit VRAM ausgestattet sind, der Preis spielt auch eine (kleine) Rolle.
Meine teuerste Karte ever war knapp 300€, wer bis zu diesem Preis das beste Gesamtpaket abliefert kriegt den Zuschlag!
 
Wer von beiden die bessere Karte machen wird ist mir egal. Markenfanboy sein ist rotzdumm. Ich kauf von dem der mir das bessere Gesamtpaket liefert.

Mehr als einfach nur ein stures "mehr Leistung!" würde mich ja diesmal reizen wenn die Verbrauchswerte mal wieder deutlich sinken würden. Wäre für mich auch OK wenn dies bedeuten würde dass die kommende Generation lediglich genauso leistungsstark wäre wie die vorangegangene.

Edit: Ach ja, und bitte diesmal von Anfang an die Karten als Miningkrüppel konzipieren.
 
Vermutlich Nvidia mit der Ober Brechstange die schnellste Graka stellen wie jetzt auch, ansonsten dürften beide Hersteller wie immer je nach Game zusammenliegen.
Man sieht aber deutlich das AMD noch bei der RT Leistung was aufzuholen hat(falls RT für einen Käufer wichtig ist), als auch bei FSR nachbessern muss.
Ich denke AMD wird beim GPU-Chipletdesign so 1-2 Gens brauchen bis das optimiert ist, ähnlich wie bei Zen.

Wenn allerdings der Verbrauch, als auch der Preis dann explodiert, dürfte Intel im Mittelfeld durchaus eine alternative werden können ;).
Hätte gerne RX 6700 Leistung für 400€ .
 
t3chn0 schrieb:
Der NVENC Encoder arbeitet doch über die Tensor Cores. Somit verliert man bei Aufnahmen nahezu keine Performance.
Ne, Nvenc ist ein separater HW Encoder. Den gabs auch schon vor den Tensor Cores, mindestens seit den GTX 900ern (oder schon davor). Er wurde aber mit der Zeit verbessert, da hinkt AMD noch hinterher. Für Live Streaming auf den üblichen Plattformen reichts bei beiden.
Ergänzung ()

t3chn0 schrieb:
ist aber ein klassischer Software Encoder
Ich bin ziemlich sicher auch auf AMD ist das ein HW Encoder. Hab damit schon in OBS und Parsec rumgespielt, da war das ganze als HW Encode angezeigt.
 
  • Gefällt mir
Reaktionen: Colindo
Ja, beides sind HW Encoder und verbrauchen nur ca. 5% Leistung. Allerdings soll die Bildqualität bei AMD tatsächlich schlechter sein. Ich habe AMDs VCE in Handbrake ein paar Mal benutzt. Bei gleicher Qualität ist die Bitrate doppelt so hoch wie Software-Encoding auf der CPU. Nvenc habe ich nicht als Vergleich da. AMDs Lösung reicht mir als Alternative zur CPU aber völlig. Besser wäre natürlich immer gut.
 
Zurück
Oben