News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

t3chn0 schrieb:
hoffe das AMD etwas vergleichbares zu Shadow Play implementieren wird, auch mit einem nativen Encoder wie nvenc
Gibts doch schon seit Jahren, oder denk ich an was anderes? Die Qualität des AMD Encoders kommt nur noch nicht an Nvenc ran.
Ergänzung ()

PeriQue1337 schrieb:
Nvidia wird wie immer die besseren Karten anbieten und sie werden Marktführer bleiben.
Wie immer? nvidia hat schon einige Male tief ins Klo gegriffen. Sogar objektiv betrachtet.
 
Ich glaube an AMD. Die haben mit der letzten Generation sine super Aufholjagd hingelegt, sind in einigen Spielen schon vorne, und werden das mit der nächsten weiter ausbauen.

Soll nVidia mal in geringerer Auflösung rendern um das Leistungsdefizit auszugleichen, ich bleibe lieber bei der nativen Auflösung.

Ich freue mich auf die kommen Karten und werde mir ein Budget bereitlegen. Wenn es 1500€ sein müssen werden es 1500€ sein. Aber für ne alte Karte werde ich das jetzt nicht mehr hinlegen.

Schade drum, eine ganze Generation die man nie in die Hände gekriegt hat.
 
MasterAK schrieb:
Ich kann die Spannung max. auf 1,15V absenken, ohne dass sie abstürzt. Damit hab ich ne Gurke erwischt.
Jein. Wie viel Spannung legt deine Karte tatsächlich an? Die 1150mV im Treiber sind da nur Richtwert. Je nach Min/Max Frequenz Target und Power Limit liegt aber eine ganz andere Spannung an.

Ich bekomme zB bei eingestellten 2400MHz Max und 1150mV in Spielen tatsächlich anliegende ~2360MHz und 1020mV.
 
MasterAK schrieb:
Nennt sich Streuung der Chipgüte.
Meine 6900XT läuft out of the Box mit 1,175V. Ich kann die Spannung max. auf 1,15V absenken, ohne dass sie abstürzt. Damit hab ich ne Gurke erwischt. Aber sie läuft unter den angegebenen Specs.
Meine RTX3090 läuft mit 0.9Volt die original Taktraten bei unter 300Watt
WARUM zu Teufel muss dann die GPU 1,0625Volt bekommen vom Werk aus und rennt immer ins Powerlimit ?
Die 0,9Volt sich sogar mit Reserve . 0,863 Volt reichen auch für 1900Mhz
 
AMD oder Nvidia, wer wird die schnellste Next-Gen-GPU liefern?
Mir egal, es kommt mir eher auf das "liefern" an und das kann wohl auf absehbarer Zeit keiner so richtig.
Zuletzt der OC Test der Topmodelle hat ja durchaus gezeigt, dass beide, jedenfalls für mich, auf Augenhöhe sind. Wenn das so bleibt und im Mittelfeld auch noch Intel mitspielen wird ist das sicher für alle gut.
 
Berserkervmax schrieb:
WARUM zu Teufel muss dann die GPU 1,0625Volt bekommen vom Werk aus und rennt immer ins Powerlimit ?
Chipgüte und Stabilität. Dein Setting ist nicht für jede Applikation und jeden Chip validiert. Es muss auch eine Krüppel 3090 in der härtesten Anwendung stabil arbeiten.
 
Daniel D. schrieb:
Es gibt Leute, die noch nicht einmal das Wissen haben und daher nicht profitieren können. Ich schraube beim Auto auch nicht die letzte Schraube fest oder verändere etwas per Software, damit es besser läuft.
Najaaa. Der Vergleich hinkt.
Du gehst beim Auto sehr wohl hin und drehst das Radio leiser und lauter oder die Lüftung auf.
Der Grafikkarte zu sagen dass sie näher am Sweet Spot laufen soll ist auch nicht komplexer, zumal es dafür inzwischen One Click Presets in der Treibersoftware gibt.

Mir wäre es aber tatsächlich auch lieber, wenn die Default Settings etwas ausgewogener wären was den Stromverbrauch angeht. Da ist halt der aktuelle Konkurrenzkampf dran schuld.
Ne 3080 mit 5-10% weniger Takt und dafür 25% weniger Stromverbrauch bei default settings wäre klar die bessere Karte gewesen, aber dann hätte Nvidia nicht mehr behaupten können die schnellste Karte in dem Preissegment zu haben.
Ergänzung ()

RogueSix schrieb:
Die Ausbeute wird kaum eine Rolle spielen. Die ist bei TSMC in den letzten Jahren offenbar sehr gut gewesen und 5nm wird dank Vorlauf schon recht ausgereift sein, wenn nVidia und AMD mit ihren GPUs kommen.

AMD wird im MCM-Setup drei relativ große Chips auf die Karte "löten" müssen.
Nein und Nein.
Die TSMC Fertigung ist gut, aber das ändern nichts daran das mit größeren Chips die Menge der unbrauchbaren Chips überproportional steigt.
Ein System das auf mehrere kleine Chips setzt ist damit - wenn die anderen Parameter gleich sind - also immer billiger als ein großer Monolith.

AMD macht das MCM Konzept ja genau um die Leistung erhöhen zu können und ohne absurd riesige und damit teure Chips bauen zu müssen.
Deine Annahme, das es genau das Gegenteil bewirken wird, erscheint mir also irgendwie abwegig.
 
  • Gefällt mir
Reaktionen: Colindo
Syrato schrieb:
Ja, man hat es 2017 in der Schublade gesehen!.... Zuerst muss Intel liefern!

Intel Produziert soweit ich weis die Chips selbst. Die müssen sich nicht mit Apple und Co um Produktionskapazitäten bei Tsmc prügeln. Finde das ist heutzutage ein enormer Vorteil. Im wie weit die Intelkarte liefern werden in Punkt Leistung werden wir sehen. Zumindest sehe ich im Low/Mid Intel kommen.
 
KurzGedacht schrieb:
Witzbold.
Die Leistung ist insbesondere für High Quality VR Gaming viel zu gering.
Selbst nen Dual 3090 Setup reicht aktuell kaum um >4k pro Auge vernünftig umzusetzen und eigentlich braucht man noch ne ganze Ecke mehr um tatsächlich Bilder zu erzeugen, die einigermaßen realitätsnah sind.
Ich finde es ja auch spannend die Limits weiter nach oben zu schrauben, ich glaube aber das der Schlüssel hier in der Effizienz liegt.
Es bringt ja nichts, wenn Grafikkarten irgendwann die Größe haben von MIDI Towern, jetzt mal übertrieben gesagt, sondern, wenn du quasi Strom und Verbrauch und Größe bei jeder Generation um 10-20% senkst, dann trotzdem 10-20% durch intelligente innovative Mechanismen dazu gewinnst, dann hast du am Ende 20-40% mehr Leistung bei derselben Größe, Abwärme und Verbrauch für ein Topmodell.

Derzeit sehe ich aber bei beiden immer nur „mehr und größer“ , ohne richtig innovativ zu sein.

Zudem musst du zugeben, dass dein Case schon sehr Nische ist oder?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666
HanneloreHorst schrieb:
Zudem musst du zugeben, dass dein Case schon sehr Nische ist oder?
Ich hab nicht behauptet, dass es keine Nische ist. Ich glaube nur nicht, dass es ne Nische bleiben wird.
Und wenn es aus der Nische mal raus soll brauchen wir nun mal mehr Leistung zu geringeren Preisen.

ich hab nur behauptet, dass die Haltung "mehr Leistung brauchen wir eh nicht, die sollen sich mal auf Effizienz konzentrieren" Unsinn ist.

Mal abgesehen davon gibt es ja noch etliche andere Bereiche in denen die Leistung bei weitem nicht reicht. Allein Raytracing ist ja nach wie vor mehr ein Proof of Concept als durchgängig nutzbar und wird bisher auch in nahezu allen Spielen aus Leistungsmangel nur teilweise implementiert.
 
RDNA3

Warum?
Hier ist ein Leistungssprung zu erwarten der ähnlich dem Sprung von Zen1 auf Zen4 entspricht.
Und selbst wenn es nicht so krass werden sollte wie erwatet (Gerüchten zufolge soll es onCPU-Grafikchips von AMD geben, die auf dem Niveau einer GF 1650 Ti liegen), so würde ich trotzdem in jedem Fall AMD nehmen, weil hier die Linux-Unterstützung wesentlich besser ist. Wo nvidia nur closedSource anbietet, hat AMD seine offenen Treiber sogar im Linux-Kernel verankert, eine bessere Integration gibt es nicht.

AMD hat sich in den letzten Jahren auf CPUs konzentriert und die GFKs eher so dahin plätschern lassen... dass will man jetzt ändern. Das AMD krasse Leistungs/Effizienz-Steigerungen vermag, haben sie in den letzten 5 Jahren eindrucksvoll unter Beweis gestellt.
 
KurzGedacht schrieb:
Ein System das auf mehrere kleine Chips setzt ist damit - wenn die anderen Parameter gleich sind - also immer billiger als ein großer Monolith.

Billiger mag sein, aber es geht doch effektiv pro MCM-Paket mehr Wafer drauf oder nicht? Also Fläche in Quadratmillimetern. Ich glaube nicht, dass die drei Chips von AMD weniger Wafer verbraten als der Monolith von nVidia, selbst wenn man einrechnet, dass etwas mehr Monolithe Fritte gehen als die MCMs.
Wie winzig klein sollen die Chips von AMD denn werden und wo soll die Leistung herkommen? Das werden im HighEnd schon drei nicht mehr ganz so winzige Chips sein können/müssen, wenn man auf nVidia Niveau mitturnen will.

Da also aus einem Wafer für eine HighEnd Endkunden-GPU bei AMD mehr "ausgeschnitten" werden muss (plus mehr Verschnitt durch mehr Chips) als bei nVidia, glaube ich, dass AMD bei ohnehin schon begrenzten Kapazitäten an Wafern schneller in Probleme mit der Lieferbarkeit/Verfügbarkeit geraten werden als nVidia, weil AMD ja eben auch noch ordentlich jonglieren müssen zwischen ihren Produkten. Das war das, was ich gemeint hatte.
 
Irgendwie kann ich die kolportierten Daten von Nvidias Lovelace noch nicht so recht glauben. Dann würden sie ja "nur" ~Faktor 1,8 zulegen, was gegen AMDs Big Navi (Faktor 3) ziemlich schwach aussehen würde.
Wie stark skalieren die Fertigungen von Samsung 8 zu TSMC N5? Letzte Woche stand mal Faktor 2,8 im Raum? Dann wären bei NV auch ähnliche Einheitensprünge wie bei N3 möglich. Nur eben mit mehr Ausschuss und vermutlich mehr Energieverbrauch u.a. wg. dem Speicherinterface.
Wenn es so bliebe wie von @SV3N im Text beschrieben würde AMD mit Nvidia, zumindest was Rasterleistung angeht, den Boden wischen.
Kann ich mir irgendwie noch nicht so recht vorstellen.
Was ich mir aber durchaus vorstellen kann ist, das AMD dort durchaus Vorteile haben kann.

Was RT angeht, braucht man ja nur auf CDNA2 und die dortigen Matrixeinheiten zu blicken. Dann kann man schon erkennen, dass das für Nvidia diesmal kein Selbstläufer wird. Die Unbekannte ist halt ob AMD diese Ausbaustufe bei N3 übernehmen wird oder schon eine Weiterentwicklung stattfindet.
Egal welches Problem N3 haben wird, RT wird es eher nicht sein.

Die Unkenrufe wg dem DLSS Äquivalent kann ich nicht teilen. Letztes Frühjahr war doch schon die Rede davon, das irgendwann Anfang 2022 da etwas kommt.
Dürfte dann wohl die CES werden. Was sollten sie denn sonst dort groß ankündigen? Die 6500 / 6400?
Und "nur" für die neue APU so einen Aufriss? Das müsste schon ein vergleichsweiser Brummer mit Grafikniveau ~ GTX 1650 werden. Was ja auch durchaus nicht ganz unmöglich ist.
Ergänzung ()

Wo ich Probleme sehe, sind AMD´s Treiber.
Die sollten sich mal mehr auf Übersichtlichkeit, Stabilität und Fehlerarmut konzentrieren und nicht ob ich Gegner mit 100 oder 105 Frames die Sek. niedermetzeln kann.
 
Zuletzt bearbeitet: (Korrigiert)
  • Gefällt mir
Reaktionen: Colindo
@derbe intel wird ihre GPUs bei TSMC fertig lassen.
 
  • Gefällt mir
Reaktionen: Colindo
Ich warte ab aber aktuell langt meine M1 Max SoC für meine Bedürfnisse.
 
  • Gefällt mir
Reaktionen: SVΞN
Ist immer die Frage um welche Leistung es geht. Bei RT sehe ich NV weiterhin vorne, ohne RT wird denke ich AMD das Rennen machen.
DLSS 3 wird wohl auch nochmals ein großen Unterschied machen.

Am Ende wird aber das gekauft was verfügbar ist.
 
Wenn die Entwicklung so weiter geht, werden die Grafikkarten wieder direkt mit externem Netzteil versorgt 😂
Ich komm aber nicht mehr drauf, welche Graka das damals war🤔

Jeder Hersteller hat einen ganz eigenen Ansatz - es wird spannend, welche Architektur die „bessere“ sein wird. Mittelfristig werden alle Architekturen keine Zukunft haben, da viel zu ineffizient.

Apple hat ja schon die Möglichkeiten gezeigt.
 
RogueSix schrieb:
Billiger mag sein, aber es geht doch effektiv pro MCM-Paket mehr Wafer drauf oder nicht? Also Fläche in Quadratmillimetern.
Kaum.
Es wird vermutlich minimal mehr Fläche benötigt, da ein bisschen Technik hinzukommt die die Kommunikation zwischen den Chips abwickelt.
Nehmen wir mal an es sind +20% (was extrem viel wäre, unter 10% sind deutlich realistischer. Aber es kann gut sein, dass AMD mehr Cache Fläche benötigt um Nachteile des MCM Konzepts auszugleichen, also nehmen wir +20%). AMD verbaut 3x 200mm² Chips und Nvidia 1x500mm², dann sind die 3x200mm² höchstwahrscheinlich billiger in der Produktion als 1x500mm².
Aus zwei Gründen. Erstens passen viel mehr 200er Chips auf einen Wafer und damit ist der "Abfall" am Rand viel geringer und zweitens hast du anteilsmäßig viel weniger komplett defekte Chips.
Hinzu kommen indirekte Kosteneinsparungen weil man viel weniger unterschiedliche Chips bauen muss und je nach Bedarf immer die gleichen Chips für die unterschiedlichen Produkte zusammenklebt.

Schau dir einfach an was Amd im CPU Bereich macht und was Intel tut.
Die Zen2 und Zen3 CCDs decken nahezu alles ab. Vom kleinen 6-Kerner bis zum großen 64er ist das einfach alles das Gleiche. Das spart enorm viel Kosten. Intel hingegen produziert dutzende unterschiedliche Chips in diversen Größen.
Einzig die monolithischen AMD Mobil APUs und die Desktop Versionen davon sind nochmal eigene Chips....
 
PeriQue1337 schrieb:
Nvidia wird wie immer die besseren Karten anbieten
Hatte 14 Jahre nur grüne Karten in meiner Box und mit der 6900xt habe ich jetzt das erste mal eine rote Karte. Und was soll ich sagen nach einen 3/4 Jahr? Sie hat mich voll überzeugt und bei den Treibern hat AMD auch ordentlich nachgelegt.
In diesen Punkt wenn immer alle mit dem Finger auf AMD zeigen, verstehe ich nicht, schlechte Treiber kann auch durchaus NVIDIA.
 
  • Gefällt mir
Reaktionen: MadMaxx87, Konr4dZus3, Snoop7676 und eine weitere Person
Zurück
Oben