Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia vs. AMD: Wie steht ihr zum Start von GeForce RTX 4000 und Radeon RX 7000?
RT ist doch nur der Bonus von NVIDIA-Karten. NVIDIA ist:
- Besser fürs streamen weil av1 noch nicht wirklich unterstützt wird.
- Besser in den meisten Programmen: Blender, Davinci Resolve, usw.
- Effizienter
- Hat stabilere Treiber
- Hat DLSS und FSR ist auch möglich
Im Highend-Bereich hat NVIDIA einfach das bessere Produkt. Unter 500€ würde ich zum zocken auch AMD kaufen aber da gibts von den neuen Generationen ja erstmal eh nichts.
Definier "gut". Die GPU ist zwei Jahre alt und immer noch 700 Euro. Normalerweistet kostet das alte Eisen dann noch rund die Hälfte. Siehe AM4 CPU's. Würdest doch heute keine 450 Euro für einen 5800X und 750 Euro für einen 7700X bezahlen
Wann haben unter normalen Umständen Highend-GPUs der letzten Generation im Abverkauf die Hälfte gekostet? Meistens lagen solche Grafikkarten irgendwo zwischen 20% bis 25% unterhalb der ursprünglichen MSRP. In Zeiten, wo AMD komplett abgeschlagen war, gab es vielleicht auch mal etwas mehr Preisverfall, weil die Grafikkarten keiner haben wollte.
UVP der 6900XT = 999 Euro, im Abverkauf gab es z.B. die Asus Tuf 6900XT für 699 Euro, teilweise noch mit Cashback. Das sind 30% + nochmal Cashback.
Jetzt kann man das allgemeine absolute Preisniveau bejammern, aber gemessen an der üblichen relativen Preisentwicklung ist das ein guter Preis. Und selbst in Performance pro Euro ist die 6900XT damit noch ganz gut im Vergleich zu RDNA3.
Also bei AMD hat man sich nach der Mining-Blase wieder einer normalen Preisentwicklung angenähert, bei NVIDIA eher nicht.
Enigma schrieb:
Würdest doch heute keine 450 Euro für einen 5800X und 750 Euro für einen 7700X bezahlen
Ergibt für mich keinen Sinn außer dass es eine unnötige Neiddebatte vom Zaun bricht... Ich für meinen Teil gönn Jedem, der sich so ne 2000€ Karte in den PC steckt, auch wenn ich es selbst auch könnte, ist es mir es einfach (noch) nicht wert, für die paar Stunden, wo ich den Unterschied merke. Nur warum sollte ich das irgendwem Absprechen?
Oh glaub mir die 4090 ist nicht unerschwinglich für mich.
Ich verstehe aus Sicht der Hersteller die Marge nach oben zu treiben. Aber hier bin ich ganz Kunde und will nicht mehr bezahlen als wirklich nötig wäre. Ich gönne jedem die 4090 oder in der letzten Gen die 3090ti oder 6950xt. Das Problem an diesen 100k 4090 Käufern ist nur das die Hersteller darin bestärkt werden alle Preisklassen nach oben zu setzen.
Ich habe mir für 799€ eine RX6900XT Waterforce gekauft mit 2,6GHz stock Takt und bin zufrieden der Preis ist mir eigentlich zu hoch aber mit 16GB GDDR und der Lesitung habe ich in 1440p jetzt erst mal ein Paar Jahre ruhe. 2000€ für eine GPU zahle ich nicht, auch wenn ich es mir locker Leisten könnte, niemals!
Da hatte AMD aber einen klaren Fertigungsvorteil. Hier stand TSMC's N7-Verfahren Samsungs 8 nm-Verfahren gegenüber, das eher mit TSMC's 12 mm-Verfahren vergleichbar ist. Im selben Fertigungsverfahren wäre Nvidia eindeutig effizienter. Die Unterschiede zwischen N4 (Nvidia) und N5+N6 (AMD, Logik+Cache) sind minimal.
Also ich habe „damals“ eine 3060 Ti FE bei nbb zur UVP von 426,99€ bekommen und das hat schon geschmerzt. Da der Leistungssprung zur 2000er Serie aber sehr hoch war und man zu der Zeit eigentlich 800€ hätte hinlegen müssen, habe ich halt zugeschlagen.
Die aktuellen Preise kann man mir jedenfalls nicht mehr vermitteln. Falls dann irgendwann eine Mittelklasse erscheint, soll die dann 700€ kosten? 😅 Nein danke…
Das führt dann dazu, dass die Grafikkarten-Verkäufe corona-bereinigt seit Jahren stagnieren oder Schritt für Schritt bröckeln, während Konsolen sehr stark nachgefragt werden.
SaschaHa schrieb:
Im selben Fertigungsverfahren wäre Nvidia eindeutig effizienter.
Ich sehe mit meiner 3080 auch noch gar keinen Grund aufzurüsten...
Die neue Generation ist ja sowieso für die Tonne, zu groß, zu teuer, zu wenig benefits. Dlss und FG ist ja ne schöne Spielerei, Versuche aber eigentlich solchen kram nicht zu nutzen. Wobei ich lustigerweise kaum lohnenswerten fps boost habe mit ... Da kann ich's auch stecken lassen.
RT ist aktuell doch auch nur für Beleuchtung optimal... Sobald zu viel reflektionen dazukommen ist die Performance in meiner Auflösung (3440x1440) zumindest grottig. Watch dogs 3 und ghostrunner (zumindest Release Version, kp wie es jetzt aussieht) waren dank reflektionen fast unspielbar xD ohne liefs super. Ich sehe in RT auch die Zukunft, keine Frage aber für über FHD reichte die Leistung der 3080 da noch nicht 🤷🏻♂️ und der Sprung auf'n Papier von 30xx zu 40xx ist zu gering als das es Sinn machen würde allein darauf zu setzen
Folgende Version ist näher an der Realität: Bei AMD sind die Absatzzahlen dermaßen hart eingebrochen, dass es nicht mehr mit den normalen EOL-Rabatten aufzufangen war. Ohne frische Käufer und mit mehreren Monaten Nachlierferungen in den Büchern musste man extrem aggressive Rabatte gewähren, um die Lager irgendwie leer zu bekommen.
Die vergangenen und aktuellen Quartale sehen nicht ohne Grund wie ein komplettes Blutbad aus.
Ergänzung ()
ThePlayer schrieb:
Ich gönne jedem die 4090 oder in der letzten Gen die 3090ti oder 6950xt. Das Problem an diesen 100k 4090 Käufern ist nur das die Hersteller darin bestärkt werden alle Preisklassen nach oben zu setzen.
Ich kaufe seit Jahren AMD Karten seit der 7600GT von Nvidia weil ich die Karten und Treiber bei AMD für meine Zwecke einfach immer besser fand. Allgemein die ganze Preis Leistung.
Aber.... Ich bin niemand der um jeden Preis AMD kaufen muss. RT ist für mich der selbe Marketing Furz wie Physx damals. Ja es ist ganz nett aber die Unterschiede oft so gering dass man in Vergleichsvideos mit Pfeilen drauf hinweisen muss da man sonst nix bemerkt. Die normale Leistung ist also das entscheidende für mich und da wäre die 7900XTX perfekt gewesen. Die hohe Leistungsaufnahme, höhere Lautstärke und vor allem aber der zu hohe Preis schrecken mich deutlich ab. Ich mache diesen Preiswahnsinn nicht mit. Trotzdem sollte bald mal eine neue Karte in den PC. Wenn AMD die Stromverbrauch Probleme noch fixt und der Preis unter 1000 euro rutscht würde ich drüber nachdenken. Aktuell ist die 4080 aber einfach das rundere Produkt..nur viel zu tuer und das sehe ich aus Prinzip nicht ein.
RDNA3 ist irgendwie seltsam.
Ich mag AMD deutlich lieber als nVidia
da mach ich kein Geheimnis draus.
Aber ich denke schon das die Karten geradezu KRASS unterperformen für das was sie sind.
Moores "Law is dead" hat da auch ein gutes Video dazu gemacht.
Wo er darauf eingeht dass die Karten MASSIV aufgewertet wurden und die Transistoren anzahl aufgeblasen
wurde, sich das aber einfach nicht auf die Leistung übertragen will.
Was den nV Release angeht.
Absurd teuer + noch absurder teurer ...
Ich gurke hier immer noch mit einer VEGA64 rum.
Und sehe aktuell KEINE Chance das zu ändern.
Nicht zu den Preisen nicht zu der Verfügbarkeit auf dem Gebrauchtmarkt ...
Jep. Bzw. der Sprung von Turing auf Ampere größer. Laut Igor von igorsLAB war Ada übrigens (wie in den Gerüchten) mit bis zu 600 Watt geplant, da man halt weiterhin bei Samsung fertigen lassen wollte. Durch den Wechsel zu TSMC konnte man massiv an Leistungsaufnahme einsparen und dennoch eine hörere Performance erzielen.
Nimm es als Chance, Dich von dem Märchenonkel zu lösen, der damit Geld verdient, Dir schöne Geschichten über die Firma zu erzählen, die Du gut findest.
Wenn Du diesem Hype-Enttäuschung-Fehler auf jemand anderen abwälzen-Zyklus entkommen kannst, gibt es sicher genug andere Quellen, in denen Du in den nächsten zwei Jahren Gerüchte über AMDs nächste GPU-Generation finden wirst!
Denn am Ende zählt bei den GPUs auf dem Platz. Und den objektiven Blick darauf musst Du Dir nicht von jemandem abluchsen lassen, dem es immer nur um den nächsten billigen View, thumbs up, Abo oder direkten Geldfluss angekommt.
Mit den aktuellen chips sind die gpu zu teuer und fressen zu viel Strom
Der echte Kampf kommt mit n33 und ad104/ad106
jetzt kommt es nur darauf an ob n33 das Latenzproblem hat oder nicht den Taktseitig ist man bei etwa 3,0ghz limitiert.
Die Architektur aber kann sogar 3,6ghz aber aktuell wird diese vom sheduler ausgebremst. Entweder greift das Pt oder die cu rechen nur 2 fp32 pro Takt.
Das maxed aktuell liegt bei 2,34 mit mcd ohne schätze ich auf 3
Somit wird n33 rx7700xt 18,4tf haben
Dadurch gewinnt nvidia mit 60sm und 27tf
Amd muss mit dem preis kontern und das können sie, nvidia wird zwar mit der rtx4060ti gewinnen aber wenn amd die rx7700xt bei 399$ ansetzen wird wird nvidia plan den ad106 mit 34sm und 499$ fehlschlagen
Die rtx4060ti bei 499$ anzusetzen wird nicht gehen da müsste nvidia stock auf min 3,2ghz bringen.
Daher gehe ich von ner rtx4060ti bei 449$ 12gb 46sm 2,8ghz aus. ~20tf
Die alternative wäre 34sm und 2,8ghz ~16,7tf
Das wird die spannende Geschichte
Die Effizienz gewinnt diesmal nvidia aber auch nur dann wenn die sku vernünftig geplant sind also ad106 und ad104 bei 2,5ghz
Was strombedarf angeht sehe ich beim ad16 ~150w und beim ad104 nicht ans limit oc bei etwa 225w
amd n33 wird wie n22 reagieren also etwa 250w
Die beste GPU von AMD macht einfach alles viel schlechter als die zweitschnellste von NVIDIA.
Stromverbrauch extrem hoch, schlechte Treiber und die Raytracing-Leistung lässt auch zu wünschen übrig.
Das ist fast schon Vega Reloaded bzw. Version 2.0 ! NO THANKS
Die minimum-frames sind viel wichtiger und auch hier ist RTX4080 um fast 10% schneller als 7900xtx bei deutlich niedrigerem Stromverbrauch, sowohl unter Last als auch unter Idle !
Ich kann nichts positives zu den neuen AMD karten sagen.
Die RTX4080 ist eigentlich eine schöne GPU ohne nennenswerte schwächen, bis auf den Preis.
So richtig überzeugend ist für mich allerdings nur die RTX4090, grandiose GPU !
Anhänge
Screenshot 2022-12-19 at 01-06-31 Nvidia vs. AMD Wie steht ihr zum Start von GeForce RTX 4000 ...png
Nimm es als Chance, Dich von dem Märchenonkel zu lösen, der damit Geld verdient, Dir schöne Geschichten über die Firma zu erzählen, die Du gut findest..
Japp. Nur kann man das auch genauso sehen, lesen und mit anderen Teilen ohne wie der Märchenonkel auf AMD einzuhauen, als hätten die und nicht er selbst mit wilden Spekulationen und offensichtlichen Fehlinformationen die Trommel gerührt.
Er muss jetzt um jeden bisherigen Zuschauer kämpfen weil sein Versagen so offensichtlich und unbestreitbar ist. Überleg mal, wie verzweifelt er sein muss, dass er seiner Anhängerschaft von AMD-Fans erzählt, AMD hätte das verbockt und deswegen lag er mit seinen Vorhersagen daneben.
Und bei AMD steht man wahrscheinlich mit der Hand an der Stirn und wundert sich, warum die GPU, welche im ersten Schuss perfekt funktioniert (A0) und über die man in mehreren Jahren Entwicklung wenig bekannt gegeben hat nun plötzlich ein Rohrkrepierer sein soll, weil der jemand Luftschlösser gebaut hat, die zu keinen Zeitpunkt in den Plänen standen.
Schade das sich die Geschichte wiederholt hat (Vega - siehe Bild 3), gerade jetzt wo die Strompreise durch die Decke gehen ist das einfach inakzeptabel.
Allein der Idle-Verbrauch disqualifiziert die GPU komplett !
YOUTUBE
Fenster-Bewegung
Fenster-Bewegeung fast doppelt so hoher Stromverbrauch wie bei NVIDIA !
Jetzt mal Butter bei die Fische, wo kann die GPU überzeugen ? Nirgends !
Sorry, ich bin nur ehrlich. Das ist eine extrem enttäuschende Vorstellung.
Anhänge
Screenshot 2022-12-19 at 01-31-55 Radeon RX Vega 64 & 56 im Test Der helle Stern wirft lange S...png