Fraggball
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.329
Ähhhhhhmmmmm... Nein...HtOW schrieb:Die 5700xt ist doch im Schnitt schneller als die 2080 non super..
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ähhhhhhmmmmm... Nein...HtOW schrieb:Die 5700xt ist doch im Schnitt schneller als die 2080 non super..
Fraggball schrieb:Ähhhhhhmmmmm... Nein...
Luxmanl525 schrieb:Hallo zusammen,
@ Fraggball
Ähhhhhhhhhhhhhmmmmm...Ja...Und ob...
So long...
1) Nein, AMD war selten viel zu teuer und in den letzten Jahren seit dem erneuten Aufschwung eigentlich garnicht.Julz2k schrieb:Viel zu teuer. Meine 1070 hat 190 Euro gekostet und die wird es noch mehrere Jahre machen, denn 4k gaming in 60fps gibt es sowieso erst in 5 Jahren.
SKu schrieb:Nein. Eine 2070S ist im Schnitt schneller als eine 5700XT und eine 2080 non S ist schneller als eine 2070S.
Ach so, ich erinnere mich noch als mining lukrativ war, AMD hat die Preise selbst hoch gehalten. Man konnte ein Jahr lang keine Grafikkarte zum normalen Preis kaufen.Gelbsucht schrieb:1) Nein, AMD war selten viel zu teuer und in den letzten Jahren seit dem erneuten Aufschwung eigentlich garnicht.
2) Ja deine 1070 wird es noch ne Zeit lang machen, aber 4k60 Gaming gibt es zum Glück schon seitdem die 1080ti auf den Markt kam.
----------------------------
BTT
Is ja auch so, grade die XT (welch Wunder, das AMD sich mal auf DAS Kürzel schlechthin wieder besonnen hat!) ist ne echt gute Karte! Nach jahrelangen Hängern (so Glanzlichter wie die Fury mal ausgenommen) kommt AMD gewaltig zurück und das ist gut, denn es hilft dem Wettbewerb.
Hätte ich zuwenig Geld für die nächste eingeplant, wäre die 5700XT wohl auch die Nachfolgerin meiner 780ti (R.i.P) geworden.
Zu dem Zeitpunkt meines Kaufs vor einem Jahr hatte AMD für 1440p Ultra Gaming der 2080Ti nichts (haben sie heute auch nicht) und dem 9900K (haben sie heute endlich schon) entgegenzusetzen als Alternative.muzafferamg58 schrieb:Die RTX 3070 wird 8GB VRAM haben 👍
Ergänzung ()
AMD benötigt auch Kohle um das Alles zu machen, indem man einen 9900K kauft und keinen Ryzen und dazu noch im Forum rumheult wird sich nichts aendern. Daran sind solche Kunden wie du schuld an der Situation.
duskstalker schrieb:da sind immer wieder full node sprünge dazwischen - so wie auch 7nm einer ist - und auch auf dem weg hat sich der mm² preis pro wafer verdoppelt. und auch hier wächst langsam aber stetig die CU anzahl.
So liegen die direkten nVidia-Gegenspieler der neuen AMD-Grafikkarten bei 1920 bis 2176 Shader-Einheiten – während alternativ eine Radeon RX Vega 64 mit vollen 4096 Shader-Einheiten noch nicht einmal gänzlich die Performance der Radeon RX 5700 mit 2304 Shader-Einheiten erreicht
Für mich ist nicht mal die 2080Ti eine 4K 60 fps GPU. Eigentlich erst die einzige vollwertige 1440p Ultra Karte, alle darunter, auch die 2080 S haben schon Einschränkungen an den Reglern in einer Handvoll Games, insbesondere Square Enix und Ubisoft Games (sofern man konsequent das Ultra Setting als Maßstab nimmt = das, was die devs als Maxium optisch anbieten)Julz2k schrieb:die 4k60fps Lüge
tek9 schrieb:Deine Zusammenfassung ist sicherlich schlüssig.
Nur hier liegst du falsch:
Der Preis für einen 7nm Wafer ist doppelt so hoch wie ein 14nm Wafer, siehe
Anhang anzeigen 832265
Ergo ist es logisch das 7nm Karten deutlich teurer zu haben sind.
Desweiteren lässt sich die Anzahl der CU von RDNA nicht mit GCN vergleichen weil RDNA ein völlig anderes Design als GCN ist. GCN wurde auf Datendurchsatz getrimmt, während RDNA ähnlich wie bei Nvidia Touring/Pascal auf Rechenleistung hin designed wurde und mit weniger, aber komplexeren Shadern daher kommt
Siehe:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-5700-5700-xt
Der Nachfolger der Polaris Midrange wird die RX5600 auf Basis eines 7nm/170mm werden, siehe
https://www.3dcenter.org/news/amds-naechster-navi-chip-tritt-mit-1536-shader-einheiten
Julz2k schrieb:Ach so, ich erinnere mich noch als mining lukrativ war, AMD hat die Preise selbst hoch gehalten. Man konnte ein Jahr lang keine Grafikkarte zum normalen Preis kaufen.
Bei 1440P ist dann der Mehrwert eines 9900K im Vergleich zum 2700X 5-10%Laphonso schrieb:Heute würde ich den 9900K nicht kaufen sondern einen AMD 3900X.
Da man hier im Forum immer pointiert, dass die Enthusiasten eh eine Minigruppe darstellen, ist meine "Schuld" (da musste ich lachen, sorry ) entsprechend irrelevant.
duskstalker schrieb:nur sehe ich da nirgends einen preisanstieg im midrange bereich um die 250mm², außer bei navi.
CastorTransport schrieb:Von daher ist eine 5700 XT für mich in 1440p der "sweet pot".
Dazu ist der 9900K noch zu unangefochten in den Gamebenchmarks vorne. Dass AMD nicht die schnellste Gaming CPU stellt, verhindert den finalen Intel Knockout.muzafferamg58 schrieb:Bei 1440P ist dann der Mehrwert eines 9900K im Vergleich zum 2700X 5-10%
https://www.techspot.com/review/1730-intel-core-i9-9900k-core-i7-9700k/page4.html
Spiele auch auf 1440P und habe mich zwischen dem 9900K und dem Ryzen für den Ryzen entschieden und die 5-10% tun mir nicht weh.
Ich respektiere dein Hobby, aber dein Konsumverhalten (egal ob du eine kleine Gruppe bist) ist nicht schön.
Dazu haettest du jetzt den Ryzen verkaufen und einen 3900X kaufen können und haettest 50% mehr Kerne
Wieso unlogisch?ZeroZerp schrieb:Autsch-
Sind die Preise günstig, Lob für AMD
Sind sie es nicht, ist aber die Konkurrenz schuld?
Unlogische Sichtweise....