News Radeon RX 5700 (XT): AMD senkt Preise noch vor Veröffentlichung

wal schrieb:
Abwarten was die Cpus angeht.
Wenn die leaks von pcgh stimmen hat Amd in Sachen (Gaming) Leistung ein wenig gemogelt und in der Leistungsaufnahme doch deutlich untertrieben. Ich bin nichtmehr ganz so zuversichtlich
Na komm, wal. Gib Dir nen Ruck. Selbst wenn sie jetzt in ungefähr gleichziehen, wäre es ein Erfolg, den sich noch vor weniger Jahren hätte keiner träumen lassen.

Die par Prozent hin- oder her machen das Kraut nicht fett.
Deswegen muss ich immer lachen, wenn ich hier lese, wie irgendwas "vernichtet", "versenkt", "abgezogen" und sonstiges wird.

Siehe auch:
Der 3800X und 3900X dürften den 9900K in allen 4 Benches ordentlich wegpusten.
Wegpusten.... So nennt man also ein Kopf an Kopf Rennen.

Die Chips der beiden Lager werden wohl auf Augenhöhe operieren.

In der Leistungsklasse Consumer mehr als 8 Kerne bietet Intel noch nicht mal einen Konkurrenten, den man gegenüberstellen könnte.
Deswegen ist AMD im Augenblick dicke aufgestellt.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, .Snoopy., schkai und 3 andere
@wal
Der Leak deckt sich mit den Vermutungen, die hier die meisten sowieso schon hatten.
Der 3900x ist schon eine heftige Rechenmaschine.

Was mich interessiern würde ist was das für ein Nachspiel für PCGH haben wird....

LG
Zero
 
ZeroZerp schrieb:
Na komm, wal. Gib Dir nen Ruck. Selbst wenn sie jetzt in ungefähr gleichziehen, wäre es ein Erfolg, den sich noch vor weniger Jahren hätte keiner träumen lassen.

Da hast du ja schon irgendwo recht.
Aber hier wurde praktisch von allen Leuten der Eindruck erweckt, dass AMD hier die Eierlegende Wollmilchsau hat. Wer hat sich denn insgeheim nicht erhofft dass man deutlich mehr Leistung für deutlichen weniger Geld bekommt?

Für Anwendungen scheint das ja auch wirklich zu stimmen. Aber da mein Pc für eine Mischung aus Cad/Fem und Gaming genutzt wird hatte ich da doch minimal mehr erhofft. Und wenn die Leistungsaufnahme wirklich so hoch ist wie beschrieben dann brauch mir auch keiner mehr erzählen dass Amd sich bei der tdp besser als Intel verhält
 
^^habs mir gerade angeschaut, da muss aber PCGH irgend einen massiven "auf die site setzen" Fehler gemacht haben, oder? Die sind ja sonst nie vertreten, wenn es um "Leaks" geht, und das ist ja eindeutig von denen, das sind die üblichen Diagramme und Layout.

Zu den Werten selbst: Mittelgroße Enttäuschung hier bei mir :schaf: Nun, bei den Spiele par Mal hinter dem 9900K und mal auf gleichem Level.
Mein 7700K liegt zudem glaub ich auch mal auf Level der Ryzen3000 CPUs.
Das is schade, hätte es AMD gewünscht, dass sie bei den Games den 9900K im Durchschnitt abziehen, wenn auch nur knapp.
 
wal schrieb:
Und wenn die Leistungsaufnahme wirklich so hoch ist wie beschrieben dann brauch mir auch keiner mehr erzählen dass Amd sich bei der tdp besser als Intel verhält
TDP != Verbrauch/Leistungsaufnahme
 
ZeroZerp schrieb:
Was mich interessiern würde ist was das für ein Nachspiel für PCGH haben wird....

LG
Zero
Wie ist das eigentlich passiert? Haben die es ausversehen veröffentlicht oder wie?
 
Laut PCGH war das Review auch noch nicht fertig. Ich würde also noch warten.....
Ergänzung ()

muzafferamg58 schrieb:
Wie ist das eigentlich passiert? Haben die es ausversehen veröffentlicht oder wie?
Ja, gestern kurzzeitig. Haben sie zwar gleich wieder runtergenommen, aber da war es schon zu spät.
 
je87 schrieb:
Noch ein Mal schlafen, dann ist Weih.... äääh AMD-NDA-Fall! ...
Einige hier sehen das eher als AMD-NDA-Fail.
Ich für meinen Teil lass mich überraschen. Selbst wenn AMD Super nicht übertrifft, ein deutlicher Fortschritt wird schon drin sein. Im Gegensatz zu Nvidia soll es sich ja nicht um einen Highend-Chip handeln.
 
muzafferamg58 schrieb:
Wie ist das eigentlich passiert? Haben die es ausversehen veröffentlicht oder wie?
Genau- Und verstießen somit gegen ein NDA. Das kann empfindliche Strafen nach sich ziehen. Schlimmer wiegt, dass man Gefahr läuft zukünftig dann nichtmehr mit Vorabmodellen beliefert zu werden.
Man ist also künftig raus, wenn es um veröffentlichung von Tests beim Fall des NDAs geht.

LG
Zero
 
  • Gefällt mir
Reaktionen: Ernie75 und muzafferamg58
@wal
Hm? Wo siehtst Du das?
Ich sehr hier nur die Tabelle, wo dick drüber steht "Beachten Sie bitte, dass die Angaben für das Gesamtsystem gelten".

LG
Zero
 
  • Gefällt mir
Reaktionen: wal und yummycandy
wal schrieb:
Auch ohne Experte zu sein bin ich mir dem bewusst. Für den 3700x haben wir aber eine geshmeidige verfierfachung. Keine Ahnung ob das so muss aber für mich ist dass bewusste Irreführung
Solange die Kühllösung hinterherkommt, ist es kein Problem kurzzeitig weitaus mehr zu verbrauchen. Solange keine Kw/h gemessen werden, kann man auf die Dauer keine Rückschlüsse ziehen.
 
ZeroZerp schrieb:
@wal
Hm? Wo siehtst Du das?
Ich sehr hier nur die Tabelle, wo dick drüber steht "Beachten Sie bitte, dass die Angaben für das Gesamtsystem gelten".

LG
Zero
Gute Frage
Geschmeidig übersehen ;D
Mein Fehler!
 
engineer123 schrieb:
Das interessante dabei ist ja, dass AMD diesen Fehler immer und immer wieder macht
Herkelman hat es im Stream auch erklärt, man hat lange diskutiert, ob man Blower nimmt oder nicht und sich am Ende dann dafür entschieden, weil das die einzige Möglichkeit ist, die angegebenen Taktraten auch garantieren zu können, denn ein Blower Design ist nicht abhängig vom Airflow des Gehäuses und nicht jeder Käufer wird einen guten Airflow besitzen.

Also als Referenzdesign macht das durchaus Sinn, das einzige was man AMD vorwerfen kann ist, dass die Custom Karten nicht ab Launch mit dabei sind.
 
  • Gefällt mir
Reaktionen: schkai
xexex schrieb:
Die Lösung von AMD muss also nicht zwingend schlecht sein, der Ansatz ist schlichtweg ein anderer. Wie sowas aussehen kann, hat Nvidia sogar selbst schon bei der ausführlichen Erklärung zu Quake RTX gezeigt.
Ich sage ja auch nicht, das die Lösung von AMD grundsätzlich schlecht ist, ich kann mir nur irgendwie noch nicht vorstellen, das man mit der AMD Hybridlösung im Endeffekt auf die gleiche Leistung kommt wie bei Nvidia mit den RTX-Kernen und dann auch noch ein gleiches oder vergleichbares Ergebnis daraus resultiert. Deswegen schrieb ich ja auch, das ich sehr gespannt bin, auf die Lösung von AMD, die zumindest ein deutlich kostengünstigerer Ansatz sein dürfte.

xexex schrieb:
Der Einsatz dedizierter RT und Tensor Kerne macht den Turing Chip ziemlich gross und führt dazu, dass man in Spielen ohne RT und/oder DLSS einen großen Teil der Chipfläche brach liegen lässt.
Ja, da gebe ich Dir recht, wenn man ansonsten keine Szenarien hat, wo man noch Sinnvoll RT-Kerne einsetzen kann, dann verschenkt man natürlich Potenzial!

xexex schrieb:
Der Ansatz von AMD könnte da sein, nur den aufwändigsten Teil in Hardware zu gießen und statt drei verschiedener Cores schlichtweg mehr frei programmierbare Shader auf einem Die unterzubringen. Wenn du dir die Grafik weiter oben anschaust, so würde man mit der doppelten Shaderanzahl und ohne RT Cores Unterstützung fast das gleiche Ergebnis herumkommen.
Also wird man anstatt der RT-Kerne, die Anzahl von vorhandenen Implementierungen, wie Shader oder TMUs deren Anzahl erhöhen und modifizieren, um Raytracing direkt im Chip zu bearbeiten. Da bin ich ja mal gespannt, wie gut das funktioniert, im Prinzip ist es dann ja auch eine zusätzliche Hardware im Chip, auch wenn man nur die Anzahl von vorhandenem erweitert / aufstockt!

Die Software, welche AMD dazu benötigt, wird ja dann vermutlich wohl auch direkt im Treiber implementiert, oder muss man sich diese dann auch so downloaden, wie das bei Fidelty FX der Fall ist? Dann wird das nächste Jahr noch deutlich interessanter wie dieses Jahr, wenn AMD bei den Konsolen und Grafikkarten Raytracing implementiert und Nvidia mit Ampere in 7 Nm von Samsung und Raytracing kommt! :daumen:
 
Zuletzt bearbeitet:
BerserkerWut schrieb:
Preise bei AMD und Nvidia teuer hin oder her... ich kann mich noch sehr gut an meinen ersten gaming pc erinnern, das müsste so 2009 gewesen sein. Da gab es eine Radeon HD 4870 x2 für ca. 250 euro (was der altuelle highend chip von amd war)... das war eine dual gpu. Das nenne ich mal geile preise! Den preis den man heute für sowas zahlen müsste, möchte ich mir garnicht ausmalen 😤

Das waren noch Zeiten, und das ist so gesehen noch gar nicht lange her.
Grafikkarten sind absurd teuer geworden. Mittelklasse Karten für 600€ bis 800€? AMD und Nvidia haben wirklich den Arsc* offen.
 
  • Gefällt mir
Reaktionen: DrDoom
Zotac2012 schrieb:
Also wird man anstatt der RT-Kerne, die Anzahl von vorhandenen Implementierungen, wie Shader oder TMUs deren Anzahl zu erhöhen und modifizieren, um Raytracing direkt im Chip zu bearbeiten.

Im Patentschreiben wird es ja erklärt, auch wenn man da größtenteils nur Bahnhof versteht.
797177


Zotac2012 schrieb:
Die Software, welche AMD dazu benötigt, wird ja dann vermutlich wohl auch direkt im Treiber implementiert, oder muss man sich diese dann auch so downloaden, wie das bei Fidelty FX der Fall ist?

Mit "Software" waren letztendlich die frei programmierbaren Shadereinheiten gemeint, sobald AMD im Treiber DXR freigibt, wird außer dem Treiber auch keine weitere Software benötigt.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Zotac2012
im grund bin ich enttäuscht von den gpus. ich habe mitte 2017 eine gtx 1080 für 460€ gekauft, die im jahr 2016 veröffentlicht wurde.
im grunde hat sich an der leistung/preis nichts getan. eine 400€ teure gtx 2060super/rx5700xt ist ca auf dem niveau einer gtx 1080. da hat sich im grunde (abgesehen von rtx) also nichts getan.
 
KillerPlauze090 schrieb:
im grunde hat sich an der leistung/preis nichts getan. eine 400€ teure gtx 2060super/rx5700xt ist ca auf dem niveau einer gtx 1080. da hat sich im grunde (abgesehen von rtx) also nichts getan.
Es gibt auch gerechtfertigte Gründe für eine Verteuerung, allerdings dürften diese die Kunden nicht interessieren. :)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben