News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

Mich würde schon interessieren ob das mit "für VR geeignet" nur die tflops Performance meint, oder ob die Architektur ähnliches wie SMP von Nvidia enthält. Also echte Optimierungen?
 
Krautmaster schrieb:
würde ich das nicht wäres keine Spekulation oder?

Nur spekulierst du immer besonders häufig negativ, wenn es um AMD geht!

Krautmaster schrieb:
Wird man ja sehen was dann die nächsten Jahre so läuft. Würde mich nicht wundern wenn das GPU Volumen das AMD bei GF ordert derweil deutlich größer ist als das für die CPU.

Die Links kenne ich aber danke ;)

Ich meinte allerdings, dass die GPUs dazu genommen werden um die Wafferabnahme besser auszulasten. Davon, dass sie den CPU Anteil überragen hab ich nicht gesprochen ;-)
 
Zuletzt bearbeitet:
Conceptions schrieb:
Wir wissen jetzt auf jeden Fall. Wenn nvidia Details weglässt, ist das Bild detailreicher... :freak:

Das ist doch Optimierung der Bildqualität!? Denn mehr Bodentextur und dunklere Schatten sind ja viel besser, deshalb ist nVidia so lieb und optimiert das für ihre User. Aber auch nur für die Pascal-User, die haben wenigstens Geld hinterlassen, die dummen Maxwell/Kepler-Bittsteller sollen gefälligst mit den alten "Features" auskommen ;)
 
nebulein schrieb:
By the way ist es irgendwie äußerst fraglich ein Spiel zu nehmen, dass:
1. So gut wie niemand spielt.
2. Durch den DX12 Support bereits in der Vergangenheit auf AMD Karten bei weitem besser skaliert als auf Nvidia Karten.
3. So unterschiedliche Bilder liefert auf den beiden Karten. Egal ob das jetzt ein Bug ist, oder ein Fehler im Nvidia Treiber. Sinnvoll ist solch ein Vergleich meines erachtens nicht.
bei 1. und 3. stimme ich zu
bei 2. ist es doch klar, dass sie das Spiel genau aus dem Grund wählen, aber das macht nunmal jeder Hersteller und ist beim teasern (denn mehr ist es ja doch nicht) legitim, die "wahre" Leistung wird sich dann später in vielen anderen Spielen zeigen müssen ...

BookerDeWitt schrieb:
Es ist im Interesse der Entwickler gewesen ihr Bild auf genau diese Art und Weise zu zeichnen. Das die 1080 dies nicht tut, ist ein Fehler und daran gibt es nichts zu rütteln!
Natürlich ist es subjektiv, hab ich ja selbst gesagt. Nur hätte AMD bei den Settings deutlich transparenter agieren können, um dann den Fehler offen zu legen bei nVidia, im Nachhinein, nachdem das Bild von nVidia von den meisten als etwas besser empfunden wird, zu behaupten, dass nVidia Mist macht, ist auch sehr komisch ... mag ja sein, dass AMD da mehr zu berechnen hat, aber warum weisen sie dann nicht gleich darauf hin? die haben den Test und die Präsentation doch nicht am Abend davor erst entschieden, sondern es sehr bewusst gewählt und sicher auch vorher 3-4 Mal getestet, um sichergehen zu können, dass man auch wirklich vor der GTX 1080 liegt ...
Das es subjektiv ist, welches Bild nun besser aussieht, da stimmer ich dir aber vollkommen zu

Conceptions schrieb:
Wir wissen jetzt auf jeden Fall. Wenn nvidia Details weglässt, ist das Bild detailreicher... :freak:
:D
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Na ja, da diese Karte mit 36CUs also 2.304 Shadern unterwegs ist, kann man davon ausgehen, dass eine Karte mit 40CUs und einer "glatten" Zahl Shader (2560) noch auf die Ankündigung wartet. Aber man weiß ja nie was kommt ;)

Wir wissen doch gar nicht, wie die GPU intern organisiert ist; sind die 36 CUs in 4 oder 6 Shaderengines zusammengefaßt? Umfaßt der spekulierte Vollausbau also 40 oder sogar 42 CUs? Nur weil es bei Hawaii 4 waren, muß das bei Polaris 10 ja nicht auch so sein.

nebulein schrieb:
Die aktuell meist genutzte Karte bei Steam Spielern ist übrigens die GTX970. So viel zum Thema Mainstream liegt bei 150-200 € Karten.

Die Bedeutung von "meist genutzt" ist Dir offensichtlich nicht klar - die Karte hat einen Anteil von 4%.
Die zweite in der Liste ist dann eine Intel HD4000 mit 3%.

Es handelt sich übrigens um Umfragen; die Ergebnisse schwanken von Mal zu Mal so sehr, daß sich höchstens Trends ableiten lassen.
 
Zuletzt bearbeitet von einem Moderator:
Ich muss schon sagen, es ist echt unterhaltsam zu lesen wie diejenigen die den async compute Fortschritt bejubelt hatten (welcher aktuell nur bei diesem Spiel ernsthaft testbar ist) dem gleichen Spiel jegliche Relevanz absprechen wollen sobald raus kommt das die Grafik bei der Geforce falsch berechnet wurde. Noch unterhaltsamer ist es angeblich ach so plötzlich auftreten soll obwohl sich die Entwickler in der Vergangenheit bereits darüber beklagt hatten das eigenartige Effekte auftraten nachdem nvidia den Code in den Fingern hatte.
 
Spielt ja keine Rolle ob die 970 die einzeln prozentual meist genutzte Karte bei Steam ist, Fakt ist, das 90% der Karten unter der 970 liegen.
 
HerrRossi schrieb:
Danke für die Info, dann guck ich mir das mal näher an!

sollten deutlich mehr machen, das gebashe gegen Ashes ist genauso sinnlos wie gegen AMD
jeder der was schlechtes über Ashes schreibt hat es keine Sekunde gespielt!
 
Zuletzt bearbeitet:
CCIBS schrieb:
Im großen und ganzen hat man einen nichts sagenden Vergleich auf die Beine gestellt. So kommt man dann zwar in die Schlagzeilen, aber nicht wirklich positiv.
Die meisten hier verstehen nicht wie Marketing funktioniert. Daher nochmal die Erklärung: Die Aussage lautet (und die Koduri auch so in der Präsentation tätigt): Man bekommt die Leistung von 700$ auch schon für 500$. Hier sogar etwas bessere Leistung.

Hier im Forum wird meist verstanden: Wie jetzt? Ich brauche 2 Karten um 1 zu schlagen und auch das noch in einem ausgesuchten Bench der AMD sowieso extrem gut liegt? Also CF das eh kacke ist? Brrr.

Macht euch keine Sorgen, die Botschaft wie AMD sie sendet wird von den 84% der User, von denen sich hier augenscheinlich nur sehr wenige tummeln, durchaus verstanden werden.
...
Wurde nicht ComputerBILD (urgh) CB vorgezogen bzgl. der 1070? Deren Leserschaft wird die Präsentation schon so verstehen wie AMD es beabsichtigt hat. ;)
 
RAZORLIGHT schrieb:
jeder der was schlechtes über Ashes schreibt hat es keine Sekunde gespielt!
Aha, das bedeutet also, dass mir das Spiel dann auch ganz automatisch gefallen muss.
 
Wadenbeisser schrieb:
Ich muss schon sagen, es ist echt unterhaltsam zu lesen wie diejenigen die den async compute Fortschritt bejubelt hatten (welcher aktuell nur bei diesem Spiel ernsthaft testbar ist) dem gleichen Spiel jegliche Relevanz absprechen wollen sobald raus kommt das die Grafik bei der Geforce falsch berechnet wurde.
Besonders interessant wäre es doch ob die Verbesserung des AC mit dem Weglassen besagter Details zusammenhängt.

Das wäre in meinem Augen nichts anderes als die AF Geschichten beider Unternehmen.
Ergänzung ()

moquai schrieb:
Aha, das bedeutet also, dass mir das Spiel dann auch ganz automatisch gefallen muss.
Nein, aber zu behaupten es würde keiner Spielen und ist eh kacke ist unpassend.

Ein simples "Das Spiel interessiert mich (persönlich) nicht" reicht auch.
 
http://steamcharts.com/app/228880#All

AotS hat für den Spielemarkt kaum Relevanz.
Ein Test mit Battlefield 4, Farcry Primal, Witcher 3, Tomb Raider hätte bei mir mehr Hoffnung erweckt, dass AMD wieder liefert.
Denn die Treiber und Preise von Nvidia-Karten sind nur durch fehlende Konkurrenz zu erklären.
 
Bärenmarke schrieb:
Nur spekulierst du immer besonders häufig negativ, wenn es um AMD geht!...
Zum Beispiel würde von Krautmaster niemals die Spekulation kommen, dass Intel, bei einem Marktanteilsverlust durch AMDs Zen CPU, wieder in die nicht legale Kiste greifen könnte.
 
Conceptions schrieb:
Ein simples "Das Spiel interessiert mich (persönlich) nicht" reicht auch.
Das stimmt, wenn mir die Thematik nicht zusagt, dann teste ich es erst gar nicht. Aber noch besser ist es, wenn man beschreibt, was einem nicht gefallen hat, wenn man es dann mal gespielt hat, das wäre dann subjektive Kritik.
 
Del Torres schrieb:
Naja, AMD steht ganz dick und fett auf der Homepage des Herstellers. Unabhängig sein sieht anders aus :-)

wüsstes du mehr über die Hintergründe des Spiels bzw. der Engine wüsstest du auch warum es da steht
AMD hat nunmal deutlich mehr Erfahrungen mit der API (haben auch Mantle entwickelt) als Nvidia (sieht man an der tollen DX12 Performance)
und jedes halbwegs intelligente Unternehmen will nichts mit Nvidia zu tun haben (außer das Schmiergeld passt.)

ich persönlich kenne den CEO von Stardock (Ashes) ziemlich gut, da er extrem aktiv ist, in Foren etc., kann man sehr gut mit ihm kommunizieren und er nimmt KEIN Blatt vor den Mund und ergreift keine Partei.
 
Zuckerwatte schrieb:
Das ist in den USA gang und gäbe. Selbst in deutscher Werbung geben Hersteller ab und an verdeckt Seitenhiebe auf die Konkurrenz.


Thema ist "Vergleichende Werbung". Ist in Deutschland verboten, in den USA nicht.
 
forumuser05 schrieb:
Wenn jetzt ein Single-GPU Ergebnis mit irgendwas um die 35 fps rausgekommen wäre, hätte man das kurz registriert und das wars dann auch, aber dank dem CF-System-Benchmark, dank "fehlerhafter" nVidia-Berechnung in "ihrem" Spiel, dank nicht genanntem 8GB Preis oder EU-Preis, dank "nur 51% Auslastung", usw. bleibt das ganze sehr spannend

Ja, ich würde behaupten wir sehen hier tatsächlich den ersten brauchbaren Marketing Schachzug von AMD seit Jahren!
Wundert mich schon ein bischen. Ja, Du hast recht es bleibt wohl spannend.

Und davon abgesehen ist diese Diskussion, ob NVidia nun fehlerhaft berechnet oder nicht, hahnebüchen.
(Jetzt muss ich NVidia tatsächlich in Schutz nehmen und das mir als AMD-Fanboy. Unglaublich.)

Es ist doch bekannt, dass NVidia extrem gute Treiber (Performance mäßig, wir lassen Stabilitäten aussen vor) in DX11 erstellt und dass (von beiden Herstellern) nach einiger Zeit "Profile" für ein Spiel nachgeliefert werden, also das Spiel besser -was in den meisten Fällen heißt mehr FPS liefert- läuft. Was glauben denn die meisten hier was das ist, ausser "trickserei"?

So und jetzt machen sie das was wirklich richtig gut können auch in einer LowLevel API.
Und jetzt fällt das halt dem ein oder anderen Entwickler auf. OMG, Weltuntergang!
Das Spiel läuft besser ... und wenn ich die Kommentare richtig deute ... sieht's auch noch besser aus. Wo ist da jetzt das Problem?

Ich meine, OK, NVidia bescheißt gerne, verkauft auch schon mal die Holzklasse als heißes Eisen und hat jede Menge "Features", zieht als Marktführer enorm viel Geld aus dem Markt und und und.
Und jetzt machen die einfach mal das was sie immer schon machen und auch richtig gut können- Treiber optimieren - und DAS soll jetzt beschiß sein??? ... Da fällt einem nicht mehr viel zu ein. Und das was mir einfällt, kann ich hier nicht schreiben.
 
Moriendor schrieb:
Soweit mir bekannt gibt es von nVidia sehr wohl UVPs für z.B. Deutschland. Die €789 für die FE ist doch eine UVP, die direkt von nVidia stammt(?). Was soll also die aggressive dumme Anmache? Du kannst gerne einen Link posten, der das Gegenteil beweist, aber dieses Rumgekotze muss doch nicht sein.

Edit: Im Übrigen hättest du auch einfach den Reddit-Thread weiterlesen können, wo sich einige User aus Ländern mit schwacher Währung (Südamerika) über die exorbitanten AMD Preise in ihren Ländern beschweren. Preise, die offenbar weit über nVidia liegen, da AMD so wenig Einfluss auf die jeweiligen Marktpreise nimmt. Steht da alles drin.

ich glaub du hast garkeine Ahnung, wie arm Brasilien überhaupt ist, dazu noch die lächerlich hohen Steuern.
aber wurde ja schon besser erklärt
 
Zuletzt bearbeitet:
Zurück
Oben