News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

https://www.youtube.com/watch?v=P7RSszCPt68

Shader Intrinsic Functions war eigentlich auch ein großes Thema. Irgendwie ist das auch ziemlich untergegangen. Hiermit kann ja die Diskussion ja wieder einen Schub gewinnen :D

http://techfrag.com/2016/05/28/amd-enables-console-style-programming-pc/

Dazu noch die News
http://wccftech.com/async-compute-p...tting-performance-target-in-doom-on-consoles/

Vermutlich gibt es auf einmal deshalb so viele Aussagen/Meinungen über AS in letzter Zeit. Konsolen profitieren stark von AS und SIF soll soll am Desktop ja den selben Zugriff erlauben. Es ist ein Part von GPUopen.

Es soll für DX11, 12 und Vulkan funktionieren. Die Entwickler von Doom sprachen davon, dass für AMD noch spezielle Funktionen ect kommen sollen.
 
Zuletzt bearbeitet:
Tec schrieb:
Tomshardware meldet was anderes. Offenbar will man bei Sony die RX480 mit einer Zen CPU verbauen.

Da wäre dann 1440p im VR möglich.

Unsinn!

Embed ZEN wird als letztes gebaut.. Präsentation gesehen??
Desktop/Server/Mobil/Embed...
Konsole = Embed!...

Ich schätze auf eine weiterentwicklung der 7th Generation Bristol Ridge mit Polaris!
 
Zuletzt bearbeitet:
80% Marktanteile für eine Firma ist für den Verbraucher nie gut, daher sollte man Intel und Nvidia nicht immer blind unterstützen.
Die Frage wie sich GTX 1080/1070 in kommenden DX12 Spielen gegen AMD schlagen wird, ist ungewiss.
Von daher erst mal abwarte und Tee trinken :)
 
EchoeZ schrieb:
Und wenn man sieht das die Nano im Doppelpack aka Pro Duo eine 1080 nassmacht, bei 30% mehr Verbrauch und einen doppelt so grossem Prozess, was Du leider immernoch nicht berücksichtigst, steht selbst die 28nm Fiji sehr gut da.

Ja, die Pro Duo ist wirklich keine schlechte Karte, bei 16384 GFlops Rohleistung steckt sie die anderen locker in die Tasche. Ist halt wie immer im Higheng-Segment stolze Leistung zum stolzen Preis, keine Frage!

Aber wo habe ich denn einen Prozess nicht berücksichtigt? ich habe verschiedene 28nm Generationen verglichen + die 1080 mit neuem Prozess und dabei ist eben aufgefallen, dass die neuen Karten weniger verbrauchen, aber das auch in einer niedrigeren TDP angeben wird und die Abstände zwischen den TDP Angaben und dem Verbrauch beim spielen in der Regel korrelieren ... mehr hab ich gar nicht gesagt :)

Aber auf was sind denn die "30% mehr Verbrauch" bei der Pro Duo bezogen? ich hab mich mit der Karte noch nicht so wirklich befasst, weil sie einfach mal viel zu teuer für mich ist.

Zitat von PCGH:
"Ihren theoretischen Bestwert kann die Radeon Pro Duo jedoch nicht in die Praxis umsetzen: AMD hat die Grafikkarte laut eigener Aussage auf eine Regel-Leistungsaufnahme von 350 Watt heruntergetrimmt, um sowohl gängige Netzteile als auch die Ohren der Benutzer nicht übermäßig zu strapazieren. Damit lässt sich das Dual-GPU-Board am ehesten mit einer doppelten Radeon R9 Nano vergleichen. AMDs Kleinste wird vom Hersteller mit einer typischen Leistungsaufnahme von 175 Watt ausgewiesen, während der Realverbrauch laut PCGH-Messungen unter Volllast bei circa 185 Watt liegt. "

"In Crysis 3, Full-HD-Auflösung und SMAA-MGPU beträgt die Leistungsaufnahme der Radeon Pro Duo rund 330 Watt"
--> in Anno 2070 bei Ultra-HD:
"Ein Blick auf die Leistungsaufnahme verrät, dass die Radeon Pro Duo hier tatsächlich unter Volllast arbeitet und dabei 405 Watt aus dem Netzteil bezieht - rund 200 Watt pro GPU..."


@dergraf1
sehe ich auch so, Konkurrenz belebt das Geschäft und nur so purzeln die Preise, was für jeden Kunden (egal ob AMD oder nVidia) nur gut sein kann!
 
Zuletzt bearbeitet:
Nolag schrieb:
... die 0 oder die 255 werden nie erreicht.

Bloss stimmt das nicht, die 255er Werte passen und die 0-Werte sind bei der 1080 hoeher da diese bei der Schneeberechnung mogelt und viel mehr (dunkles) Gestein darstellt als sie soll.
 
pipip schrieb:
Shader Intrinsic Functions war eigentlich auch ein großes Thema. Irgendwie ist das auch ziemlich untergegangen. Hiermit kann ja die Diskussion ja wieder einen Schub gewinnen :D

http://techfrag.com/2016/05/28/amd-enables-console-style-programming-pc/

Dazu noch die News
http://wccftech.com/async-compute-p...tting-performance-target-in-doom-on-consoles/

Besten Dank für die Info :), mich hatte das auch am Anfang (nach der Präsentation in der Koduri und die Leute von Id Software das angesprochen hatten) interessiert, aber richtig, die Diskussion ist leider nicht mehr fortgesetzt worden (jedoch wurde ein Verweis auf den DX 12 Shader 6 Content gemacht).

Es sieht so aus, als ob Shader Intrinsics ein weiterer Test-Parameter neben AsyncCompute im Grafikkartenvergleich werden könnte, wenn sich mit korrektem Einsatz dadurch signifikant mehr Leistung ergibt. Bei nVidia scheint da vergleichsweise weniger umgesetzt worden zu sein in der neuen Pascal Architektur (sondern nur ein leicht optimierter Maxwell Doppel-Shrink), auch wenn Huang von Optimierungen in seiner Präsentation erzählte (welche sich aber bisher nachweislich nur auf ein verbessertes perspektivisches 3 Monitor-Setup und VR bezogen haben).
 
GreatEvil schrieb:
Bloss stimmt das nicht, die 255er Werte passen und die 0-Werte sind bei der 1080 hoeher da diese bei der Schneeberechnung mogelt und viel mehr (dunkles) Gestein darstellt als sie soll.
Ich habe das png von imgur heruntergeladen und die Histogramme verglichen. Das Ergebnis ist eindeutig. Beim Erstellen des Videos ist AMD ein Fehler unterlaufen.
 
pipip schrieb:
https://www.youtube.com/watch?v=P7RSszCPt68

Shader Intrinsic Functions war eigentlich auch ein großes Thema. Irgendwie ist das auch ziemlich untergegangen. Hiermit kann ja die Diskussion ja wieder einen Schub gewinnen :D

http://techfrag.com/2016/05/28/amd-enables-console-style-programming-pc/

Dazu noch die News
http://wccftech.com/async-compute-p...tting-performance-target-in-doom-on-consoles/

Vermutlich gibt es auf einmal deshalb so viele Aussagen/Meinungen über AS in letzter Zeit. Konsolen profitieren stark von AS und SIF soll soll am Desktop ja den selben Zugriff erlauben. Es ist ein Part von GPUopen.

Es soll für DX11, 12 und Vulkan funktionieren. Die Entwickler von Doom sprachen davon, dass für AMD noch spezielle Funktionen ect kommen sollen.

dadurch könnte die Grafik einen ordentlichen Sprung machen wenn sie es weit verbreitet nutzen würden (und es kein Nvidia gäbe)
sowieso immer beachtlich wie manche Konsolentitel aussehen bei so wenig Rechenleistung
 
Nolag schrieb:
Ich habe das png von imgur heruntergeladen und die Histogramme verglichen. Das Ergebnis ist eindeutig. Beim Erstellen des Videos ist AMD ein Fehler unterlaufen.

Sorry, kenn mich da Net so aus, aber wenn auf einem Bild weniger weiß ist als auf dem anderen (shader Fehler), muss das histogramm dann nicht automatisch anders sein? Und PNG, herunterladen, Stream etc... Ist dass dann nicht arg komprimiert um da so eine Aussage zu treffen?
 
RAZORLIGHT schrieb:
dadurch könnte die Grafik einen ordentlichen Sprung machen wenn sie es weit verbreitet nutzen würden (und es kein Nvidia gäbe)
sowieso immer beachtlich wie manche Konsolentitel aussehen bei so wenig Rechenleistung

Wenn das so weiter geht, wird nVidia an deren Architektur viel zu viel herumdoktern müssen (siehe AsnyCompute), so dass es gleich einfacher ist sich der GCN Architektur von AMD anzunähern bzw. zu kopieren (natürlich wird man das seitens nVidia dann nie zugeben und irgendeinen eigenen/neuen Architekturnamen einführen).

Vielleicht wird das bei der kommenden nVidia Chipgeneration (Volta) schon der Fall sein (je nachdem wie gut sich Pascal gegen Polaris & Vega schlägt), nur ob man dann immer noch vergleichsweise hohen Takt (nVidia) gegenüber vielen Shadereinheiten (AMD) sehen wird?

Irgendwie sollten (müssen?) sich beide Hersteller bzgl. Ihrer Produkte ja unterscheiden, um sich vom Konkurrenten abzugrenzen. Kruzfristig sehe ich den (Marken-/Marktanteil-)Vorteil noch bei nVidia, aber mittel- bis langfristig könnte sich die Konsolenarbeit und -ausstattung für AMD rechnen, wenn diese hoffentlich so lange relevant/am Markt bleiben.
 
Zuletzt bearbeitet:
W4RO_DE schrieb:
Dass 2x 8 Pin verbaut werden und einem so die Möglichkeit eingeräumt wird den Verbrauch (und somit die Leistung) zu erhöhen ändert nichts an der 180 Watt TDP die die Karte von Hause aus hat und im Auslieferungszustand einhält.

Kann sein daß ich Dich jetzt mißverstehe, aber Du denkst immernoch, daß bei 180W TDP auch 180W aus der Dose braucht? Die 180W TDP ist eine Wärmeleistung die es einzuhalten gilt. Die Anschlüsse und die Lüfterdrehzahlen erlauben, mal mehr mal weniger eine Überschreitung, je nach Hersteller/Modell
Die 180W Wärmeverlust enstehen natürlich durch eine Leistungsaufnahme von 180W. Das sind aber IMMER Maximalwerte, was einschliesst, daß die Graka durchaus weniger verbraucht. Es gibt nicht nur Idle und Max werte, wie man aus den Benchmarks herauslesen kann.
Den tatsächlichen Stromverbrauch eines Systems kann man nur mit einem Stromzähler messen. Oder wie Igor die max/avg Leistungsaufnahme der Graka ermittelt, kann man jedoch allemfalls den tatsächlichen Stromverbrauch beim Zocken berechnen. Ganz grob.

Es fällt mir immer wieder auf, daß viele - Du eingeschlossen - über physikalische Werte und Angaben diskutieren, aber diese eigentlich nicht interpretieren können.
Ich stell mich auch nicht als Elektroniker zu einem alten 80 jahre alten Fischer mit 75 Jahren Berufserfahrung aufs Boot und versuche ihn übers Fischefangen zu belehren, weil ich auch mal ne Angel in einen Fluß gehalten habe. Daher finde ich gerade die Diskussionen über TDP, Verrbauch, Hitze und Lautstärke allenfalls witzig, oft peinlich und manchmal sogar traurig.
Wie hat mein alter Herr gemeint: Mach das was Du kannst besonder gut, und halte Dich aus Dingen raus, über die Du nichts weisst...

Aber zu deiner allgemeinen Bestätigung: AMD Karten haben in den letzten Generationen bei gleicher Performance mehr Strom verbraucht.
Wieviel und wie wichtig man das nimmt, bleibt jedem selbst überlassen. Für mich persönlich zählt nur, daß ich die Abwärme leise aus dem Case bekomme, und das schaffe ich trotz meiner empfindlichen Ohren ohne Probleme, ohne viel Aufwand.

Hito schrieb:
Man sollte auf CB generell bei AMD/Intel/NVidia News die Kommentare gleich deaktivieren...
Wäre ja, als wenn man ne Tüte voll Geld im Wald findet und die nicht mitnimmt ;)



chendal schrieb:

Ooo

forumuser05 schrieb:
Was meinst du jetzt genau? Das CF-Gespann, dass die 1080 in AotS schlägt? Das ist schon gut, keine Frage ...
aber das ist ja die Regel, dass neue Modelle die Vorgänger locker schlagen und die nächst höheren Modelle meist auch, siehe GTX 1070 und 980/980TI/Titan X ... wäre ja auch schlimm, wenn es bei den Grafikkarten so wie bei den Intel-Prozessoren ablaufen würde und man immer bei 5-10% Zuwachs hängen bleibt
Ich hab Dich doch fullquote zitiert?! Es ging sich um DX11/12 und es exisiteren schon genug DX12 Benches um meine Aussage zu belegen.
Du meintest ja, AMD hat nur eine DX11 Schwäche und diese gibts bei DX12 nicht mehr.
Ich meine, der 'Verlust dieser Schwäche' führt dazu, daß nun eine 390 mit der 980 anstelle der 970 konkurriert, die 380X in gute Nähe zur 970, wo die 960 schon keine Sonne mehr sieht. Eine FurX PL-Mässig endlich mit der 980Ti und TitanX(nur L) aufnimmt.
Bei den ersten AotS Benches hab ich schon gemutmasst, daß sich GCN unter DX12 besser als Maxwell schlagen könnte.
AMD wird diese Fähigkeiten wohl kaum beschnitten haben, allenfalls ein paar % geopfert um dden Support fürs veraltete DX11 zu verbessern. Die Spiele gibts ja noch ne zeitlang.
Der Link wurde schon gepostet, ist aber ein weiterer(!) Fingerzeig
http://www.guru3d.com/articles_page..._graphics_performance_benchmark_review,6.html

edit:
Zu deinem letzten Post, wegen der 30% habe ich wirklich was durcheinander geworfen. Sorry.
Ich glaube da war was mit 30% weniger als FuryX CF bei gleicher Performance. Das war, ehrlich gesagt nur n Online-Blogger, ich such das Video gleich nochmal.
Aber zu den TDP, habe ich ja @W4RO_DE was geschrieben.
Ergänzung ()

Nolag schrieb:
Anhand der Screenshots ist klar, dass die 480 mit begrenzter RGB-Range läuft und die nVidia mit der Vollen. Das ist einfach ein Fehler, der häufig passiert und wahrscheinlich keine Absicht.
Ich weiss nicht.. hab AotS als Bench auf meiner GTX560 ausgeführt. Die Hammer-Ergebnisse verate ich allerdings nicht ;)
Nur fand ich persönlich das Bild viel zu kitschig/bunt. Als ich den Livestream sah, dachte ich mir noch (wg. der Verwechsung), nicht schlecht, wie geil das auf ner 1080 aussieht, und die RX480er so kitschig/bunt renderten wie meine GTX560.. war am Ende dann doch andersrum.
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Kann sein daß ich Dich jetzt mißverstehe, aber Du denkst immernoch, daß bei 180W TDP auch 180W aus der Dose braucht? Die 180W TDP ist eine Wärmeleistung die es einzuhalten gilt. Die Anschlüsse und die Lüfterdrehzahlen erlauben, mal mehr mal weniger eine Überschreitung, je nach Hersteller/Modell

Den tatsächlichen Stromverbrauch eines Systems kann man nur mit einem Stromzähler messen. Oder wie Igor die max/avg Leistungsaufnahme der Graka ermittelt, kann man jedoch allemfalls den tatsächlichen Stromverbrauch beim Zocken berechnen. Ganz grob.

Ich hab Dich doch fullquote zitiert?! Es ging sich um DX11/12 und es exisiteren schon genug DX12 Benches um meine Aussage zu belegen.
Du meintest ja, AMD hat nur eine DX11 Schwäche und diese gibts bei DX12 nicht mehr.
Ich meine, der 'Verlust dieser Schwäche' führt dazu, daß nun eine 390 mit der 980 anstelle der 970 konkurriert, die 380X in gute Nähe zur 970, wo die 960 schon keine Sonne mehr sieht. Eine FurX PL-Mässig endlich mit der 980Ti und TitanX(nur L) aufnimmt.
Bei den ersten AotS Benches hab ich schon gemutmasst, daß sich GCN unter DX12 besser als Maxwell schlagen könnte.

edit:
Zu deinem letzten Post, wegen der 30% habe ich wirklich was durcheinander geworfen. Sorry.

Bzgl. der 30% mehr kein Problem, hätte mich sehr gewundert, wenn es nur 30% mehr gewesen wären.

Zur TDP ist es schon richtig, dass nicht die ganze Zeit 180W von der Karte verbraucht werden, das ist bei AMD so, bei nVidia auch ... es zeigt sich aber, dass die Verhältnisse der Differenzen von den theoretischen Angaben zum tatsächlichen Verbraucht fast identisch sind. Wird eine Karte mit 10W mehr TDP angegeben, verbraucht sie in der Regel auch 10W mehr bei Spielen, auch wenn sie dabei vielleicht nur 120W verbraucht, obwohl die TDP angegeben wird ... aber in dem Fall verbraucht eben eine mit 170W angegebene auch nur 110W ...
Ich habe ja paar Seiten vorher das schon mal vergleichen, mit alten und mit neuen Karten ... die neuen Karten (die RX 480, als auch zB die GTX 1080 verbrauchen weniger, also die Vorgängergeneration) aber der Spieleverbrauch ist eben auch genau um die Wattzahl niedriger, um die die TDP niedriger angegeben wird, das passte bei dem Vergleich bein AMD, als auch bei nVidia und auch herstellerübergreifend

Mit der Performance bei DX12 stimmt das schon, sehe ich ja auch so, dass AMD da deutlich mehr von profitiert und das ist ja an sich auch gut, schließlich ist die Rohleistung der bei AMD auch deutlich höher, deshalb war es nur eine Frage der Zeit, wann sie Kapital daraus schließen können.
Denn wenn man zB die von dir erwähnte Radeon Pro Duo anguckt, hat sie mächtige 16384 GFLOPS Rohleistung, das ist mal eben das Doppelte! von der GTX 1080 (8228 GFLOPS)
 
EchoeZ schrieb:
Nur fand ich persönlich das Bild viel zu kitschig/bunt. Als ich den Livestream sah, dachte ich mir noch (wg. der Verwechsung), nicht schlecht, wie geil das auf ner 1080 aussieht, und die RX480er so kitschig/bunt renderten wie meine GTX560.. war am Ende dann doch andersrum.
Die Unterschiede im Kontrast der beiden Bilder kommen wirklich nur Zustande, weil beide Karten nicht mit den gleichen Levels aufgenommen wurden. Die Sache mit dem Schnee ist natürlich eine andere Geschichte. Da bin ich auch gespannt wie sich das aufklärt.
 
Um den Fanboykrieg kurz zu unterbrechen: Wann wird die 480 erhältlich sein? Ich habe keine Lust, 74 Seiten zu lesen, seid mir also nicht böse, wenn das schon jemand gefragt hat...
 
njchw schrieb:
Um den Fanboykrieg kurz zu unterbrechen: Wann wird die 480 erhältlich sein? Ich habe keine Lust, 74 Seiten zu lesen, seid mir also nicht böse, wenn das schon jemand gefragt hat...

würde mich auch intreasieren, hab heute fallout 4 gekauft und es ist quasi unspielbar mit meiner hd 6870...ist ende juni weltweiter release?
 
Tec schrieb:
Tomshardware meldet was anderes. Offenbar will man bei Sony die RX480 mit einer Zen CPU verbauen.

Da wäre dann 1440p im VR möglich.

STOP! Toms Hardware(de) hat garnichts zu Zen in der Neo gemeldet.
ICH habe in den Kommentaren nur gefragt, welche CPU denn zur 480 verbaut wird, und vage auf Zen spekuliert ;)
 
Berserkervmax schrieb:
Dat wird ja nix wenn ich sehe was Grade der grüne Riese gebaut hat

Was meinst du? Eine maximal überteuerte Karte die in ganz anderen Regionen verkauft wird als eine 480 von AMD? Ich würde mal schätzen das die 480 Weltweit mehr als 500x mehr als die 1080 gekauft wird. Sogut wie niemand kauft sich Grafikkarten für 700Euro plus. Die mehrheit gibt 150-300 Euro aus. Nur hier in einem Hardwarenerd Forum is der anteil größer.. das is aber kein verlgeich zum Markt.
 
„Shader Intrinsic Functions“ bedeutet eigentlich nichts anderes als den Shader-Code direkt ohne Umwege (HLSL/.. Compiler,…) direkt zu laden. Der Vorteil ist, dass man den Code über mehre Optimierungstufen (bzw. auch von Hand) für sein Target (GCN V X.Y) schon angepasst hat und nicht den HLSL/.. Compiler später etwas produzieren lässt das evtl. nicht optimal ist.

Der Nachteil ist klar, alles vor/nach GCN V X.Y bzw. von anderen Herstellern profitieren davon nicht und muss den normalen Weg gehen (die patchen/optimieren dann wieder im „Treiber“).
 
Zurück
Oben