News Radeon RX 480: 18-cm-Platine, 60 °C unter Last, DVI als Option

Luxmanl525 schrieb:
Persönlich würde ich bei Full HD jedenfalls nicht von einer GTX 960 auf eine RX 480 Umsteigen. Das ergibt im Großen und Ganzen keinen sonderlichen Sinn.

Hmm...
960_vs_390X.PNG
https://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistung

Eine Mehrleistung von knapp 50%-60% wird sich ziemlich sicher gut bemerkbar machen. Und das Diagramm ist nur für FullHD und ohne viel Kantenglättung.

edit:
Und falls es eine GTX 960 mit nur 2GB VRAM ist, lohnt es sich definitiv.
 
Wadenbeisser schrieb:
@ ampre
Ich habe bisher keinerlei Belege für deine Aussage oder Widerlegungen meiner Aussage gesehen.
Damit behaupte ich einfach mal das du das 0815 geblubber das ständig wiederholt wurde einfach nur nachplapperst.
Pascal kommt einfach nur besser mit Async Compute klar und das hat recht wenig mit deiner parallel/seriell Theorie zu tuen.
Hättest du verstanden worum es dabei geht dann wüßtest du auch das mit diesem Lückenfüller die Befehle dennoch seriell weiter laufen, nur eben mit weniger Lücken dazwischen und genau deshalb geht auch mehr durch.




Pascal ist auch noch Serielle. Die mussen die ganze gpu anhalten wenn ein priority Task kommt. Das ist Fake Async Compute und hilft nur dabei das die Werte nicht schlechter werden als bei dx12

Belege gibts hier:
http://www.dsogaming.com/news/amds-...re-more-friendly-to-parallelism-than-maxwell/

And as for AMD’s underwhelming DX11 results, Mahigan claimed that this is mainly due to GCN’s architecture, as the graphics cards are limited by DX11’s 1-2 cores for the graphics pipeline.

only way around this issue, if you want to maximize the use of all available compute resources under GCN 1.1/1.2, is to feed the GPU in Parallel… in comes in Mantle, Vulcan and Direct X 12.”
 
Zuletzt bearbeitet:
Es ist eine GTX 960. gezockt wird auf WQHD und 4K Lowsettings

Bringt die 8GB version soviel mehr bei der RX480? Bin nahmlich knapp in der kasse und würde gerne zur 4GB Version greifen
 
@ ampre
Was schreibst du da für einen Quatsch?
Async Compute ist ein Teil von DX12, nicht von DX11 und so wie ich es verstanden habe soll ein solcher priority Task zuerst durch die Pipeline gehen, gerade weil er wichtiger als die anderen ist.
 
Zuletzt bearbeitet:
@ ampre
Wenn ich mich recht erinnere ist der obere Teil das was Maxwell könnte wenn die Software Ansteuerung nicht zu lahm wäre. Deshalb verliert er ja auch an Leistung beim Einsatz von Async Compute.
Ergänzung ()

@ampre
Ach wo ich jetzt noch dein Edit mit den beiden Zitaten lese....da steht auch nichts anderes drin als das was ich bereits schrieb.
DX11 kann nur 1-2 CPU Kerne für die graphics pipeline nutzen udn dadurch wird die GPU limitiert. Mehr ist dann mit Mantle, Vulcan und DX12 möglich, die Last wird also auf mehr CPU Kerne verteilt und diese können die GPU dann besser mit Daten füttern.
 
Fritzibox schrieb:
Es ist eine GTX 960. gezockt wird auf WQHD und 4K Lowsettings


Bringt die 8GB version soviel mehr bei der RX480? Bin nahmlich knapp in der kasse und würde gerne zur 4GB Version greifen

Wieso spielst du mit einer 960 in 4k?
Aeltere games sind kein ding aber bei neuen versteh ichs nicht.

Genau sagen kann mans nicht, musst wie alle anderen das nda abwarten dann weis man wo die genau liegt.
Und wenn du schon auf wqhd und 4k wert legst, aufjedenfall die 8gb
 
@ ampre
Die Aussage, dass Pascal Async compute nur über Pixellevel-Preempten kann (was eben nur feiner granular ist und damit eine geringere Latency hat als herkömmliche Preemption an draw call boundaries), stammt afaik nur von diversen Newsseiten und nicht von NVIDIA direkt. Als Quelle scheinen die Newsseiten, zumindest den Bildern und der Teils falschen Paraphrasierung nach zu urteilen, das NVIDIA Whitepaper zur Geforce 1080 GTX genommen zu haben:
http://international.download.nvidi...al/pdfs/GeForce_GTX_1080_Whitepaper_FINAL.pdf
Interessanterweise wird hier unter dem Punkt async Compute differenziert zwischen dynamic load Balancing und Preemption: Dynamic load Balancing sorgt in dem Falle, das eine Anwendung Graphik und Compute gleichzeitig berechnet um die GPU besser auszulasten, für eine "effiziente" Balancierung der Rechenressourcen. Pixel level Preemption macht Rechen/Speicher-Ressourcen auf der GPU für Aufgaben mit hoher Priorität frei. Dementsprechend hat bei den Newsseiten hier nur das Textverständnis versagt, was viele Leute dann unreflektiert in die Foren übernommen haben.
 
Zuletzt bearbeitet:
KlaasKersting schrieb:
Welchen Sinn soll das ergeben?
Ich kaufe eine spezielle Custom-Lösung mit DVI anstatt ein 10€ Kabel?

Da ich kein Markenfetischist bin und die Karten aller AMD Boardpartner (außer ASUS und wahrscheinlich Club 3D) für mich in Frage kommen, denke ich, dass es genügend Auswahl an RX 480 Custom-Karten mit DVI Port geben dürfte. Aufgrund der Verfügbarkeit wird es wahrscheinlich eine OCed RX 480 Custom Karte von Sapphire, XFX, MSI oder GigaByte werden, auch wenn ich HIS, VisionTek oder Powercolor gerne einmal eine Chance geben würde.

Des Weiteren ist nicht davon auszugehen, dass diese Karten wegen eines DVI Ports einen spürbaren Aufpreis haben werden und es zudem keine Custom-Karte mit RX 480 Chip eines Herstellers geben dürfte, die in allen Belangen - also Karten-Hauptattributen (wie Temperatur, Effizienz, Leistung/OC-Potential und Lautstärke) und Preis - die Konkurrenzkarten anderer Boardpartner übertreffen wird können.

Wenn also bei gleicher Verfügbarkeit und ähnlichem Preis zwei empfohlene/gleichwertige Karten sich anbieten und eine davon einen DVI Port bietet, wird dieser für mich den Ausschlag geben, so einfach ist das ;). Ein DP1.2 Monitorkabel wird bei meinem nächsten Monitorkauf unnütz sein und die "10€" oder einen Adapter werde ich mir - wenn möglich - gerne sparen.

Alkcair schrieb:
Bei mir wäre es ein ca. 10 m langes DVI->HDMI-Kabel zum Fernseher, das ersetzt werden müsste.

Naja, Du könntest einen Adapter kaufen, aber wozu (?), wenn einige Hersteller weniger flexibel sind und es gleich gute Produkte anderer Boardpartner geben wird, dann wird das evt. auch zu einem Kaufkriterium.

Warten wir ab, was geboten wird, ich denke der Bedarf an DVI ist momentan insgesamt immer noch größer als von 3x DP1.3 (DP1.4) für einen 3-Monitorbetrieb, insbesondere in diesem Preissegment (Mittelklasse).
 
Hallo zusammen,

@ Fritzibox

Fritzibox schrieb:
Es ist eine GTX 960. gezockt wird auf WQHD und 4K Lowsettings

Bringt die 8GB version soviel mehr bei der RX480? Bin nahmlich knapp in der kasse und würde gerne zur 4GB Version greifen

Ist das die 2, oder die 4 Gbyte Ram Version der GTX 960? Und was für eine ist es? Ansonsten empfehle ich dir auf jeden Fall einfach mal zu Warten, bis die RX 480 draussen ist. Im Grunde kann man keine wirklich gesicherte Aussage zur Leistungsfähigkeit Treffen.

@ DrToxic

Das kommt darauf an, welche GTX 960 er hat. In dem von dir aufgeführten Bench ist eine Stinknormale Stock-GTX 960. Die meisten Partnerkarten sind aber stark Übertaktet. Die ein oder andere sogar Exorbitant Stark Übertaktet. Es hängt also davon ab, welche er hat. Und mit wieviel Kartenram sie ausgestattet ist.

Möglicherweise könnte er sogar noch Besser Fahren, wenn er eine GTX 980 nimmt, die stark im Preis gefallen ist und noch weiter fällt. Manche kriegt man schon für 330 €.

So long...
 
Iscaran schrieb:
....

249$ = 220.01€ + 19% Mwst = 261.81 €...siehe DA ...ein Wunder...die Preise unterscheiden sich nur um 10€ !

Vermutlich muss man also beim import NACH China aus USA tatsächlich etwas Zoll-Zahlen (oder Bestechungsgeld oder sowas)...ca. 10€ bei 250€ Wert also ca. 4%

Und zudem von wegen 350€....bei uns.

Hast du schön gerechnet. Nur bei den 10€ haste was übersehen. Ich gehe von aus das alle Bilder von einer "Art" Karte sind. Dann kommen die 10€ eventuell einfach dadurch zustande, weil die KARTE BEREITS ÜBERTACKTET VERKAUFT WIRD. Wir sehen hier also eventuell schon eine overclocked Variante eines Herstellers....
 
Überlege gerade, ob sich ein Umstieg von einer R9 380X leistungsmäßig doch bemerkbar machen würde...
 
Messbar sicherlich, ob dadurch ein Spiel, was bisher bei dir derzeit schlecht läuft, dadurch gut spielbar wird, naja...
Ich glaube nicht, dass es finanziell für dich sinnvoll ist. Wäre dir Geld egal, hättest du ja jetzt schon eine größere Karte, da Geld also nicht egal ist, würde ich es lassen.
 
Brogan schrieb:
Geil, Dann kann ich ja wirklich 4 davon mit Wakü auf meinem X58A-UD5 laufen lassen. DANKE AMD!

P.S. 1-2 zum spielen, der Rest darf arbeiten.

Bist Du sicher, dass das geht? Ich hab selber ein X58 Board und mir wurde damals von einigen Leuten von einem 290 Crossfire abgeraten, da "bridgeless Crossfire" wohl nicht zu 100% funktionieren soll auf dem X58 Chipsatz :/ Würde gerne noch ne 2. dazu stecken.
 
@Schlumpfbert:

Naja, betrachte mal das obere Bild mit den Benchmarks, eine 390X hat bereits eine Mehrleistung von ca. 40% ggü. der 380X (auf dem Bild ist nur eine 280X, diese ist aber nicht wesentlich schwächer). Von daher finde ich deine Aussage nicht zutreffend.
 
DVI als Option macht mich sehr, sehr glücklich! :)
 
Sahit schrieb:
Ich kenne aktuell kaum Leute die DP benutzen.

Du wirst auch kaum Leute kennen, die als Muttersprache Suaheli sprechen und dennoch gibt es sie. Dein Wissen oder Nicht-Wissen über irgendwas hat Null Relevanz.
 
@-Spectre-
Das stimmt, da man den 480 offenbar gut übertakten kann, mögen es auch 50% sein.
Aber rechtfertigt das einen Neukauf, wenn man schon eine 380X hat, die heute ja schon nicht gerade schlecht da steht und mit zunehmender Anzahl von DX12 Spielen auch später noch gut zurechtkommen wird? Denn für die alte Karte wird man nach dem Launch nicht mehr sehr viel bekommen.
Aber letzten Endes muss es jeder für sich selbst entscheiden.
 
Fritzibox schrieb:
Es ist eine GTX 960. gezockt wird auf WQHD und 4K Lowsettings

Bringt die 8GB version soviel mehr bei der RX480? Bin nahmlich knapp in der kasse und würde gerne zur 4GB Version greifen

Meine Güte, die Karte kommt erst am 29. Juni raus.
Warte doch einfach die Tests ab... :rolleyes:

Tulol schrieb:
Also benutzt du einen Fernseher als PC Monitor?

Zeig mir einen Fernseher, der in den letzten 10 Jahren verkafut wurde und VGA hat. lol
 
Zuletzt bearbeitet:
Zurück
Oben