Test AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro

Nolie schrieb:
Wie sieht das eig aus ? Kann man die 4Gb version auf 8Gb umstellen ? Habe da öfter was drüber gelesen... Sind es gerüchte oder ist wirklich was dran ?

Ich weiß das man die Test Grafikkarte umstellen kann, aber geht es auch bei den "normalen"

Du kannst ein 4GB BIOS auf eine 8GB flashen und nur den halben Speicher benutzen.
Die 4GB Karten haben physikalisch nur 4GB drauf, da hilft auch kein BIOS-Flash.
Ausser du benutzt Siemens Lufthaken um das BIOS anzuflanschen.
 
xeonking schrieb:
ich denke das die nur für die testkarten galt. aber davon mal abgesehen, bei den paar euro aufpreis würde ich eh gleich zur 8gb version greifen.

Ich würde mir wirklich eine Hilfestellung wünschen. Mal lese ich "mehr GB RAM ist immer besser", dann wieder "ja, aber die 480 ist zu schwach um alle 8 GB zu nutzen", dann sehe ich in Tomb Raider um die 7 GB genutzt, dann heißt es darauf "ja, aber mit 4 GB RAM würde es wahrscheinlich genauso laufen" :(
Was bringen denn nun die +4 GB am Ende? Kann vielleicht jemand zu einer hilfreichen Gegenüberstellung verlinken?
Ich nutze meinen Rechner zum gelegentlichen Spielen - aber noch mehr zum Bild-/Videobearbeiten und 3D Modelling.
Es wäre imo sehr hilfreich, würde auch in Tests darauf eingegangen werden, für welche Bereiche sich eine solche Karte eignet und für welche eben nicht.
 
@allel:

Entweder 2x6 Pin oder 1x8 Pin. Mehr braucht man nicht.

@Lyle: In den letzten Jahren ist der V-Ram Verbrauch bzw. Gebrauch immer weiter gestiegen und das wird durch die neuen Konsolen auch in Zukunft weiter steigen.

Es gibt z.B. paar Spiele,wo man die Texturenauflösung und Renderauflösung einzeln hochschrauben kann. Texturen kosten sogut wie keine Leistung,und je mehr V-Ram du hast,desto hochauflösendere Texturen kannst du nehmen.
Wenn du aber zu wenig V-Ram hast und denn die höchsten Texturen nimmst,kommt es zu Nachladerucklern.

Bei der Renderauflösung sieht es so aus,das diese auch viel Leistung frisst. Und hier würde dann eher die Leistung nicht mehr ausreichen als das der komplette V-Ram voll wird.
 
Vielen Dank, Dreamliner.
Naiv gefragt: wenn ich primär nur Video-/ und Bildbearbeitung durchühren möchte, und eine gute CPU hätte - wäre die 480 eine geeignete Karte für den Einsatzbereich? Von 350+ € teuren GraKas habe ich Abstand genommen, da es meist hieß: CPU ist in dem Bereich viel wichtiger als eine starke GraKa.
 
Plaste schrieb:
Die 4GB Karten haben physikalisch nur 4GB drauf, da hilft auch kein BIOS-Flash.

Nee, eben nicht. Angeblich soll es anfänglich Lieferengpässe bei den kleineren Speicherchips gegeben haben, sodass auch bei den 4GB-Karten die größeren Chips verbaut wurden. Das bedeutet, dass sich die allerersten Chargen(?) der Karten tatsächlich auf 8GB flashen lassen sollen:

"That means that the cards that go on sale today listed at 4GB models will actually have 8GB of memory on them! With half of the DRAM partially disabled, it seems likely that someone soon will find a way to share a VBIOS to enable the additional VRAM."
http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview

"all the cards you can buy on store shelves right now have 8GB of memory on them and you can save yourself $40 and get 8Gbps memory!"
http://www.legitreviews.com/amd-radeon-rx-480-4gb-video-cards-8gb-memory_183548
 
@ masterq
Photoshop, After Effects, Premiere Pro, Illustrator
Cinema 4D, Blender

Danke!
 
Ob die CPU oder GPU entscheidend ist, hängt von Deinen Programmen ab. Gerade im Bereich Videobearbeitung rennen viele Programme (Sony Vegas) DEUTLICH schneller über die GPU. Auch hier ist die RX 480 aber sehr gut geeignet. Wenn Dein Monitor 1920x1080 auflöst, nehme 4 GB, wenn 2560x1440 oder höher auflöst, nehme 8 GB.
Wenn Du kannst, warte aber auf die Customs. ;-)
 
DrToxic schrieb:
Das bedeutet, dass sich die allerersten Chargen(?) der Karten tatsächlich auf 8GB flashen lassen sollen

Hat das schon jemand versucht und war erfolgreich?
 
Angeblich bestand diese erste 'Charge' nur aus den Testmustern, welche an die Redaktionen herausgingen. Das ersparte Zeit und Geld, weil man nur einen Typ dafür bauen musste und den Rest per Software festgelegt hat.
 
Lyle schrieb:
Was bringen denn nun die +4 GB am Ende?
Naja, Praxisbeispiel ist zum Beispiel DOOM: Auf 5+ GB Karten laesst sich so Texturqualitaet&Schattenqualitet noch ein bisschen mehr aufdrehen. Es sieht marginal besser aus, frisst aber auch deutlich Performance. Bei der RX480 aber noch deutlichst in spielbaren Regionen bei 1080p mit 70-110fps.

Ergo laesst sich mit 4+ GB in Zukunft auch noch Qualitaet rausholen. Man muss den freien Speicher ja nicht zwangsweise nur fuer hoehere Aufloesungen nutzen.

Meiner Meinung nach lohnen Sidegrades (also von 970 auf rx 480 z.B.) nur bedingt. Bei 1080p lohnt der Zusatz an VRAM nicht wirklich. Fuer hoehere Aufloesungen bei 60hz ist die RX 480 nicht wirklich stark genug. Aber sollte man aktuell unter 4GB haben sollte man definitiv nicht wieder auf 4GB abzielen. GTX 1060 mit 3GB ist quasi die Definition der Kundenverarsche, da das suggeriert, dass 3GB fuer 1080 ausreichen wuerden. Ausserdem schaden die extra 2/4GB nicht wirklich, da sie nur marginal den Verbrauch erhoehen.

Abschliessend sei noch gesagt, dass die Spielestudios mehr VRAM verwenden werden, sobald der Durchschnittskonsument mehr VRAM hat. Entweder verschwenderisch oder sinnvoll, aber definitiv mehr. Einzige Bremse an der Stelle sind die aktuellen Konsolen. Das ist auch der Grund, wieso ich die ganze Leistungsdiskussion aktuell fuer nur bedingt sinnvoll halte und bezweifle, dass wir wirklich sinnvolle Einsatzzwecke fuer GTX 1070/1080 bis Weihnachten 2017 sehen werden. Da muessten sich im PC Segment 120+Hz displays oder 4K displays sprunghaft durchsetzen. Wahrscheinlicher ist jedoch, dass 4K Fernseher schneller in den Wohnzimmern stehen.
 
komischefrage schrieb:
Schaut euch das video an!
https://www.youtube.com/watch?v=nKcHR1qW3w4

Die Karte zieht 250 Watt im letzten test und wird als 150Watt Karte vermarktet.

Dagegen ist der 3,5GB Bug der GTX 970 gar nichts :D

Und nein die NV Karte zeiht KEINE konstanten 124Watt über dne PCI Express stecker.
Es sind nur Peaks die Maximal 1 Sekunde dauern und welche zu vernachlässigen sind.
Die Radeon hingen zieht Permanent +50 Watt mehr.

Das ding gehört in KEINEN Rechner gesteckt.

Sorry, aber Furmark im Extreme Burnin nutzt heutzutage keiner mehr. Damit kann man inzwischen sogar Grafikkarten zerstören. Selbst meine 290X inkl. Customkühler bekomme ich damit gegrillt. Und die wird bei Spielen maximal 60 Grad warm. Die Sappnungswandler maximal 70. Furmark jagt letztere auf 95 Grad und mehr hoch. Und schluckt auch 100 Watt mehr, als Gta V oder the Evil Within. Und rechnen wir die CPU - LAST raus sind es sogar 150 Watt mehr. Furmark belastet die CPU ja kaum.

Nebenbei wird die 480 außerhalb der Spezifikation betrieben.

Und was die Spawa auf Mainboards angeht, was kann Amd dafür, wenn Hersteller ein paar Cent sparen und minderwertige Komponenten verbauen. Gibt übrigens auch ein paar H61, die bei einem 2600 oder 3770 schlapp machen.

Und wer sagt mir, dass die Peaks egal sind? Ich will keine Karte, die, die Spezifikation überschreitet.
 
Ich dachte bei den präsentierten Fällen hinge es an der Verjüngung in der Leitung direkt am PCI-SLOT da kann man dann die Leitung größer machen
 
Sitze auch hier mir einer 4gb der ersten Charge. Einfach mal den Lüfter runtermachen, auf den Speicherbausteinen steht dann eine Nummer drauf. Glaube f am ende sind die 8gb module
 
thes33k schrieb:
Naja, Praxisbeispiel ist zum Beispiel DOOM: Auf 5+ GB Karten laesst sich so Texturqualitaet&Schattenqualitet noch ein bisschen mehr aufdrehen. Es sieht marginal besser aus, frisst aber auch deutlich Performance. Bei der RX480 aber noch deutlichst in spielbaren Regionen bei 1080p mit 70-110fps.

Das sagt noch lange nichts aus über die Spielbarkeit, das kann auch ruckeln wenn die Frames einbrechen.

AMD RX480 Overview and DOOM 1080p
https://www.youtube.com/watch?v=HIhbaP6HHnU&t=1m30s
 
@Marco
Ich zocks auf der XFX Black Edition in 1080p mit ultra+nightmare settings auf nem 144hz display. Ich kann das nicht so wirklich nachvollziehen und erst recht nicht mit nem youtube clip, der nur 30 fps hat.

[hier stand quatsch]
 
Zuletzt bearbeitet:
KTelwood schrieb:
Wir haben doch schon erlebt, dass AMD manchmal Nachhilfe braucht beim Layout. So versagten doch CPU-Spawas durch überhitzung bei der Verwendung von Kühlern ohne Top-Blow reihenweise.
😐 Achso, jetzt ist AMD auch noch Schuld daran wenn Firmen wie Asrock bei ihren Mainboards an der Spannungsversorgung und deren Kühlung schlampen/sparen. Logisch 😲
 
thes33k schrieb:
@Marco
Ich zocks auf der XFX Black Edition in 1080p mit ultra+nightmare settings auf nem 144hz display. Ich kann das nicht so wirklich nachvollziehen und erst recht nicht mit nem youtube clip, der nur 30 fps hat.

Kann man DooM nicht mit QL vergleichen ?

Beide benutzen doch openGL

Meine Befürchtung ist, das die openGL Leute bei einer nV bleiben müssen.
 
Zurück
Oben