News Radeon RX 460: Asus-Review-Kit enthüllt Schwäche der 2-GB-Version

moquai schrieb:
Das liest man selten, heute ist es doch meistens so: Zu Weihnachten muss es eine PS 4 sein, der kleine Funkflitzer + Schokomann ist nicht gut genug.
Lustig...
Bei mir ist es damals der Funkflitzer geworden weil er billiger als ein Gameboy war...das war..1990 oder 1991..?...

Oh, OT.

Habe selber noch ne GTX770 mit 2GB. Aber da die bei Witcher3 und hohen details(nicht maximal) schon ins limit rennt und die 40-50FPS gerade so halten kann, bei 1920x1200, wüsste ich nicht was da 2GB mehr bringen sollten(derzeit belegt das spiel maximal 1,3GB im Grafik RAM, lt. RTSS)
Gut, die RX460 wird wohl etwas schneller sein, aber nicht viel. Ich warte noch ein wenig auf die RX480. Sollte noch paar Wochen dauern bis sich der Markt normalisiert hat.
 
Zuletzt bearbeitet:
chatstar schrieb:
Auch das lässt das Namensschema nicht zu, RX 5XX = GCN5!

Falsch!
Vega bekommt schon GCN 5 und jeder weis das ein kleiner Vega kommt und das eine RX490 kommt;)
 
Aso und die 300 serie hat nach deiner aussage GCN 3.0? :freak:

Es gibt von AMD übrigens eine Offiziale aktuelle Bedeutungsbeschreibung.:freaky:
 
Richtig. Trinidad (Pitcairn) war 1.0, Grenada (Hawaii) waren GCN 1.1, Antigua (Tonga)& Fiji GCN 1.2. Polaris wird mit GCN 2.0 betitelt.

Der link von MaW 85 ist ganz interessant. Eine RX 450 kommt wohl auch aber noch weniger Shader? Die ersten Benchmark zeigen das, dass hier eigt. eine RX 450 sein sol(te)l. Zwischen RX 470 (2048) und RX 460 (896) ist mit 1280 Shadern (wie Pitcarin) noch gut Platz.
 
Das GCN Bezeichnungs durcheinander ist vom AMD selber verursacht.
Es gibt die Bezeichnungen 1, 1.1, 1.2, 2.0, 3, 4, 5.
1-1.2 gibt es bis Tonga, Fiji sollte 1.2 werden, aber wegen HBM wurde Fiji GCN 3.
Polaris ist GCN 4 und Vega soll laut AMD 5 werden.
Ja und 2.0 war Tonga und dann eben nicht, da AMD nur die Tesselationleistung richtig verbessert hatte und dann sich gedacht haben nee lieber 1.2. :freak:

Im übrigen die Desktop Lösungen nur einbezogen, Profilösungen außen vor gelassen.
 
Zuletzt bearbeitet:
Ap2000 schrieb:
Selbst in der ~150€ Klasse würde ich heutzutage keine <4GB Karte mehr kaufen.

Und wo findest die 6/8GB bei 150.-?
 
Luxmanl525 schrieb:
Eine 460 GPU in einem Microsoft Surface als Grafikchip? ... Die wird mit Sicherheit um die 90 Watt Plus X Ziehen. Kannst du Vergessen. Jedenfalls in dieser Form ganz sicher nicht. Ich gehe mal davon aus, daß du das auch nicht so ganz Ernst gemeint hast. Oder?

Doch doch, das ist schon ernst gemeint, aber Deine 90W für 2-in-1 Hybrid-Ultrabook-Tablets sind wohl nicht ganz ernst gemeint ;).

Solch eine Lösung mit dedizierter GPU gibt es doch - basierend auf einem nVidia Maxwell 28nm Architektur (GT940m Einstiegschip) - jetzt schon wahlweise beim Surface Book 1. Somit sollte das basierend auf der Architekturschrumpfung zu 14 nm gerade bei der RX 460 möglich sein.

Insbesondere, wenn die Karte in Wahrheit die beschnittene Variante des Polaris 11 Chips sein sollte (und für ein Surface Book 2 dann - wie bei Konsolen und Notebooks oft üblich - untertaktet gefahren werden könnte) und somit kein kleinerer Einstiegschip von AMD in der aktuellen Generation bzw. mit aktueller Technik mehr kommen dürfte.

Du beziehst Dich sicherlich auf die Star Wars Battlefront Demo mit 85-90 W, aber für das ganze System, nicht nur die GPU wie im Bericht erwähnt?

https://www.youtube.com/watch?v=oNA6fll2DDQ

Höchstwahrscheinlich kommt dort eine RX 460 (in Mini-ITX Gehäuse und gegen eine GTX 950 von nVidia antretend) zum Einsatz (die -wie angekündigt - nur über den PCIe Slot laufen kann, somit ist der von Dir angesetzte Verbrauch ziemlich utopisch), aber das ist natürlich nicht vergleichbar mit Laptopkarten/-dGPUs, auf welche der RX 460 Polaris 11 Chip m.E. primär abzielen dürfte (mehr als auf Desktop Systeme, zumal der Markt/Bedarf für diese Leistung dort sehr groß ist und AMD versprochen hatte, eine hohe Priorität bei 14nm Mobilkarten/-chips zusetzen).

Dass die dGPU nicht in Form der RX 460 Desktop-Karte kommen würde, ist ja klar, aber die Hoffnung habe ich schon, dass es in Premium 2-in-1 Hybridlösungen einziehen könnte, wenn auch in etwas gedrosselter Form (aber immer noch deutlich leistungsfähiger als die jetzige 28nm nVidia dGPU im Surface Book 1, die für den Aufpreis wenig taugt/bringt auch wegen des 1 GB Speicherausbaus ... warten wir's ab) ;).
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
Tüdelü, schon wieder der nächste Schwachsinn. Texturen kosten kaum GPU-Leistung, nur VRam und eventuell ein bisschen mehr CPU-Leistung,
Das ist leider falsch, natürlich kostet es Leistung, wenn die entsprechende Datenmenge vorliegt.

Zu deiner letzten Aussage: Schärfere Texturen bewirken auch in sub-Full-HD Vorteile. Letztendlich muss man aber auch die Distanz zur Kamera einbeziehen. Eine 2048-Textur im Bildvordergrund kann zu schlecht sein, die selbe Texturengröße auf ein 5x5 Pixel Objekt ist reiner Schwachsinn.
Wenn die Auflösung nicht hoch genug ist, hast du nur sehr wenig von deinen Riesentexturen.

Viel VRam wird nicht nur durch die Texturengröße selber, sondern auch durch Storage oder Erhöhung der Sichtweite benötigt.
Im Vergleich zu Texturen nur gering und dann ist das auch abhängig von der Engine.

Eine zwanghafte Anpassung der Settings auf weniger VRam kann für mehr Pop-In (siehe Witcher 3 und dessen 2GB-VRam-Target), oder deutlich schlechtere Bildqualität im Vordergrund sorgen. Desweiteren kann es Nachladeruckler etc. pp. geben.
Wenn du die Settings falsch wählst kann immer eine Menge passieren. Du musst diese eben richtig wählen.

Jetzt noch zum kleineren VRam und notfalls Detailreduktion zu raten ist einfach nur noch falsch. Es ist auch nicht notwendig den verdoppelten VRam maximal zu füllen, sobald die einfache Menge nicht mehr für max. Bildqualität ausreicht, hat sich die andere Version schon ausgezahlt.
Das ist halt die Frage, die jeder persönlich für sich beantworten muss, ob eine minimale bis nicht sichtbare Verbesserung der Bildqualität 20% Aufpreis wert sind. Oder ob man nicht lieber das Geld in eine flottere Karte statt in unnötig großen VRam investiert. Was nutzt denn die tollste Bildqualität, wenn du nur eine Diashow hast?
bietet mehr VRam eben auch mehr Zukunftssicherheit.
Das einzige was (annähernd) sicher für die Zukunft ist, ist, dass die gegenwärtigen Karten zu langsam sein und zu wenig Speicher haben werden. Extreme Speichermengen bieten dir keine irgendeine geartete Sicherheit für die Zukunft, noch einen Mehrwert für die Gegenwart
 
Soll ja auch vorkommen, dass es Menschen gibt, denen die Karte mit 2 GB ausreicht, falls Ersatz (defekt der alten Karte, whatever) her muss für Spiele, deren Anforderungen jetzt nicht so super hoch sind. Nicht jeder interessiert sich für "zukunftssicherheit".
 
Der erste "Leak" ist da:

http://wccftech.com/amd-radeon-rx-460-performance-review-leaked/

Damit würde sich eine RX 460 zwischen einer R9 260X und einer GTX 950 positionieren, was voll in Ordnung wäre. Die 2 GB Version müsste allerdings weniger als 150.- EUR kosten, sonst wäre sie keine Alternative zur GTX 950.
 
Zuletzt bearbeitet: (Korrektur)
Diese Leaks gab es gestern auch schon. Aber ob das echt ist, ist ne andere Frage, denn schau dir mal die Fotos an. 470X ist immer vor gehoben und auf einer Folie gibt es allgemein ein Fehler, zwei Zeilen über schneiden sich.

Siehe hier:
http://cdn.videocardz.com/1/2016/08/Gigabyte-RX-460-WindForce-2X-Temperatures.png
 
Zuletzt bearbeitet:
pipip schrieb:
Deathangel008

Und deshalb stimmt die Behauptung immer, weil es bei der 960 GTX und 380 der Fall war ?

Übrigens der Test ist vom 14.12.2015. Wie ist das jetzt der Fall ?

Dass muss zwar nicht immer stimmen, aber wenn ich mir die CoD-Benches anschaue (siehe Volkers Bemerkung hier https://www.computerbase.de/forum/t...aeche-der-2-gb-version.1606960/#post-19106343), dann kommt die GTX 970 mit ihren verkrüppelten 4GB offenbar besser zurecht, als die 470 mit vollwertigen 4GB.

https://www.computerbase.de/artikel...diagramm-call-of-duty-black-ops-iii-1920-1080
 
Kisser

Da hast du recht, trotzdem ist es nur eine Vermutung. Die 970 hat wegen ihrem Speicher seitens NV ein spezielles Augenmerk, was Treiber angeht. COD Engine speichert alles ab und füllt den VRAM aus. Bei 8 GB gibt es dann kein Problem mehr. Dass das nicht zum Problem wird muss man das per Treiber optimieren. Die 970 wird hier die benötigten Optimierungen haben und die RX sind einfach neu. Interessant ist es, wie es beim kommenden COD dann aussieht.
 
Zuletzt bearbeitet:
Wer spielt denn mit dieser Grafikkarte bitteschön Hitman? Die AMD 460 ist für Moba Spiele konzipiert.
 
z.b. leute die nicht so viel geld für ne graka ausgeben können/wollen bzw ein game nicht nur wegen der grafik zocken. soll es auch geben.
 
den meisten Argumenten nach:
1. mehr Speicher ist immer besser
2. mehr Performance ist immer besser
3. die x € mehr sind absolut gerechtfertigt für Punkt 1 und 2
4. ohne 1 und 2 kann man ja quasi gar nicht spielen, sozusagen ein Ding der Unmöglichkeit

gibt es eigentlich aktuell nur eine sinnvolle Grafikkarte TitanX ... mit allem darunter ist Gaming ja quasi unmöglich ..

ich frag mich echt, wie ich es überlebe mit meiner (inzwischen ja quasi unbenutzbaren) R9 280x zu zocken ..

sicher, das ich nicht schon tod bin?

hört endlich mal auf dauernd über den selben Sche*ss zu streiten .. weil eine Diskussion herrscht in aktuellen Grafikkarten Themen schon lange nicht mehr.
Dauernd die selbe Leier.

Produkt (insert here) ist doof weil:
- es x Watt mehr verbraucht
- es x FPS weniger hat
- es x € kostet
- es grün oder rot ist ..

es soll auch heutzutage echt Menschen geben, denen eure Fanstreiterein völlig egal sind .. echt jetzt!
und wisst ihr was diese Menschen machen?!

die setzen sich ein Budged von XXX€ und kaufen dann dafür das maximal mögliche .. und wenn dafür dann das Gehäuse bissl schlechter ist, oder die Grafikkarte 2 dB lauter, können diese doch echt damit leben ..

unglaublich oder?

so oder so, kann man sich nur noch an den Kopf greifen bei soviel Kurzsichtigkeit die hier geschrieben wird ..
eine Ansammlung an ausgewählten Fakten, die immer so gewählt worden, das entweder A besser oder B schlehcter dasteht ...

kommt bitte endlich mal wieder runter!

Danke! schönen Sonntag
 
Zurück
Oben