News AMD Radeon R9 285 ab 2. September für 249 Dollar

xyz

Ja, das passiert wenn man nicht ganz bei der Sache ist ^^ Aber ich habe von Anfang an eigentlich die 7770 und 5770 gemeint ^^ (Mir ging eigentlich darum dass die GPU A mit 800 Shader und mehr Rohleistung trotzdem langsamer sein kann als die GPU B mit 640 Shader mit weniger Rohleistung), denn die 7750 ist ja nicht schneller als die 5770.
Irgendwann kommt man bei den ganzen 5, 7 Ziffern auch durcheinander :D

5770, 7770, da kann auch mal schnell 5570, 7550, 7750,5750 ect passieren :D

Also kurzgefasst, mir geht es darum, gflops, Anzahl der shader ect, man kann nicht unbedingt daraus schließen ob jetzt die eine GPU schneller ist. Es kommt eben auch auf die Architektur an, und das hat eben VLIW5 vs GCN, oder Maxwell vs Kepler gezeigt.
 
Zuletzt bearbeitet:
Uiuiui also hier wird ja wieder ein Zeug zusammengedichtet, dass einem die Haare zu Berge stehen.
Zunächst mal GPGPU wird für Spiele nie direkt von Relevanz sein und TressFX hat mit GPGPU genau so viel zu tun wie HDR oder Tesselation nämlich erst mal gunnix. Mag sein, dass vllt. irgendwann Spieleengines auf die DoublePrecision Einheiten zugreifen werden, aber dann in einer weit entfernten Zukunft, wenn keiner mehr weiß was Kepler oder Tonga überhaupt ist. Momentan macht es einfach überhaupt keinen Sinn, weil eine so hohe Gleitkommagenauigkeit für Spiele einfach sinnfrei ist.
Nächster Punkt: Viele glauben offenbar immer noch NVidia habe bei Kepler die GPGPU Leistung gegenüber Fermi beschnitten, das stimmt so aber auch nicht ganz. Die Double Precision Leistung wurde bei GK104 beschnitten. Diese ist für Spiele aber wie gesagt komplett egal und da GeForce Karten seit jeher genau dafür gut sein sollen verstehe ich die Aufregung nicht ganz. Wer ernsthaft GPGPU Computing betreiben will und die DP Rechenleistung wirklich braucht hat genug Geld um sich eine Tesla oder FirePro anzuschaffen.

Zur R9 285: Mit Glück in etwa auf Augenhöhe mit einer GTX680 und vllt. minimal sparsamer so schätze ich die Karte mal ein. Für Maxwell noch kein wirklicher Gegner.
 
garrulus schrieb:
SirBerserk, du solltest mehr den Konjunktiv verwenden: dürfte, könnte, würde usw. gespickt mit ein paar: möglicherweise, vielleicht, wahrscheinlich usw. dann kommen deine Spekulationen nicht ganz so wie Tatsachen rüber. Wenn man liest "maxwell performance/verbrauch steigt nicht linear aber dennoch krass besser als tonga oder kepler" fragt man sich schon, woher weiß der Junge das, es gibt doch noch gar keine Tests?

hab ich gerade eben nachträglich eingefügt^^

zur 285 kann man das wohl schlechter sagen als im vergleich kepler und maxwell, dazu gibts bereits tests. das sind über 30% weniger verbrauch bei gleicher leistung. das lässt sich auch auf die kommenden grafikkarten bis zu einem gewissen grad übertragen aber eben nicht linear. das hab ich nicht machen müssen aber aus fremdwerbung, was hier nicht gerne gesehen wird, verlinke ich das nicht direkt und gebe das nur indirekt wieder. anhand des gm107 chips der 750ti können die gut einschätzen was wie schnell werden wird.

was den realen stromverbrauch der 285 angeht lass ich mich jetzt einfach überraschen ohne das weiter zu kommentieren.
 
Mal was anderes, die Karte hat doch "True Audio" integriert und kann als erste und bisher einzige das neue DirectX 12, oder?
 
klasse AMD Haben die sich nicht mal lustig über Gsync gemacht weil es zu teuer sei ,und jetzt mußt man sich eine neue Grafikkarte und einen neuen Monitor für Freesync Kaufen.:stock:
 
FreeSync wird mit jeder GCN-Grafikkarte funktionieren ;)
 
für FreeSync braucht man aber keinen monitor mit teurem modul.

für FreeSync braucht man keine neue grafikkarte...
Ergänzung ()

juwa schrieb:
und kann als erste und bisher einzige das neue DirectX 12, oder?
sollte mit jeder DX11.0 karte gehen, halt das minimale featureset.
 
Die R9 285 unterstützt als erste Grafikkarte Freesync.
das war einer der zehn gründe warum man sie die tonga kaufen sollte.
Oder hab ich da was falsch verstanden.
und dein Monitor muß Displayport 1.2a unterstützten damit es funktioniert.
 
nein, jede karte ab GCN unterstützt FreeSync.
 
Jede Karte mit Graphics Core Next Architektur unterstützt FreeSync.

Und es gibt keinen "Gaming Part" @Sontin ;)

btw. war HD3D ne ganz andere Baustelle. Hier hat AMD sich auf Dritthersteller verlassen die auch noch die Treiber usw. liefern sollten. Das ging natürlich in die Hose. Aber bei FreeSync ist ein Standard der VESA dahinter, also wird das schonmal nicht so ein Desaster ;)
 
juwa schrieb:
Mal was anderes, die Karte hat doch "True Audio" integriert und kann als erste und bisher einzige das neue DirectX 12, oder?
Ja steht doch auf der AMD Folie da, der Chip unterstützt DX12, Mantle, TrueAudio und FreeSync.
Ich frag mich wie sich der Chip GPGPU mäßig gegen Tahiti schlägt, AMD bewirbt Tonga ja ausdrücklich als Gamerkarte, ob man da jetzt ähnlich vorgeht wie bei Nvidia? Mir wärs lieber, wenn der Stromverbrauch dadurch merklich sinkt und natürlich solange Spiele von FP32/64 Einheiten nicht profitieren. Aber es ist wohl nicht wirtschaftlich, Gamer- und Profi-GPUs separat zu produzieren.
@deltay: der entscheidende Unterschied ist, mit nem DP1.2a Monitor bindest du dich nicht an AMD, mit nem teuren Gsync Monitor musst du quasi nur noch Geforce kaufen. Gsync Modul = only Nvidia, DP1.2a = VESA Standard.

Edit: nein nicht jede GCN Karte unterstützt FreeSync, sondern nur die GCN1.1 GPUs, also R9 290(X), 260(X) und eben 285(X), sowie Kaveri APUs. Weil bei denen ein entsprechender Display Controller integriert ist.
Aber nochmal, den Monitor wechselt man viel seltener als seine Grafikkarte, daher ist mMn ein DP1.2a Monitor viel attraktiver als einer mit Gsync Modul. Wenn Nvidia AdaptiveSync auch mal unterstützt, kann ich die Technik auch mit einer Geforce verwenden. Ein Gsync Monitor wird definitiv immer teurer sein.
 
Zuletzt bearbeitet:
canada schrieb:
Wo steht da was von Leistung?!?! Was die Karte leistet kann doch noch garkeiner Wissen *Kopf schüttel*

Es ist echt nicht mehr schön wie manche hier schon über Karten herziehen, obwohl es noch keinen einzigen unabhängigen Benchmark gibt, nur weil die Karte die falsche Farbe hat.

Im gleichen Atemzug aber Karten die bis dato nur auf dem "Reisbrett" existieren schon mal in den Himmel gelobt werden, da diese Karte wenn sie denn mal kommt, die richtige Farbe besitzt.

Wie wär es denn einfach mal mit abwarten, was die ersten Tests sagen, immer diese sinnlose "Fanboy" Gelaber und angreifen gegenseitig.

(G)FLOPs sind ein Maß zur Leistungsmessung. :stock: Und die fallen im Vergleich zum Tahiti Chip geringer aus.
 
ist aber nur eine angabe der theoretischen leistung!
 
zeedy schrieb:
.
@deltay: der entscheidende Unterschied ist, mit nem DP1.2a Monitor bindest du dich nicht an AMD, mit nem teuren Gsync Monitor musst du quasi nur noch Geforce kaufen. Gsync Modul = only Nvidia, DP1.2a = VESA Standard.

Was gibt es denn für andere Hersteller?Warum sollte man kein Amd Karte nicht mit Gsync Monitor betreiben können?
es ist schon klar das dann die Gsync nicht funktioniert aber alles andere sollte da kein Problem da stellen.
 
Theoretisch hin oder her, die Leistung wird gemessen. So what?
 
deltay schrieb:
Was gibt es denn für andere Hersteller?Warum sollte man kein Amd Karte nicht mit Gsync Monitor betreiben können?
es ist schon klar das dann die Gsync nicht funktioniert aber alles andere sollte da kein Problem da stellen.

Wäre aber Schwachsinn, bei einem Gsync Monitor nicht von der Technik zu profitieren. Natürlich könnte es auch Gsync Monitore mit AdaptiveSync geben, aber die wären definitiv teurer und es ist gut möglich ,dass nvidia es schlicht verbietet, genauso wie seit dem neuesten Treiber, der GPU Physx deaktiviert, wenn (neben ner Geforce für Physx) eine AMD im System arbeitet.
Schon seltsam, dass auf CB über sowas nicht berichtet wird ;)

Also, Nvidia wäre schön blöd, neben seiner eigenen Sync Technik auch eine andere zu unterstützten...logisch oder

@Mr.Seymour eine 780Ti hat ein viel geringere theoretische Rechenleistung als eine 290X, ist in Spielen aber ein Stückchen schneller.
 
Zuletzt bearbeitet:
Dass deine auf 1125 Core Takt läuft hast mal glatt unterschlagen was? :rolleyes:
 
Cr@zed^ schrieb:
Außer bei Vorteilen in der Leistungsaufnahme sehe ich keinen Grund warum man die Karte kaufen sollte? Hab ich da was verpaßt?
Natürlich hast du was verpasst. Du denkst wohl auch das es nur dich gibt und sich die Welt um dich dreht. Doch es gibt auch noch andere Menschen auf diesem Planeten. Das hast du nämlich verpasst.
Mitte November will ich eine Grafikkarte kaufen im Preisbereich bis 200€. In deiner mini Welt, welches Produkt soll ich dann kaufen?
 
Zurück
Oben