• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News AMD Radeon R9 285 ab 2. September für 249 Dollar

marv04 schrieb:
Bezüglich FreeSync; welche Grafikkarten werden nun unterstützt (GCN 1.0 und 1.1 oder nur Letztere) ? Dazu benötige ich, wenn ich das richtig verstanden habe, einen Monitor, der einen gewissen Standard unterstützt. Also werden eine große Anzahl neuerer Monitore, aber längst nicht alle unterstützt ?! (wie stehts mit dem u2311 aus) ?

Ich blick da langsam nicht mehr durch.

Danke im Vorraus

Für Adaptive Sync in Spielen - ich denke mal darum geht es dir - brauchst du eine GCN 1.1-Karte, also eine 290er, 285er oder 260er. Als Monitor brauchst du einen mit Displayport 1.2a und Adaptive Sync Kennzeichnung. Adaptive Sync ist nämlich lediglich ein optionales Feature von Displayport 1.2a. Die ersten Monitore kommen irgendwann 2015.
 
Zuletzt bearbeitet:
Schon komisch, dass hier kaum wer meckert, dass der Speichercontroller verkleinert wurde. Bei Nvidia Maxwell gabs nen riesen Aufschrei.
 
Bin mal auf die Tests dann gespannt, vor allem ob sie an eine 280X ran kommt - auch wenn ich es eher bezweifle.
 
Mr.Seymour Buds schrieb:
Schon komisch, dass hier kaum wer meckert, dass der Speichercontroller verkleinert wurde. Bei Nvidia Maxwell gabs nen riesen Aufschrei.

Sry, nimm das nicht persönlich, aber du bist echt ein Beispiel, wieso ein Hobby schnell zur Zeitverschwendung wird.
Vorhin hast du begonnen über die Rohleistung zu reden und hast hier falsche Eindrücke wieder gegeben. Eben, dass Rohleistung gleich Performance der Karte ist (für Instruction per Clock bei Shader immer 2 genommen wird und somit die theoretische Performance berechnet), dabei wurde das schon auf den ersten Seiten "besprochen".
Und jetzt fangst du mit dem Speicher-Interface an, dass schon seit Wochen im Munde ist. Wieso glaubst du hat die Karte nur 2 oder 4 GB ? Klar hängt das mit dem Speicher-Interface zusammen.

Übrigens, ich liebe ja Verallgemeinerungen (nein tu ich nicht), du beweist, dass du das gut drauf hast. Schon mal gemerkt, dass nicht die Kürzung des Speicher-Interface der NV Karten selbst bemängelt worden ist, sondern dass viele angemerkt hatten, dass man die 750TI dann eventuell schlechter OC kann ? (hat soviel ich weiß ja nur ein 128bit Speicher-Interface)
Jetzt ist man klüger und sieht, trotz kleinerer Speicherbandbreite und weniger Shader, kann die 750 TI schneller sein als der Vorgänger.
(Das liegt ja daran, dass der L2 Cache ziemlich groß ist und das darf bei der nächsten Grafikkarten Architektur von NV und AMD sehr interessant werden wenn Techniken wie HBM dazu kommen.
Hier mal ein interessanter Link :
https://www.computerbase.de/2014-07/amd-mit-stacked-memory-und-pim-bei-zukunfts-apus/
2-1080.1311432036.png


Ups, da habe ich mich doch etwas geirrt. Viele User sind nicht klüger geworden, denn selbe falschen voreiligen Schlüsse, die man bei der 750TI gemacht hatte, wollen scheinbar hier viele bei dieser GPU wiederholen.
Vllt einfach mal Ball flach halten und abwarten. Eventuell wird Tonga kein großer Wurf, aber schlechter als sein Vorgänger muss diese Karte deshalb nicht gleich werden und wenn dann wird sie früher oder später billiger werden als sein Vorgänger.
Es fehlen aber schlicht und einfach noch Puzzel-Teile, nämlich unter anderen ob das GCN 1.1 ist oder vllt schon 1.2 oder ähnliches. Wäre ja nichts neues, dass AMD mit kleineren GPUs, bessere Fertigung oder hier "Architektur" testet und dann später mit größeren GPUs nach zieht.
Die Kürzung des Speicher-Interface zeigt sich in erster Linie daran, wieviel Grafikspeicher man auf die Platine löten kann und deshalb eine Karte mit 2GB weniger anbietet als der Vorgänger mit 3Gb. Dafür wird es aber offensichtlich eine 4GB Version ebenso geben.

Somit den großen Aufschrei, denn damals bei GM 107 war, wo ist dieser hier nicht vorhanden ?
Aber eventuell ließt du hier im Thread gar nicht mit, aber wieso stellst du dann solche Fragen ?
 
Zuletzt bearbeitet:
gibt es schon infos wer der fertiger dieser GPU ist?
 
Krethi & Plethi
Mich würde mal interessieren, ob das eigentlich wirklich nur ein Teildeaktiverter Chip ist, oder ob da wirklich noch eine 285X folgt, weil AMD selbst hat hier eigentlich gar nichts gesagt.
Aber du hast schon recht, interessant ob das nicht vllt bereits GF 28nm Prozess ist.
 
@pipip

Nein, ich lese nicht jeden Beitrag bei 9 Seiten. Hab besseres zu tun. Aber meine Meinung werde ich wohl noch schreiben dürfen, oder?
 
Mr.Seymour Buds
Klar kannst du deine Meinung schreiben, aber man kann Kommentare auch überfliegen. Man muss sicher nicht alles lesen. Aber wenn du mitdiskutieren möchtest, musst du dir leider Zeit nehmen, wäre nur fair für alle anderen Beteiligten, aber vllt nehme ich das dann auch viel zu genau.

Aber nur so zu Info, deine Beiträge wurden auf den ersten zwei Seiten bereits eingegangen.

https://www.computerbase.de/forum/t...tember-fuer-249-dollar.1383153/#post-16160751
https://www.computerbase.de/forum/t...tember-fuer-249-dollar.1383153/#post-16160797
https://www.computerbase.de/forum/t...-fuer-249-dollar.1383153/page-2#post-16160856
https://www.computerbase.de/forum/t...-fuer-249-dollar.1383153/page-2#post-16160877
https://www.computerbase.de/forum/t...-fuer-249-dollar.1383153/page-2#post-16160942

und dann unzählige Kommentare wie diese
https://www.computerbase.de/forum/t...tember-fuer-249-dollar.1383153/#post-16160828

worauf immer die selbe Antwort folgt
https://www.computerbase.de/forum/t...tember-fuer-249-dollar.1383153/#post-16160832

Würden da einige wenigsten die ersten zwei Seiten lesen, wären da deutlich weniger "Wiederholungen".
 
Besten Dank fürs Verlinken. Wirklich, vielen Dank!
 
Mr.Seymour Buds schrieb:
@pipip

Nein, ich lese nicht jeden Beitrag bei 9 Seiten. Hab besseres zu tun. Aber meine Meinung werde ich wohl noch schreiben dürfen, oder?

"theoretische Leistung wurde gemessen" ist keine Meinung sondern Quatsch. Und wenn du schon besseres zu tun hast, warum beteiligst du dich überhaupt an der Diskussion hier?
 
Gpu-murks schrieb:
Hm....ziehmlich klein der Chip....hoffentlich nicht das gleiche Problem wie bei hawaii mit der Wärmeabfuhr/Kühlung.:rolleyes:

Wärmeabfuhr durch eine kleinere Fläche ist eine Sache, die man getrost ignorieren kann..

Wichtig ist doch das technisch machbare. Und da ist AMD gegenüber Nvidia schon immer meilenweit voraus. Warum? Weil Nvidia nur riesen Klopper rausschmeisst. Das hat mit Effizienz schon mal gar nichts am Hut (wirtschaftlich und ökologisch gesehen). Mag zwar durch die lockere Dichte nicht allzu heiss laufen und mag zwar einen relativ geringen Verbrauch bei Spieleleistung haben. Aber dafür haben sie so gut wie keine GPGPU Leistung gegenüber AMD. Man braucht CUDA optimierte Software, um auf der Höhe zu bleiben. Und CUDA ist so ziemlich das uninterssanteste, was es auf dem Markt gibt.

Bei Spielebenchmarks scheint Nvidia effizienter. Aber das ist schon alles. Bei alles andere ist AMD immer noch Vorreiter, was Effizienz angeht.
 
tic-tac-toe-x-o

Naja interessant ist ja, was gestern ein Kumpel von mir gemeint. Eigentlich könnte man trotz 28nm den Verbrauch senken, in dem man eben einfach die Die-Size stark anwachsen lässt und die Shader niedrig Taktet.
Am Ende werden dann hier viele auch von Effizienz sprechen. Natürlich wird dann Preis und Chipgröße weniger beachtet, sondern viele sehen beim Balken nur Performance/Watt. Es ist eben auch eine Frage, wie man dieses Ziel erreicht und was man dafür ausgeben möchte.

Wieso also nicht doppelt so viele Shader, doppelt so große Die-Size ^^ Naja, GK110 hat es ja schon schön gezeigt, anfangs schlechte Ausbeute, hoher Chippreis ect.
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe mir noch vor paar Tagen eine etwas übertaktete R9 280 von Asus gekauft, jetzt kommt dieser Artikel hier raus. :mad:

angeblich soll die neue 285 also Direct-X 12 Unterstützen, ist das ein Werbegag? :)

Hier (Link) behauptet CB das alle Karten die Direct-X 11 unterstützen auch per Software (Update) Direct-X 12 unterstützen wird,
warum wird jetzt speziell bei dieser Karte nun von Hardwareseitiger Unterstützung gesprochen?

stehen diese beiden Artikel nicht im Widerspruch? :)

Hoffe kann mir mal einer näher erläutern. ;)


LG
 
@Watercoolio:

Reines Marketing zu Werbezwecken. Alle GCN-Karten werden DirectX 12 unterstützen! Das war zumindest die prinzipielle Aussage von AMD. Ob es da nachher noch Einschränkungen geben wird, muss man abwarten.
 
Zuletzt bearbeitet:
jede DX11.0 karte soll 12.0 unterstützen, an den hardwarefeatures ändert sich nichts.

aus 11.1 wird dann vermutlich 12.2
11.2 → 12.2
und wenn neue hardwarefeatures kommen ?12.3?
Ergänzung ()

nitnoS schrieb:
Alle GCN-Karten werden DirectX 12 unterstützen!
aber halt nur das minimale featureset.
 
@Krethi & Plethi:

Naja, ich bin zuversichtlich. Vom NV-Marketing haben wir ja gelernt, dass GPUs von NV auch spätere Versionen von DirextX offiziell unterstützen, obwohl die Hardware das gar nicht kann. ;)

*wegduck*
 
nvidia ist eine andere geschichte, die basteln auch gerne sachen aus holz (holzfermi:O)^^

aber als nicht-gamer ist mir DirectX eh ziemlich egal, da interessiert mich HSA/OpenCL/GPGPU mehr:}
 
Zurück
Oben