News AMD Polaris: Radeon RX 460 und Radeon RX 470 folgen der RX 480

dichter-karl schrieb:
Hmm, ich kenne das Wort "engegen" nicht und laut Duden existierte es auch nicht. Man schreibt entgegenkommen und meint damit auf jemanden zu gehen.
Danke, daß Du mein 't' gefunden hast, ich hab's sehr vermisst. Ich habe allerdings zur Sicherheit auch nochmal im Duden nachgeschaut, so offensichtlich ist der Fehler wohl nicht.

Muss man sich entweder an Redewendungen halten oder eben aus dem Kontext erkennen lassen ob aufeinander zu gehen im positiven oder negativen Sinne gemeint ist ;)
Ist das jetzt eine Frage oder Feststellung? Du würdest mir mit einer Antwort sehr entgegen kommen.
Eentgegen meiner Einschätzung daß Du wie auch ich nur Klugscheissen wolltest, glaube ich, daß es ein Flüchtigkeitsfehler genau wie meiner war. :stacheln::schluck:
 
issenia schrieb:
Und die Tendenz unter DX 12 eher pro AMD, wenn man nicht gerade NV-Failworks u. co auspackt. Ich habe auch geschrieben: "Zukunftssicherheit ist relativ."

wenn man davon ausgeht dass AMD Karten dann urplötzlich ihre volle Rohleistung umsetzen können schlägt DX12 bei AMD natürlich voll rein. Wird sich aber zeigen.
 
DocWindows schrieb:
Und diese Tatsache macht die höhere Performance jetzt weniger wert?
Nein überhaupt nicht. Die GTX 1070 ist eine solide/gute GK.
Wenn aber jemand von Zukunftssicherheit anfängt, dann kann das von jedem unterschiedlich ausgelegt werden.
Ich meine wie zukuntssicher soll eine GK sein, wenn diese sich zumindest in Einzelfällen bereits von einer GPU der Vorgängergeneration einholen lässt?
 
Ich freu mich auf die Karten, es wird Zeit für was neues :)
 
issenia schrieb:
Ich meine wie zukuntssicher soll eine GK sein, wenn diese sich zumindest in Einzelfällen bereits von einer GPU der Vorgängergeneration einholen lässt?
Was hat das damit zu tun? Eine RX 480 wird sich sicher auch von der Vorgängergeneration einholen lassen... Und jetzt. Who cares.
 
modena.ch schrieb:
Nee das relativiert die Performance und den Preis nur deutlich.
Und das Geld für eine Karte, dessen Speicherinterface jetzt schon limitert? Echt?

Selbst mit HBM wird eine Vega (10) wahrscheinlich keine 700€ kosten.

Wo limitiert das Interface bitte? Quelle! Wie schon richtig angemerkt wurd. Die Bussbreite allein ist total scheiß egal. Es kommt auch auf Chip und die Komprimierung an..... Das ist so als würde ich Sagen, das Auto verbraucht weniger, bei mehr Drehmoment, ist aber trotzdem Scheiße weil es weniger Hubraum hat. Totaler blödsinn. Wie schon angemerkt Effektiv =! Effzient. Und wen ich durch eine moderes Speicherintfacer, moderne Chips, teuren Bus einsparen kann, ist das nicht automatsich schlecht. Du kannst ja gerne warten. Es kommt sicher noch eine 1080ti oder Titanxirendwas... die werden mindestens genau das gleiche kosten. Und die werden totzdem irgendwann durch einen effizenteren kleineren Chip abgelößt der vermutlich 15-25% schneller ist.



Und Preis.... es gibt noch immer die 980ti und die 970 und keine Konkurenz. Würdest du als wirtschafltiches Unternehmen welches sich seinen Aktionären verantworten muss seine altbestände verschenken?
 
Zuletzt bearbeitet:
issenia schrieb:
Ich meine wie zukuntssicher soll eine GK sein, wenn diese sich zumindest in Einzelfällen bereits von einer GPU der Vorgängergeneration einholen lässt?

So wie ne 480 von der 390X oder ne 1070 von ner 980Ti ?
Mal ehrlich: Diese Diskussion ist doch müßig. Entweder man sieht die Vorteile, und zwar alle Vorteile, der neuen Generation und bewertet sie, oder man relativiert so lange bis man einen Grund findet warum irgendetwas doof ist und man die neuen Karten deswegen kacke finden kann. Darunter fällt auch dieses "Die Leistung kommt ja nur von dem Shrink mimimi". Natürlich kommt sie daher. Genauso wie die Ersparnis in der Energieaufnahme.

In Sachen Zukunftssicherheit mache ich es mir übrigens sehr einfach: Meine neue Karte wird 4-6 Jahre halten, sofern sie nicht kaputtgeht. Vorher kaufe ich keine neue. Solide Planwirtschaft meinerseits. Sollten Spiele kommen die nicht so laufen wie ich möchte, werden die Regler im Spiel bemüht. Damit hab ich kein Problem und ärgere mich dann auch nicht wenn jemand anders auf höheren Einstellungen spielen kann als ich.

Eine Grafikkarte ist so zukunftssicher wie man es selber zulässt oder haben will.
 
Zuletzt bearbeitet:
issenia schrieb:
Nein überhaupt nicht. Die GTX 1070 ist eine solide/gute GK.
Wenn aber jemand von Zukunftssicherheit anfängt, dann kann das von jedem unterschiedlich ausgelegt werden.
Ich meine wie zukuntssicher soll eine GK sein, wenn diese sich zumindest in Einzelfällen bereits von einer GPU der Vorgängergeneration einholen lässt?

Hast du dazu eine Quelle? Wo lässt sich der aktuelle Shrink von den aktuellen Generationen den bitte einholen?

Ihr vergisst immer, das es nur zwei Unternehmen gibt die sich gegenseitig den Ball zu spielen. Und beide haben Kosten für entwicklung und produktion. Beide Unternehmen gehören Aktionären die Rendite (Gewinn) wollen. Vermutlich besitzen die meisten sogar Akten von beiden Unternehmen welches Strategische entscheidungen mit beeinlusst. Und nach diesem Schema erscheinen die Karten die man Kaufen kann. Möglichst so, das es dem eigenen Unternehmen nicht nicht schadet und man den maxiameln Gewinn (Erlöss-Kosten) einholen kann. Will ich etwas lange verwenden, dann muss ich auch viel bezahlen. Das Unternehmen ist ja nicht dumm. Und es ist ja auch nicht schwer. Alle 12-18 Monate gibt es eine neue Karte die etwa 15-25% schneller ist. Zwischen den Chipfamielen trenne wieder für gewöhnlich 12-25%. Sprich jede Familie die ich höher gehe, gibt mir 12-18 Monate. UWill Karte sehr lange verwenden, dann kaufe ich die Karte die beste Karte die ich mir noch leisten will. Du wirst nur in ausnahmen fällen eine billige Karte bekommen die lange hält. Da die Herstelle die Produkte so gestalten das sie mit Gewinn rausgehen. Egal ob du Karte nur 2 oder 5 Jahre verwendest, in dem Preis ist die Produktion wie auch Entwicklung mit ein gerechnet. Wird weniger und seltner gekauft, erhöht sich einfach der Preis.

Und über Zukunftsicherheit brauch wir uns nicht beschweren. Wie mein Vorposter schon richtig erwähnte, man muss nur die Schieberegler nach unten schieben. Die Zeiten wo man alle 2 Jahre zu einer neuen GPU gezwungen war, sind doch lange vorbei! Ich habe meine jetzt 5 Jahre und kann noch alles auf Spielbaren Nivau spielen. Jetzt pfeift sich wirklich aus dem letzen Loch, aber bis zur 490er wird sie auch noch durchhalten. Meine 6870 hat mich damals 160€ gekostet. Wen ich alles immer auf Ultra Spielen will, dann muss ich natürlich auch jedesjahr 200-300€ reinvestieren. Das ist ungefähr der Betrag der fällig wird wen ich immer die schnellste Karte kaufe (Titan mal ausgenommen) und meine alter auf der Buch veräußere. Reicht mir Medium bis High reicht aber auch 200-300€ alle 3-5 Jahre. Dem Hersteller kostet diese Karte aber auch vermutlich nur ein Bruchteil davon. Die Karten untereinander sind so Gestaltet das sie sich möglichst nicht unter einander Konkurenz machen.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Wo limitiert das Interface bitte? Quelle! Wie schon richtig angemerkt wurd. Die Bussbreite allein ist total scheiß egal.

Dann schau dir beim cb Test die OC Ergebnisse vor allem die Skalierung mit höherem Speichertakt an, dann weißt du, dass der Chip durch die Anbindung limitiert wird ( den Speicher schließe ich an der Stelle mal aus, da nicht höher getakteter verfügbar war und man an dem Punkt hier leider nicht ansetzen kann).
Von daher ist es nicht nur wichtig einen schnellen Speicher zu haben in dem Fall den GDRX5, sondern auch ein entsprechendes Speicherinterface und das hätte in dem Fall gerne breiter ausfallen dürfen. 384 Bit und 12 GB oder halt 6 GB (man hätte ja 2 Varianten anbieten können), wäre die potentere Lösung gewesen, vor allem bei der GTX 970 wo der Speicher ja noch langsamer getaktet ist...
 
DocWindows schrieb:
So wie ne 480 von der 390X oder ne 1070 von ner 980Ti ?
Nein keine Äpfel mit Birnen vergleichen.
Wenn die RX 480 sich von Ihrem Vorgänger R9 380/GTX 960 einholen lässt -> wäre eine bittere Enttäuschung.
GTX 1070 ist nicht der Nachfolger der GTX 980 Ti, sonder der GTX 970/ R9 390.Alles gut, da diese auf Abstand gehlaten werden.

RX 480 lässt sich von R9 380X (eine Stufe über dem direkten Vorgänger R9 380/GTX 960) in Einzelfällen einholen -> wäre enttäuschend.
Und genau hier liegt das was ich meinte, GTX 1070 zu R9 390X(ebenfalls eine Stufe über dem direkten Vorgänger R9 390/GTX 970).
Aber ich lasse das jetzt. Wie oben schon geschrieben, halte ich die GTX 1070 trotz der o.g. Sachen für eine solide/gute Karte.
 
Zuletzt bearbeitet: (präzisiert)
lynx007 schrieb:
Wo limitiert das Interface bitte? Quelle! Wie schon richtig angemerkt wurd. Die Bussbreite allein ist total scheiß egal. Es kommt auch auf Chip und die Komprimierung an.....

Und wen ich durch eine moderes Speicherintfacer, moderne Chips, teuren Bus einsparen kann, ist das nicht automatsich schlecht. Du kannst ja gerne warten. Es kommt sicher noch eine 1080ti oder Titanxirendwas... die werden mindestens genau das gleiche kosten. Und die werden totzdem irgendwann durch einen effizenteren kleineren Chip abgelößt der vermutlich 15-25% schneller ist.

Hier bitte:

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/12/

Wenn 10% mehr Speichertakt gleich 6-9% Mehrleistung bringen ist die Sache wohl eindeutig.

Und was ist an einem 08/15 256Bit SI bitte modern? Nur weil da GDDR5X statt GDDR5 dranhängt ist das modern?
Es ist unterdimensioniert und schränkt die Möglichkeiten des Chips ein, mehr gibts dazu nicht zu sagen.

Eine Titan oder Ti darf aber auch das gleiche kosten!!
Das ist dann kein 314mm2 Chip mit Krüppelinterface.
Da geht es bei 450mm2 und 384 Bit SI und damit wohl auch bei 12 GB Speicher los, das obere Ende ist da bei 600mm2.
Das heisst im schlechtesten Falle gibts da 3200 Shader und mit 3840 kann man auch rechnen wenn sie den Chip etwas grösser machen.

Das sind nur schon im schlechtesten Fall 25% mehr und da limitiert kein Speicher.
 
issenia schrieb:
RX 480 lässt sich von R9 380X (eine Stufe über dem direkten Vorgänger R9 380/GTX 960) in Einzelfällen einholen -> enttäuschend.

Habe ich etwas verpasst?
Gibt es schon offizielle Tests der RX 480? Ich dachte NDA endet am 29.Juni?
 
modena.ch schrieb:
Hier bitte:

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/12/

Wenn 10% mehr Speichertakt gleich 6-9% Mehrleistung bringen ist die Sache wohl eindeutig.

Und was ist an einem 08/15 256Bit SI bitte modern? Nur weil da GDDR5X statt GDDR5 dranhängt ist das modern?
Es ist unterdimensioniert und schränkt die Möglichkeiten des Chips ein, mehr gibts dazu nicht zu sagen.

Die R9 290/390 ist der perfekte Beweis, wie mans nicht macht. Erinnert mich fast an die HD 2900 XT. :D Langsamer Speicher gepaart mit fettem Bus ist einfach nicht zeitgemäss. Weil HBM noch auf sich warten lässt und sowieso sehr teuer wäre, fährt man mit GDDR5X gar nicht so schlecht.
 
Wüstenfuchs89 schrieb:
Sollten sich die leaks bewahrheiten und die Leistung auch auf echte Spiele ummünzen lassen, fände ich die Karte äußerst interessant, ausgehend von ca 300€ zum Marktstart für eine Customversion mit 8GB bekommt man die Leistung einer 390x bzw. GTX 980, welche beide bis vor wenigen Tagen noch 400€ oder mehr gekostet haben. Außerdem hätte man die doppelte Speichermenge einer 980 bzw. den halben Verbrauch einer 390x. Eine 1070 wäre für mich persönlich uninteressant da sie zwar einiges mehr an Leistung bietet, aber auch 450€ aufwärts kostet. Die 480er wäre also für Besitzer einer 390(x)/980 lediglich ein sidegrade, für Leute wie mich, die eine ältere Grafikkarte haben aber extrem attraktiv.

Kann ich so unterschreiben, selbst wenn ich 700€ rum liegen hätte, wüsste ich mit einem Teil davon besseres anzufangen als eine GTX 1080 zu kaufen. Nicht, dass ich NVidia hassen würde, ich hatte noch nie eine AMD Karte. Soweit ich mich zurückerinnere:

GT 6600 -> GTX 260 -> GTX 460 auf Garantie bekommen (GTX 260 ist gestorben und gabs nicht mehr) -> GTX 660 Windforce OC aktuell drin

Denke aber die RX 480 mit 8GB wird meine erste. :D

4k Gaming kann meine GTX 660 auch schon, verstehe diese komische Einordnung in "1080p-Karte" etc. nicht...
 
@ODST

Naja zumindest limitert bei denen nicht der Speicher (wird auch nie) und die kosteten auch
nie 700 Schleifen.
256 BIt SI ist für dieLeistung des GP104-400 einfach nicht angemessen oder es bräuchte schnelleren GDDR5X,
so oder so, limitiert momentan und das geht für den Preis sicher nicht.
 
@modena.ch

Ok, das Interface ist Knap gehalten, aber die entscheidung ist Nachvollziehbar. Es soll ja auch keine Ti oder Titan werden. Sonst wäre ja der Leistungsvorsprung gegenüber der vorserie ja noch größer. Dazu wäre sie durch ein besseres Intface noch teuerer geworden! Man darf ja nicht vergessen, es folgt ja mit großer sicherheit noch eine Ti und eine Titan. Hääte die 1080 dann mit einem besseren Buss dann 900€ kosten sollen? Dann wäre dann die Flennerei aufgrund der Chipfläche ja noch größter. Und welchen Preis hätte dan die 1080ti, Titan und die 1070 und die kommende 1060 bekommen sollen? Du kannst sie ja auch nicht zu gut machen, weil du dann die alten Karten im Preis senken müsstest und sogar mit Verlust verscherbeln müsstets. Das würde die 1080(ti) und folgende Titan noch teuerer machen. Ihr vergesst immer, es gibt noch andere Karten, ein ganze Produktportofolie die Geld kosten und verkauft werden müssen. Alte die wegverkauft werden müssen und neue die besser oder günstiger sein müssen.


Die Karte wurde am Interface etwas beschnitten, wird aber im grunde jede Karte, da die Zeiten wo ich über ein Bioshack frei Takt und Volt schraube drehen kann, um wirklich an die grenzen des Chips zu kommen sowieso schon lange vorbei sind. Das sind die ersten karten im 14/16nm. Natürich sind die beschnitte. Der Prozess muss ja noch 5-6 Jahre halten. 5-6 Jahre, wo die hersteller an der Architektur, dem Speicher und am Takt drehen müssen bevor der näcshte Shrink kommt.
Ergänzung ()

modena.ch schrieb:
@ODST

Naja zumindest limitert bei denen nicht der Speicher (wird auch nie) und die kosteten auch
nie 700 Schleifen.
256 BIt SI ist für dieLeistung des GP104-400 einfach nicht angemessen oder es bräuchte schnelleren GDDR5X,
so oder so, limitiert momentan und das geht für den Preis sicher nicht.

Nur weil Niemand eine AMD mit dieser Leistung kauft. Aber die Leute kaufen nVidia. Und es ist immer noch die 980ti überall verfügbar. Und gerade weil sie aufgrund ihrer Chipfläche teuer ist, kann man sie nicht günstiger machen. Zugleich gibt es keine Konkurenz von AMD für die 1080. Und das ist der grund warum die 1080 700 schleifen kostet! Weil es die 980ti gibt und keine 490. Warum sollte nVidia bitte den Preis von der 980ti kaput machen? AMD kann ihn nicht kaput machen. Da ihre Karten dank des großzügigen Speichers vermutlich schon so weniger Marge abwerfen.
 
Zuletzt bearbeitet:
BlauX schrieb:
Bei dem Vergleich handelte es sich um mGPU nicht CF
Das Gespann war zu 51% ausgelastet.
Der Verbrauch pro Karte liegt dann bei etwa ~90W was bei voller Auslastung etwa ~180W entspricht.

hast du das nachgemessen oder ist das einfach mal übern daumen geschätzt?
 
Die Verbrauchsangabe ergibt sich aus den offiziellen Aussagen der AMD Präsentation. Da hieß es klar, das die 2*RX 480 mehr r leisten und effizienter sind als die eine 1080. Die 1080 ist mit 180 angegeben worden.
 
lynx007 schrieb:
Entschuldigung das ich mich da mal einklinken muss. Sie haben nur in dem Punkt recht das es genau definiert ist was "Highend" bedeutet. Allerdings ist ihre persöliche und gefühlte Definition leider nicht nur subjektiv sondern auch fachlich falsch.
Falls sie sich weiterbilden möchten, hier steht was im allgemein "Highend" bedeutet bzw wo und wie es vorwiegen verwendet wird.

[und jede Menge Bullshit...]

für alle, die meinen dass man HighEnd immer nur das Beste überhaupt bezeichnen kann, selbst wenn es nur mickrige Prozente sind, denen kann nicht geholfen werden.
Und die, die sich wirklich mal weiterbilden wollen, wie man eine Einteilung in Leistungsklassen vornimmt, denen empfehle ich mal 3DCenter zu lesen:

http://www.3dcenter.org/news/amd-nvidia-grafikkarten-roadmap-201617

Hier ist unter anderem eine Eineiltung zu finden. Wer dennoch meint, dass die 1080 HighEnd ist und verdientermaßen 800 Euro kosten soll, soll eben sein Geld jetzt ausgeben und in 6 Monaten erneut und dann wahrscheinlich über 1000 € hinlegen. Aber labert mal nicht die Leute mit Eurem Mist von HighEnd voll.

@ CB: vielleicht solltet Ihr das mal besser klarstellen, wer was ist usw. damit hier nicht so viele Fehlinformationen gestreut werden und sich die Leute die Köpfe einschlagen, voraussgesetzt das Ihr das nicht eventuell sogar wollt, weil das mehr Klicks bedeutet....
 
Nvidia ist doch gerade ihr eigener Konkurrent, würde man die 980ti zu Dumpingpreisen raushauen würde doch keiner mehr eine 1070 kaufen.
 
Zurück
Oben