News AMD verrät Termin für Radeon R9 290X BF4 Edition

Jetzt wartet doch erst einmal die Preisentwicklung der neuen Karten ab.
Wenn ich das hier so lese, habe ich den Eindruck nur von Early Adoptern umgeben zu sein.
Aber ok, vielleicht bin ich dass ja?
 
Auch wenn ich ASUS verabschaue werd ich wohl trotzdem warten bis eine entsprechende Karte mit mindestens 3x DisplayPort auf dem Markt ist um meine 7970 GHz Edition von Sapphire zu ersetzen. Das Referenzdesign mit Schnittstellenmischmasch wird es dann wohl eher nicht werden.
 
Colditz schrieb:
Auch wenn ich ASUS verabschaue werd ich wohl trotzdem warten bis eine entsprechende Karte mit mindestens 3x DisplayPort auf dem Markt ist um meine 7970 GHz Edition von Sapphire zu ersetzen. Das Referenzdesign mit Schnittstellenmischmasch wird es dann wohl eher nicht werden.

ASUS ist noch einer der besseren Hersteller!

Bei mir durchgefallen sind XFX, AMD (Referenz) und neuerdings MSI. Wie vele Grafikkarten und Mainboards in meinem Umfeld von diesen Firmen schon abgeraucht sind, ist nicht mehr normal!

--> ASUS und EVGA sind meistens auf den Topplätzen was Qualität, Leistung und angenehme Lautstärke angeht.
Sogar mit den günstigeren Anbietern wie Palit und Sparke habe ich gute Erfahrungen gemacht. Demnächst versuche ich viellicht einmal Inno3D(!).


Edit:
-Kurze Frage:
Warum steht ihr alle auf Displayports? Konnte an dem Anschluss noch nie etwas tolles finden!
 
SaarL schrieb:
Unter 150-200% lohnt es sich in meinen Augen nicht nicht (dein Beispiel: Spiel läuft nicht: 15fps +30%: 19,5fps...).
Je nach Umsetzung des VSyncs im Spiel können 30% Leistung auch mal den Unterschied zwischen 30 fps und 60 fps machen. So pauschal lässt sich das nicht sagen. Und genau wegen diesem Umstand werde ich von 7870GHz auf 290 upgraden - auch wenn es "nur" 70% Mehrleistung sind.
 
Volker schrieb:
...Graka musste Anfang 2012 nach 3 Jahren erneuert werden und wurde 7970 OC. Als nächstes ist wieder CPU dran .. aber aktuell ist das doch auch Crap. Bei Grakas tut sich ja erstmal nix, was den Umstieg auch nur ansatzweise rechtfertigt. ...

Grundsätzlich stimme ich zu, aber eigentlich war es ja auch zu Zeiten, als die Grafikkarten noch in großen Schritten leitungsfähiger wurden, fast nie so, dass es sich gelohnt hätte schon direkt mit der nächsten Generation wieder aufzurüsten. Besonders wenn man schon ein übertaktetes High-End-Modell hat. (Der Unterschied ist jetzt nur, dass zwischen den Generationen heute doppelt so viel Zeit liegt wie früher.)


Was die Temperaturen aus einigen durchgesickerten 290X-Tests angeht, möchte ich noch anmerken, dass man Furmark und ähnliche synthetische Last-Tools ja nicht wirklich zwischen AMD und Nvidia vergleichen kann. Da wird per Treiber mehr oder weniger stark gedrosselt. Aussagekräftig wäre nur die Temperatur unter Last durch reale Spiele.
 
.fF schrieb:
Je nach Umsetzung des VSyncs im Spiel können 30% Leistung auch mal den Unterschied zwischen 30 fps und 60 fps machen. So pauschal lässt sich das nicht sagen. Und genau wegen diesem Umstand werde ich von 7870GHz auf 290 upgraden - auch wenn es "nur" 70% Mehrleistung sind.

So nen Käse, die Treiber von AMD und nVidia forcieren (fast) seit Jahren Triplebuffering und daher ist es ziemlich egal, welches Spiel man zockt, aktivieren von VSYNC führt bei FPS unter 60 nicht zu einer Reduktion auf 30 runter.
 
Herdware schrieb:
Was die Temperaturen aus einigen durchgesickerten 290X-Tests angeht, möchte ich noch anmerken, dass man Furmark und ähnliche synthetische Last-Tools ja nicht wirklich zwischen AMD und Nvidia vergleichen kann. Da wird per Treiber mehr oder weniger stark gedrosselt. Aussagekräftig wäre nur die Temperatur unter Last durch reale Spiele.

Es ist ja nicht so als wäre das meine einzige Informationsquelle ;)
 
@Volker

Gut zu wissen. ;) (Oder auch nicht, wenn das heißt, dass die 290X wirklich so ein Hitzkof ist. :( )

Allerdings hatte ich sowieso schon alle Hoffnungen in den Referenzkühler aufgegeben, nachdem ich die ersten Bilder davon gesehen hatte. Ist halt die selbe Krücke, die schon mit der HD7970GE hoffnungslos überfordert war.
Also müssen wir auf gute Custom-Kühler warten. Wie viel die bei einem hitzköpfigen Stromfresser ausmachen können, habe ich damals bei meiner GTX470 AMP! gesehen.
 
Volker schrieb:
Nein keinesfalls, sonst hätte ich wohl kaum ne AMD-Karte. Nur die hab ich 18 Monate schon. Und 2 Jahre keine echte neue Karte und am Ende liegt der Neuling nichtmal 20 Prozent über dem was ich jetzt hab. Das sind zehn Prozent pro Jahr
...
Nach 22 Monaten erwartet man schlichtweg mehr.
...
und am Ende im Mittel 1% vor Titan .. puh .. das sieht aus wie erkauft um jeden Preis.
https://www.computerbase.de/2013-05/nvidia-geforce-gtx-780-test/3/
Eine R9 290X wäre nichteinmal 20% schneller als eine HD 7970, obwohl sie nur 1% schneller als ein Titan wäre, der aber bei 1080p-4AA/16AF +39% schneller wäre und bei 1600p +36% schneller wäre??

Dein runterreden von AMD-Produkten nervt, was man immer an den vielen Reaktionen liest, wenn du deine Meinung schreibst.
Und wenn du schon mit Monaten kommst, warum wurde das nicht im Fazit von GTX 780 und Titan gemacht, wo z.B: GTX 780 ganze 17,5 Monate nach HD 7970 kam?

Volker schrieb:
Ja, plötzlich ist die Nvidia-Situation gar nicht mehr so übel wie noch vor ein paar Tagen gedacht. Als Marketing-Mensch würde ich nun das machen: Es kommt ne 780i auf Titan-Niveau (die ist quasi schon sicher) für 500 bis knapp 600 und oben bringt man Vollausbau Titan Ultra/Atlas für den gleichen Preis wie Titan jetzt. Schon hast AMD im Preis unterboten und mit der anderen Karte in der Performance überboten. Gern auch erstmal als Papiertiger, hauptsache zeigen das es geht^^
Durch ewige Warten wurde man schon bei GTX 480 und GK110 schon mehr als genug enttäuscht. Zweiteres gerade in Hinsicht des Preises.
Und wenn man sich die Konkurrenten von GTX 760 und GTX 770 ansieht, die Preis-Leistungsmäßig wieder schlechter dastehen, warum sie das Preis-Leistungsverhältnis nichteinmal angleiche.
Nvidia hat in den letzten 2 Jahren mehr als genug bewiesen, dass sie Preis-Leistungs-Mäßig überhaupt nicht mehr vorpreschen und sich sehr defensive verhalten.

Volker schrieb:
Ja, plötzlich ist die Nvidia-Situation gar nicht mehr so übel wie noch vor ein paar Tagen gedacht.
Und wenige Tage davor glaubten noch die meisten an +10-15% Performance-Steigerung, die es schwer mit GTX 780 haben wird.
Jetzt ist es aufeinmal nichts mehr besonderes, wenn man Titan nur mit +1% schlagen soll, was so nebenbei bei gleicher Fertigung das erstmals mal seit X1900 XTX (=6 Jahre) wäre.
Wobei man da noch ausgehen kann, dass durch die erstmalige Einführung von 4 statt 2 Grafik-Engines (= 4 statt 2 Rasterizer) sogar wieder etwas Potential in den Treiber stecken könnte.

Abgesehen des Preis-Leistungs-Verhältnis des 240 & 250 & 260 & 270 & 280 bringt 280 & 290 abgesehen von der Performance-Steigerung eben True-Audio & Crossfire 3.0 sowie verbesserungen in Eyefinity, während Nvidia nur verbesserte Performance-Steigerung bei hoffentlich gleichem Stromverbrauch bringt.

Also, es sieht trotzdem weiterhin nicht rosig aus.
Vorallem, sagts du selber, dass es keine echten GCN 2.0 sind und AMD somit noch etwas Potetnial für später haben müsste.
Vorallem sieht es dann für Nvidia übel aus, wenn Hawaii als FirePro noch kommt, weil ein Hawaii gegen Thaiti dann 8 ACEs statt 2 haben wird und mit +37% mehr Einheiten dann ebenfalls deutlich in der Effizienz steigern könnte.

Für AMD sieht es sehr gut aus.
Schließlich braucht man jetzt nicht so tun, als ob es die Probleme der letzten Jahre nicht gegeben hätte und AMD sehr ruhig entwickeln konnte. Dass AMD GCN 2.0 konnte für Nvidia noch ziemlich übel werden, weil mit neuen Architekturen meist neue GPGPU-Funktionen eingeführt werden. Aber das werden wir erst zum APU-13 hören.
 
Zuletzt bearbeitet:
Und das dämliche AMD Gebashe geht schön weiter
mimimi Tahiti XT für 250€ was für eine Unverschämtheit, alte High End Chips zu Mainstream Preisen zu verkaufen!
R 290X Buuuuh! Titan Leistung für mehrere Hundert € weniger? Können sie sich in den ***** schieben!
Hoffentlich bringt Nvidia kurz danach ne Titan Ultra Mega für 1000€!

Und jeder Hanswurst hält sich scheinbar für einen fähigeren Ingenieur als die gesamte AMD Forschungsabteilung :freak:



Hardware_Hoshi schrieb:
Anders kann ich mir es momentan nicht vorstellen. Die ganze R9-Generation ist bisher nicht so wirklich der Bringer. Die 290er werden aufgrund des für Gamer relativ hohen Preisen von 400-700€ nicht durchschlagen. Möglicherweise will AMD nur Zeit gewinnen bis die 20nm-Fertigung bei TSMC endlich startklar ist.

Mit der ersten R9-Generation sollen dann vorläufig nochmals die Angst-Aufrüster abgezockt werden.
Was redest du da? Abgezockt? :freak: Nvidia zockt ihre Kundschaft ab, die bisher veröffentlichten R9 Karten sind Preisleistungskracher.



Hardware_Hoshi schrieb:
AMD war im Stromverbrauch schon bei der 7000er-Serie weit zurück.
Weit zurück? Blödsinn! Nur die beiden Tahitis ziehen deutlich mehr Strom aus der Dose, alle anderen Chips darunter sind in etwa genauso effizient wie der jeweilige Nvidia Konkurrent.


Warum warten wir nicht erste offizielle Reviews ab, bevor wir unsere Enttäuschung über die Leistung, die Leistungsaufnahme, Temperatur und den Referenzkühler kundtun? :freak:
 
Herdware schrieb:
Also müssen wir auf gute Custom-Kühler warten. Wie viel die bei einem hitzköpfigen Stromfresser ausmachen können, habe ich damals bei meiner GTX470 AMP! gesehen.

Gerade mal geschaut wenn man sich so die Werte von der GTX470AMP! und GTX480AMP! anschaut, dann waren Dank besserer Kühllösung (~15K weniger) 9% mehr Takt bei 10% weniger Leistungsaufnahme drinne.

Wenn AMD also bei über 90°C bei Spielen liegt dann sollte man dringend mal das Kühlkonzept überdenken. Wie man an einer Palit GTX 780 Super JetStream sieht kann man auch hohe Leistungsaufnahmen auf unter 80°C kühlen, wenn man will.
 
Heute eine MSI R9 290 für € 323,26 inkl. MwSt. und Versand bestellt. War zwar ein Preisfehler, wurde mir aber durch einen Mitarbeiter bestätigt.
Today Is a Good Day :D
 
Hardware_Hoshi schrieb:
Die R9-290X geht aber anscheinend hin und ...
-erhöht das Speicherinterface auf 512-Bit um die Chipgröße zu Titan auszugleichen
-Chip wird zudem größer gemacht um mehr Transistoren draufzuklatschen
-Taktraten werden jedoch gesenkt, sonst brennt die Karte ab

[/B]

Das 512 bit interface der 290 benötigt ca. 20% weniger Fläche, als das 384 bit interface der 7970.
Warum sollten sie den Chip kleiner machen damit weniger Transistoren draufpassen?
Bis zu 1 Ghz in der Standard Ausführung, kann ich so zum Vorgänger keinen abartigen Unterschied feststellen.

Ansonsten ist zu sagen, das der Hype um das ganze Spielzeug in keiner Relation zum abgelieferten unserer beiden Lieblingshersteller steht.
Fragt sich nur können sie momentan nicht (technische limitationen) oder wollen sie vielleicht auch gar nicht, weil das Zeug ja auch so gekauft wird.
Aber in Zeiten, wo 5% mehr FPS schon unter die Rubrik "boden aufwischen" fallen, und die Kunden bereit sind für 30% teils doppelte und dreifache Preise zu zahlen, und die Glaubengemeinschaft das auch noch bis aufs Messer verteidigt, manche schon Wochen vor der Veröffentlichung mit nassem Höschen vor den PC übernachten, dürfte der Ansporn auch nicht unbedingt groß sein.
 
aylano schrieb:
Zuerst einmal, Hawaii bzw. R9 290X ist keine alte Generation, sondern eine neue, deren GCN 2.0 Architektur wir noch garnicht kennen.

Schon wieder meinen Post falsch verstanden resp. nicht genau gelesen ;)

aylano schrieb:
Kepler ist gegenüber GCN 2.0 über 1,5 Jahre älter.

DAS ist ja genau mein Argument. Eine GCN 2.0 Karte, welche auf den Markt kommt, sollte doch, wenn sie schon 1.5 Jahre später erscheint, etwas mehr bieten als 5% Vorsprung auf den stärksten Kepler Chip, nicht?

aylano schrieb:
Ich verstehe nicht, was du meinst.
GCN 2.0 wird i Detail übrigens erst vorgestellt.
True-Audio und Crossfire 3.0 wurden ja schon präsentiert, sowie Weiterentwicklungen von Eyinity. Alleine diese Techniken sind für eine neue Generation mehr als Genug.

Ich meine genau das, was ich geschrieben habe :freak: Meines Wissens hat sich noch nie ein "revolutionäres" Feature durchgesetzt, schon gar nicht, wenn es wie Mantle und TrueAudio exklusiv von einem Anbieter kommt. Ich will darauf hinaus, dass GCN 2.0, Mantle und TrueAudio im Endeffekt gar keinen grossen Vorteil bieten wird. Warum? Eben, weil sich ein Spieleentwickler zwei mal überlegen wird, ob er ein Spiel veröffentlicht, welches DEUTLICH besser läuft resp. sich DEUTLICH besser spielen lässt mit einer AMD Karte im Vergleich zu einer nVidia Karte. Dadurch würde man nur die Hälfte der potentiellen Kunden vergrämen. Was bleibt also: die Vorteile von GCN 2.0, Mantle und TrueAudio werden sich in einem so bescheidenen Rahmen halten wie PhysX aktuell bei nVidia. Man braucht es schlichtweg nicht.

aylano schrieb:
Größere Neuerung von GCN 2.0 sind die 8 ACEs. Zwar hat das wenig direkt mit Games zu tun, aber es gab vor kurzem ein AMD-Vortrag, wo angedacht wird, in Zukunft immer mehr Games-Berechungen auf Basis von Compute-Einheiten zu berechen. Zwar erwarte ich nicht, dass dies schon bei GCN 2.0 passiert, aber es könnte sein, dass die 8 ACEs eben schon der Ansatz dafür sind, deren echte Weiterentwicklungen wir in den nächsten Generationen/Jahren erst sehen.

Das spielt eigentlich in mein obiges Thema rein: WENN und nur WENN GCN 2.0, TrueAudio und Mantle je mals einen deutlichen Vorteil verschaffen werden, so ist die aktuelle Generation und die R9 290X bereits wieder veraltet und am Anschlag. Somit ist es eigentlich nicht richtig, diese drei Attribute als Vorteil von AMD gegenüber nVidia Karten zu platzieren, da eben dieser sogenannte Vorteil überhaupt nicht existiert ausser auf dem Papier.

Ich wette bereits jetzt, dass die Einführung von Mantle bei BF4 für die AMD User enttäuschend sein wird. Wie gesagt, wird der Effekt von Mantle zu gross, so verprellt man sämtliche nVidia-Kunden. Und nur ein naiver Optimist würde ernsthaft darüber nachdenken, dass dank Mantle etc. in Zukunft deutlich mehr Kunden AMD Karten kaufen als nVidia. Wenn das nicht GLEICHZEITIG mit einem deutlichen Preisvorteil geschieht, wird sich der Zuwachs an Marktanteilen für AMD in Grenzen halten. Und wie gesagt, solange 50% der Kunden für Spiele eine nVidia Karte besitzen, wird kein Spieleentwickler ein Spiel veröffentlichen, das deutlich besser auf AMD Karten läuft.
 
@AnkH
Die Entwickler werden vllt. keine Titel exklusiv für AMD veröffentlich (warum auch, wie bescheuert wäre das denn?), aber auf jeden Fall mit stärkerer AMD/Mantle unterstützung. Warum? Ist doch klar, dass man dann mehr Reichweite hat, wenn Spiele mit Mantle auch auf "älterer" Hardware laufen können :)

Überhaupt sind da sehr viele Wenns in deinem Text. Alles Spekulatius.
 
DAS ist ja genau mein Argument. Eine GCN 2.0 Karte, welche auf den Markt kommt, sollte doch, wenn sie schon 1.5 Jahre später erscheint, etwas mehr bieten als 5% Vorsprung auf den stärksten Kepler Chip, nicht?

Wenn Nvidia doch Titan/GTX780 schon vor 1.5 Jahren als Konsumer Karten gebracht hätte, dann ja. So lange sind die GK 110 aber noch nicht auf dem Markt. Ich bin ja mal gespannt wie die Leute reagieren werden wenn Nvidia aufgrund der Fertigungsprobleme Maxwell auch noch auf 28nm bringen muss und wie hoch dann der Vorsprung ausfällt. Aber das wird dann von genug Leuten wieder gefeiert werden bin ich sicher. GCN 2.0 ist ja keine Architekturrevolution, sondern basiert wie der Name bereits sagt auf GCN.

Hier gehen viele davon aus dass man allein durch Architekturverbesserungen im gleichen Fertigungsprozess mal eben +50%/+80% rausholen könnte bei gleichem Stromverbrauch. Dann muss ich ehrlich sagen macht es halt besser. Weder AMD noch Nvidia können zaubern. Man zeige mir eine neue Archtitektur in der Vergangenheit die diese Verbesserungen bei gleichem Stromverbrauch/gleichem Fertigungsprozess gebracht hat. Dann sag ich dazu nichts mehr.

Das schafft noch nicht mal Intel mit ihren Abermillarden an Forschungsgeldern.

Mir wäre es auch lieber die neuen AMDs hätten + 100% Leistung, bei weniger Stromverbrauch Haben sie aber nicht. Und dennoch werden sie eine gute Alternative zum GK 110, schon allein aufgrund des Preises. Ich hätte meine 7950 auch nicht verkauft wegen der enuen Serie hätte ich jetzt nicht einen 1440p Monitor vor mir stehen. Und selbst dann müssen sie zeigen was Sie können. Sollte die r9 290er Reihe entäuschen bin ich nicht abgeneigt ne Nvidia in Betracht zu ziehen, allerdings sicher nicht für die dezeitigen Mondpreise.

Noch ein Grund der für AMD spricht, sollte sich das bewahrheiten:

"AMD Never Settle: Zukünftige Verfügbarkeit bei der Rx-200-Reihe angeblich bestätigt"

http://www.pcgameshardware.de/AMD-R...it-Rx-200-Reihe-angeblich-bestaetigt-1093019/
 
Zuletzt bearbeitet:
AnkH schrieb:
DAS ist ja genau mein Argument. Eine GCN 2.0 Karte, welche auf den Markt kommt, sollte doch, wenn sie schon 1.5 Jahre später erscheint, etwas mehr bieten als 5% Vorsprung auf den stärksten Kepler Chip, nicht?
Warum sollte doch??
GCN 2.0 ist die GPU-Core-Architektur und sie ist nicht der entscheidende Grund, warum eine GPU 5% schneller oder wie üblich 10-15% langsamer als Nvidias High-End-GPU. Sondern da entscheidet mehr die Die-Größe.
Und ob eine GPU entäuschend ist, zählt zur reinen Performance & Preis (inkl. Die-Kosten) eben das Gesamt-Paket mit Stromverbrauch (inkl. Lautstärke) & Technik-Erweiterungen & Technik-Verbesserungen & Einführungszeitpunkte.

Was habe ich von den Konkurrenz-Karten, wenn ich für paar Prozente paar oder Zik-Monate warten muss?

Ich meine genau das, was ich geschrieben habe :freak:
Scherzkeks.

Meines Wissens hat sich noch nie ein "revolutionäres" Feature durchgesetzt, schon gar nicht, wenn es wie Mantle und TrueAudio exklusiv von einem Anbieter kommt. Ich will darauf hinaus, dass GCN 2.0, Mantle und TrueAudio im Endeffekt gar keinen grossen Vorteil bieten wird.
Eyefinity & Crossfire haben sich auch als Revolutionär entwickelt, aber mit 3 oder 6 sowie/oder 2 oder 3 Grafikkarten sind die Kosten ein einem Bereich, in den aus Sicht der Gesamt-Masse eben geringen Anteile gibt. Aber relativ gesehen entsprechend dem Hersteller, kann sich das als Revolutionär schon im Enthusiast durchgesetzt haben.

Warum? Eben, weil sich ein Spieleentwickler zwei mal überlegen wird, ob er ein Spiel veröffentlicht, welches DEUTLICH besser läuft resp. sich DEUTLICH besser spielen lässt mit einer AMD Karte im Vergleich zu einer nVidia Karte. Dadurch würde man nur die Hälfte der potentiellen Kunden vergrämen. Was bleibt also: die Vorteile von GCN 2.0, Mantle und TrueAudio werden sich in einem so bescheidenen Rahmen halten wie PhysX aktuell bei nVidia. Man braucht es schlichtweg nicht.
Du tust ja so, als ob man mit Nvidia-Grafikkarten extra benachteiligt wird, sodass man nicht mehr gscheit spielen kann.
Es regt sich ja auch keiner auf, dass AMDs CPUs bei Spielen mit Intels Compiler langsamer laufen, obwohl durch die Kartell-Klagen bekannt wurde, dass Intel absichtlich AMD verlangsamte.

Nochmal für dich. Wir wissen nicht was GCN 2.0 ist. Mantle hat nichts konkretes mit GCN 2.0 zu tun sondern generell mit GCN (1.0, 1.1, 2.0, 2.1, ...)

PhysX war sehr kritisch für AMD.
Hätte AMD damals mit RV770 Nvidia & GTX 280 so überrascht, hätte sich PhysX meiner Meinung viel mehr durchgesetzt, sodass AMD aufgrund dieser PhysX-Unterstützung nicht unerheblich weniger Performance hätte.
Dass es nicht so viel Revolutionäres gab, wie du es vorstellst, liegt wohl eher daran, dass wenn sich was Revolutionäres Durchsetzt, dass es der Tot des Konkurrenten bedeutet, außer sie können mit ähnlicher Technik (halbwegs) dagegenhalten.
PhysX war sowas mit Games-Support-Programm.
Mantle ist so eines mit Evolved-Unterstützung.
HSA ist genauso so eine Technik, aber Nvidia hat dagegen eben das Denver-Projekt.

Das spielt eigentlich in mein obiges Thema rein: WENN und nur WENN GCN 2.0, TrueAudio und Mantle je mals einen deutlichen Vorteil verschaffen werden, so ist die aktuelle Generation und die R9 290X bereits wieder veraltet und am Anschlag. Somit ist es eigentlich nicht richtig, diese drei Attribute als Vorteil von AMD gegenüber nVidia Karten zu platzieren, da eben dieser sogenannte Vorteil überhaupt nicht existiert ausser auf dem Papier.
1) Es/Die Vorteile existiert momentan nicht außer auf dem Papier
2) Nvidia hat sowas wie Mantle & True-Audio auch nicht, weshalb sie auch keine Vorteile haben.
3) Bis HD 7970 gings immer darum, dass AMD mit AF-Flimmer, OpenCL-Treiber, Game-Treiber, Optimus-Konkurrenz-Technik, Crossfire-Skalierung, C++, ECC, 3D-Technik ... usw usw hinterhergelaufen ist, und welches sie diesemal verbessert haben.
Quasi seit HD 7970 sind alle diese Nachteile beseitigt worden und man kann sie in dem einen oder anderen Erbsensichen sich da noch diverse Vorteile raussuchen/einbilden. Dass AMD mit True-Audio & Mantle erstmals einen Angriff startet anstatt hinterherläuft, ist offensichtlich nicht den meisten bewusst, weil sie über Techniken philosofieren, wo man eben abwarten muss, wie sich AMD da in Zukunft durch setzen wird. Cuda & PhysX & Co wurde auch erst später relevant.

Es ist richtig.
Es ist sehr ungewohnt, dass AMD mal Technisch vorprescht.
Und dass es eine revolutionäre Wundertechnik gibt, die gleich zum Beginn (ohne Software-(Um)-Programmierung) die Benchmarks & Grafik sprengt, ist sowhl eher eine Wunschdenken.

Ich wette bereits jetzt, dass die Einführung von Mantle bei BF4 für die AMD User enttäuschend sein wird.
Erstens, wissen wir nicht, ob Mantle nicht auch generell zur GPGPU- bzw. APU bzw. HSA-Programmierung eingesetzt wird.
Zweitens, wenn dich doch scheitern, ist es kein Weltuntergang, weil sie neue Techniken & Tools probierten und jetzt schon an nächste Technik- oder Mantle-Versuche gearbeitet wird.

Wie gesagt, wird der Effekt von Mantle zu gross, so verprellt man sämtliche nVidia-Kunden. Und nur ein naiver Optimist würde ernsthaft darüber nachdenken, dass dank Mantle etc. in Zukunft deutlich mehr Kunden AMD Karten kaufen als nVidia.
Mantle ist ein langfristiger Prozess. BF4 ist das erste (gekaufte) Spiel. In zukünft könnten weitere Folgen.
Was du irgendwie nicht ansprichst ist, dass bei X-Box und PS4 auch ohne Mantle die Spiele GCN-Optimiert werden. Vorallem in Zukunft, wenn die Spiele eigentlich mehr GPU-Ressourcen verlangen.

Wenn das nicht GLEICHZEITIG mit einem deutlichen Preisvorteil geschieht, wird sich der Zuwachs an Marktanteilen für AMD in Grenzen halten. Und wie gesagt, solange 50% der Kunden für Spiele eine nVidia Karte besitzen, wird kein Spieleentwickler ein Spiel veröffentlichen, das deutlich besser auf AMD Karten läuft.
Die Grafikkarten-Denkweise ist falsch.
Früher konzentrierte sich der Spiele-Markt auf Grafikkarten.
Mittlerweile sind Browser-Games & Tablet-&-Smartphone-Games dazugekommen.
Und mit den APUs & iGPUs @ Notebooks & Desktop hat sich in den letzten 2-3 Jahren auch noch ein ordentlicher Spiele-Potential aufgebaut.

In all diesen genannte Märkten, kann sich Mantle auch noch durchsetzen.
Und erst recht, wenn man damit von Tablets bis Grafikkarten nur mit Mantle in einem Schlag abdecken kann und so mit einem Game ein verdammt großes Erreichungspotential hat.

Natürlich kann Mantle floppen, aber in Mantle steckt auf verdammt viel Potential.
Und wenn es zuerst nur in Neben-Spiele-Märkten durchsetzt, ist die Chance sehr groß, dass sich das auf den Haupt-Spiele-Markt (PC-Grafikkarten) durchsetzt. So wie sich ARM in den letzten Jahren entwickelt hat, welches über Smartphone & Tablet langsam für Server & Desktop & Notebooks zur Gefahr wird.
 
AMD hält Informationen mit Absicht zurück. In ein paar Tagen wird die R9 290X mit 30 % mehr Leistung als ne GTX Titan veröffentlichen. Alle sind sprachlos und kaufen.

Spaß beiseite.
Was bringt euch dieses Wortgefecht auf Basis irgendwelcher Benchmark-Leaks wo jeder ein völlig anderes Ergebnis liefert?
 
Zurück
Oben