News Finale Spezifikationen der AMD Radeon R9 290 und 290X

@aylano
Danke! Endlich mal jemand der auf die Fakten eingeht, anstatt eine grundlegend negative Attitüde gegen AMD zu pflegen, weil das halt der allgemeine Tenor ist.
AMD hat definitiv sehr attraktive Produkte, wenn man nicht zu "gehirngewaschen" ist um diese überhaupt erst korrekt wahrzunehmen.
 
Zuletzt bearbeitet:
StockholmSyndr. schrieb:
Ich hatte schon ein Auge auf die 290 (ohne X) geworfen als Ersatz für meine HD6870,
aber 1x8Pin + 1x6Pin ist für mich das KO-Kriterium, weil dann mein Netzteil nicht mitspielt.

Mist.

Mit einer 280X oder 280 wäre ich auch zufrieden, aber ich will unbedingt TrueAudio.

@Quantität: FireGL?

???
a) kann man ohne probs ein 6-pin zu 8-pin adapter verwenden oder vom laufwerksstrang abgreifen
b) könnte man auch durchaus mal 80 EUR fürn neues netzteil springen lassen, wenn man schon 500 für ne GPU ausgibt....
 

Solche ungraden Zahlen kenn ich die letzten jahre nur von nivida, hatte nicht amd immer aufgerunde ? also sind das 950mHz ?
 
Quantität schrieb:
Es gibt neben Games auch noch andere Verwendung für viel VRAM...

Die R9 290er sind aber nunmal ausgesprochene Gamer-Karten. Würde AMD hier generell 8GB oder gar noch mehr verbauen, nur damit irgendwelche (für Consumer) exotischen GP-GPU-Anwendungen davon profitieren, hätten sie definitiv ihre Prioritäten falsch gesetzt. Man würde den Preis hoch treiben, ohne dass 99% der potentiellen Kunden etwas davon hätten.

Bei speziellen FirePro-Karten sähe das natürlich ganz anders aus, oder z.B. auch den neuen Tesla K40 mit stolzen 12GB VRAM.

Für High-End-Gamer-Karten sind 3-4GB derzeit das Optimum. Damit erschlägt man auch die meisten Multi-GPU-Setups und extreme Qualitätseinstellungen. Wo das zu wenig wird, werden auch die GPUs selbst nicht mehr mithalten.

Tschaikowsky schrieb:
Danke! Endlich mal jemand der auf die Fakten eingeht, anstatt eine grundlegend negative Attitüde gegen AMD zu pflegen, weil das halt der allgemeine Tenor ist.

Ich habe eher den Eindruck, dass es hier einige AMD-Fans gibt, die extrem dünnhäutig sind und gleich alles als bösartigen Angriff auf ihre Lieblingsmarke ansehen, obwohl das oft gar nicht der Fall ist.

Ich sehe es z.B. so, dass ich von einer R9 290X, die nur auf dem Niveau einer GTX780 liegt und ebensoviel kostet, extrem enttäuscht wäre. Ich wäre einfach nicht zufrieden mit ca. 20% Mehrleistung gegenüber der 2 Jahre alten Tahiti-GPU bei dickem Preisaufschlag. Da würden dann auch "Sahnehäubchen-Features" wie Mantle oder True-Audio nichts retten.

Aber ich erwarte auch nicht, dass AMD sowas enttäuschendes abliefert. Alles was man derzeit zu den neuen Karten liest, deutet viel mehr darauf hin, dass sie mindestens ebenbürtig sein werden mit der Titan (und damit gut 30% vor Tahiti). In vielen Fällen sogar recht deutlich stärker.
Und die offizielle Angabe von AMD, dass die Karten trotzdem nicht mehr als 500-600 Dollar kosten werden, sehe ich auch nicht als dreiste Lüge, sondern als ernsthafte Absicht, Nvidias absurde und kundenfeindliche Preis- und Produktpolitik der letzten knapp 2 Jahre nicht mitzumachen.

Sollte das nicht eintreffen, dann wäre ich wie gesagt schwer enttäuscht. Nicht weil ich ein AMD-Feind oder Nvidia-Fan bin und irgendwas schlecht reden will, sondern weil ich unabhängig vom Hersteller ganz schwer hoffe, dass die Weiterentwicklung der GPUs nicht derartig stagniert und Mondpreise ala Titan oder auch nur der ungefähr 150€ zu hohe Startpreis der GTX780 herstellerübergreifend üblich werden.
 
Zuletzt bearbeitet:
maximus_hertus schrieb:
Nein. 1 Modul = 1 FPU = 2 Integercores = 2 "AMD Kerne"
2 Module = 2 FPUs = 4 Integercores = 4 "AMD-Kerne" usw.

Wollt schon sagen...scheinbar "verwechseln" viele die Integercores mit Modul und reden dann von "unechten" kernen, zumindest was AMD angeht. Intel hingegen hat fast immer die "echten" Kerne und keiner scheint zu wissen das Intel auch nur 4 "echte" Kerne hat und denen nochmal 4 "hinzu dichtet".

Soll nicht beleidigend sein oder jemanden angreifen, ist halt so meine beobachtung seit den "Faildozern"...und sein wir ehrlich...die tragen den Namen zurecht und ich bereuhe meinen kauf des FX-4100 so sehr...hoffen wir das AMD mit Steamroller wieder die Kurve kriegt...wenn selbst die Excavator immer noch nicht das bringen was sie sollten so tut es mir leid aber dann wird wohl nach 20 Jahren erstmals wieder ne Intel CPU bei mir einziehen.
 
Sieht zwar ganz nett aus, aber dieses "up to" gefällt mir nicht wirklich. Wenn ich das richtig interpretiere dann heißt das, dass es sich dabei um das Maximum handelt, oder? Die Frage ist dann, wie oft das erreicht wird. Wenn die Karte nur unter extrem günstigen Bedingungen so hoch kommt und normalerweise deutlich darunter bleibt, dann wird es mit dem deutlichen Schlagen eines Titans wieder schwierig. Bin gespannt wie das letzten Endes bei den unabhängigen Tests mit dem Chiptakt aussehen wird.

Mfg:)
 
@maximus_hertus,

mir ging es um die Zwei 128-Bit-FMAC-Gleitkommapipelines pro Modul ... ;-)
Und um nichts anderes.
Den Unterschied zwischen Modul/Kern @AMD und Intel Kernen ist doch lachhaft dass das hier noch immer so betont werden muss. @sHx.Shugo hättest Du ja dann wissen müssen, dass ich auf die 128-Bit-FMAC anspiele... also auch, wieder " verwechselt " nicht wahr, Fail0r ;-)
 
Zuletzt bearbeitet:
StockholmSyndr. schrieb:
Ich hatte schon ein Auge auf die 290 (ohne X) geworfen als Ersatz für meine HD6870,
aber 1x8Pin + 1x6Pin ist für mich das KO-Kriterium, weil dann mein Netzteil nicht mitspielt.

Adapter?!!!
 
Lagerhaus_Jonny schrieb:
Die 290X wird mir vermutlich zu teuer, aber die 290er klingt sehr vielversprechend. Ich denke es ist blödsinn sich jetzt noch eine 79XX zu kaufen, wenn die neue Generation vor der Tür steht.

Kommt wie gesagt auf das Budget an. Ich hab nicht vor mehr als 250€ auszugeben und da gibts eine 7970 GHz auf ebay ^^
 
mac_skull schrieb:
aber dieses "up to" gefällt mir nicht wirklich.

Ich finde das "up to" logisch, konsequent und ehrlich. Heutzutage springen GPUs und CPUs ständig zwischen vielen verschiedenen Turbo- und Energiesparstufen hin und her. Irgendeinen "Basiswert" anzugeben, der irgendwo zwischen der höchsten Turbo-Stufe und der niedrigsten Energiesparstufe liegt, ist nicht besonders aussagekräftig oder praxisrelevant.

Eine "von bis"-Angabe wäre natürlich noch etwas besser. Also minimaler Energiespartakt bis maximaler Turbo-Takt. Aber so richtig viel schlauer wäre man dadurch auch nicht. Da müssten noch zusätzliche Angaben dazu, wie z.B. typischer Takt bei HD-Videowiedergabe, typischer Spiele-Last nach Zeitraum X, usw. Das passt aber nicht wirklich in ein Datenblatt, sondern gehört in ein ausfürhliches Review.
 
Ob die Referenzkühler diesmal wohl was taugen werden? Das wäre mal ein gigantische Neuerung bei AMD um die ich nVidia immer beneide. Wird es wieder 1-2 Jahre dauern eine Dual-GPU-Karte auf Basis der 290x zu bringen oder lässt man es gleich ganz?

Der Leistungszuwachs fällt ja - wenn auf Titan-Niveau - recht übersichtlich aus, wenn es preislich zumindest nicht so absurd wird wie bei nVidia kann man es sich überlegen. Aber für 30% Mehrleistung sind 1200,-€ gegenüber zwei 7970ern auch nicht wirklich attraktiv, wenn auch besser als 1.800,-€ für zwei Titanen. Wenn sich für die zwei gebrauchten 7970er zusammen noch 300,-€ erzielen lassen wäre ich eventuell zugeneigt.

Aber ich befürchte fast das es noch Monate dauert bis 290xer mit brauchbaren Kühlern zu vernünftigen Preisen unter 600,-€ erhältlich sind.
 
So sehe ich das auch. Und ich bin ebenfalls weder für AMD noch für NV. Mir geht dieser kindische Markenkrieg, der hier jedes mal abläuft einfach nur auf die Nerven. Mir kommt es nur so vor als würden mehr ungerechtfertigte Behauptungen über AMD vorkommen. Vor allem was Cpu´s angeht. Ich finde "aylano " hat es ganz gut auf den Punkt gebracht.
 
Herdware schrieb:
Ich finde das "up to" logisch, konsequent und ehrlich. Heutzutage springen GPUs und CPUs ständig zwischen vielen verschiedenen Turbo- und Energiesparstufen hin und her. Irgendeinen "Basiswert" anzugeben, der irgendwo zwischen der höchsten Turbo-Stufe und der niedrigsten Energiesparstufe liegt, ist nicht besonders aussagekräftig oder praxisrelevant.

Eine "von bis"-Angabe wäre natürlich noch etwas besser. Also minimaler Energiespartakt bis maximaler Turbo-Takt. Aber so richtig viel schlauer wäre man dadurch auch nicht. Da müssten noch zusätzliche Angaben dazu, wie z.B. typischer Takt bei HD-Videowiedergabe, typischer Spiele-Last nach Zeitraum X, usw. Das passt aber nicht wirklich in ein Datenblatt, sondern gehört in ein ausfürhliches Review.

Ich hoffe mal sehr, dass AMD das Rauf- und Runtertakten besser hinkriegt als nVidia mit deren vollkommen verkorkstem "Boost".

Denn was man nicht braucht, ist ein Absenken der Leistung, weil irgendwelche Zielgrenzwerte überschritten werden, und zwar im Regelfall genau dann, wenn maximale Leistung gebraucht wird.
 
Off Topic....

Manche Käufer zahlen nicht mehr als 299 Euro für einen Komplett Rechner.


On Topic....

Ich selber nutze auch viele Mods bei Spielen die den Speicher ruckzuck überlaufen lassen. Selbst eine Titan wird bei einigen Spielen (z.b. Skyrim) verfrühstückt. Es soll auch tatsächlich Spieler und PC-Nutzer geben die mit mehr als nur 1600/900, 1920/1980 Auflösung spielen und arbeiten.

Sicher werden auch die Kartenhersteller an die Leute denken die nicht soviel an Vram brauchen und ein Nischenprodukt einer 290/290X mit 512MB/1GB, 2GB verkaufen. Ich persönlich würde eine 290X mit 8 GB begrüssen, genauso viele Nutzer die mit CAD, maya und co arbeiten und nicht die teueren Profi Karten im Wert von mehreren tausend kaufen wollen.

Ansonsten können die ja z.b. BF4 mit einer Auflösung von 256 x 192 spielen. Da reicht auch eine alte Geforce 6 völlig aus.

http://www.pcgameshardware.de/PCGH-...-heutigen-Tages-bei-PC-Games-Hardware-853879/


mfg
 
SaarL schrieb:
@GrooveXT

Also 2GB VS 4GB bei Skyrim OHNE Mods bringt bei hoher Auflösung+(SS)AA schon sehr viel ( 10fps VS 40fps/ 4fps VS 30fps - in etwa, genaue Zahlen nicht im Kopf).
Bei pcgh stürzt BF4 Beta mit 6GB VRAM ab, da zu wenig - aber halt in extremster Auflösung (durch Downsampling auf einem 30" (2560x1600) halt :D).
Skyrim mit Mods hier im VRAM-Thread mit Titan SLI -> 6GB, aber unspielbar.
XPlane auch 3GB in 1024x768.

Natürlich kann es mit weniger auch laufen, aber es gibt Beispiele (und GENAU DAFÜR sind diese Speichermengen), bei denen es einen Vorteil gibt - auch bei einer SingleGPU.

PS: Selbst ich schaff es mit meiner 5850 1GB weit mehr als 2GB VRAM einzufordern (aber dann halt durch nut 1GB vorhanden -> 1fps^^).
Und das in bspw. Race Driver Grid in FullHD (2,6GB - 1GB dedicated, 1,6GB dynamic - laut GPUz) bei fluppigen 0,x fps.
BQ runtermachen und es läuft wunderbar.


Bei Skyrim bringt viel VRAM aber ich nix, wenn die Engine nicht mit den Mods klar kommt. Musste bei mir zusehen, wie weder CPU noch GPU, noch VRAM nichtmal ansatzweise ausgelastet wurden, aber die FPS einfach an einigen Stellen auf 40-50 einbrechen.
Da reichen 1-2 Mods aus und schon hat man den Salat. Skyrim in irgend einer Weise als Referenz für VRAM Verbrauch und/oder performance zu nehmen ist doch irgendwo Schwachsinn. Da kann man genauso gut Minecraft nehmen. Damit kann man sich mit ein paar Texturen auch den Speicher bis zum Anschlag vollaufen lassen...


Gut, ich finde grundsätzlich auch, dass 3-4 GB aktuell sinnvoll sind, damit die Karten in 1-2 Jahren nicht zu VRAM Krüppeln werden. Aber 6 GB und mehr sind für Single GPU PCs aktuell noch totaler Schwachsinn. Und da sollte man nicht von Spielen ausgehen, die man mit Texturen tot-modden kann und dann nicht mehr klar kommen und somit den VRAM bis zum anschlag vollaufen lassen. Und für 4K, Downsampling und co sind selbst Titan und 290X viel zu schwach. Da kann der VRAM zwar was bringen, aber ob nun 20 oder 30 FPS ist dabei auch egal.
 
Mich interessiert am meisten, was sich im Bereich der stromsparsamen passivgekühlten Grafikkarten, die ihren Saft allein übers Mainboard beziehen, tut. Ich habe momentan eine passive Radeon 7750 in einem Mini-ITX-Setup (mit der ich sehr zufrieden bin) und würde allenfalls auf deren nächste Generation aufrüsten.
 
Klassisches Übertakten ist mit diesen Karte also dann am Ende?
Ist aber schade.
 
latexdoll schrieb:
Ich persönlich würde eine 290X mit 8 GB begrüssen, genauso viele Nutzer die mit CAD, maya und co arbeiten und nicht die teueren Profi Karten im Wert von mehreren tausend kaufen wollen.

In dem Fall beißen einem aber die für Spiele optimierten Treiber der Consumer-Karten in den Hintern. Diese bewusste Beschneidung (oder Spezialisierung) der Gaming-Karten dürfte in den meisten Fällen auch noch so viel VRAM nicht wieder ausgleichen.

Selbst Low-End-Profi-Karten rennen dank optimierter Treiber in professionellen Anwendungen oft Kreise um dicke Consumer-Karten.
Hier z.B. das besagte Maya. Die alte, kleine Quado 2000 (entspricht ungefähr einer GTS 450) ist darin vier mal so schnell wie eine Titan und kostet halb so viel. Und selbst die günstige 100 Euro-Karte FirePro V3900 (entspricht HD 6570) ist mehr als 3x schneller als die Titan.
 
GrooveXT schrieb:
Ernsthaft? Du führst hier Minecraft an? Läuft das eigentlich immer noch auf Java?! Ist nicht böse gemeint, aber ich habe jetzt von "richtigen" Spielen gesprochen.

Ja tue ich, eben weil es kein "richtiges" Spiel ist. Dass das Ding dank Java RAM fressen kann wie nix ist ja bekannt, aber knapp 6GB VRam (bei 80fps im CPU-Limit) sind schon eine Ansage. Zumal VRam nicht so leicht über Java zuzumüllen ist wie normaler Ram.
Wobei ich nur noch einmal betonen kann dass Nutzen =! brauchen ist. Es würde mich wundern wenn es mit meinen Settings nicht auch mit einer 4GB 680/770 laufen würde. AMD lasse ich hier bewusst aus da der von mir verwendete Shadermod teils massive Probleme mit AMD-Karten aufweisen soll.

Herdware schrieb:
Ich habe eher den Eindruck, dass es hier einige AMD-Fans gibt, die extrem dünnhäutig sind und gleich alles als bösartigen Angriff auf ihre Lieblingsmarke ansehen, obwohl das oft gar nicht der Fall ist.
Schön formuliert.

Pilstrinker schrieb:
Ich hoffe mal sehr, dass AMD das Rauf- und Runtertakten besser hinkriegt als nVidia mit deren vollkommen verkorkstem "Boost".
Was ist daran denn verkorkst? Die Karte versucht sich selbst so schnell laufen zu lassen dass sie gerade noch in die Spezifikationen reinpasst. Dadurch läuft jede Karte unter starker Last am vom Hersteller vorgesehen Limit und liefert dank Turbo auch noch ein paar % mehr Leistung ab als ohne selbigen (nicht dass es einen Unterschied zwischen Spielbar und Unspielbar machen würde, aber die obligatorischen 2% müssen es ja immer sein).
Verkorkst ist das Ding nur für stärkeres OC, da geht ohne BIOS Mod leider nichts.

Pilstrinker schrieb:
Denn was man nicht braucht, ist ein Absenken der Leistung, weil irgendwelche Zielgrenzwerte überschritten werden, und zwar im Regelfall genau dann, wenn maximale Leistung gebraucht wird.
Schonmal was von "PowerTune" gehört? Wird die Karte zu stark belastet und verbraucht dadurch zu viel, wird die Leistung gesenkt damit sie wieder in den Rahmen passt. Damit hat AMD angefangen.
NV hat das ganze lediglich dynamischer gemacht und auch für den Gegenteiligen Fall - "niedriger" Verbrauch bei hoher Auslastung Powerstates eingeführt. Dadurch läuft die Karte an der Grenze "normal", unterhalb allerdings schneller.

Dass was AMD nun langsam einführt/eingeführt hat ist ja nichts anderes nur dass es sich anders nennt. Hoher Verbrauch -> Leistung drosseln, "Niedriger Verbrauch"-> Leistung erhöhen. Dass ganze ist imho eine durchaus feine Angelegenheit da die Zeiten auch bei GPUs vorbei sind in denen 100% Last auch gleich maximalen Verbrauch bedeutet haben.
 
e n v i d i a schrieb:
Machbar ja, jedoch mit Performance Verlust. Würde mich auch über 8 GB freuen. Natürlich nicht zum spielen.



Da hast du natürlich Recht. Was Intel schon alles verbrochen hat geht gar nicht. Ich würde es AMD auch sehr wünschen wieder richtig auf Kurs zu kommen. Trotzdem soll Mantle Hardware- übergreifend sein. Naja, die 290x wird wohl meine werden leider wohl ohne Mantle :( dank meinem I7.

Da hast du aber was falsch Verstanden ;)

Mantle ist unabhängig von der CPU.
 
Zurück
Oben