Test AMD Radeon R7 260X, R9 270X und 280X im Test

Man findet nur einen Eintrag in der Testmethodik...

Mich würde aber auch interessieren,was daraus wurde, das könnte nämlich neues Licht in den Schatten werfen.
 
Die Hersteller haben einfach keinen Stolz mehr dem Chip seinen wahren Namen zu lassen.

Unwürdig.
 
Xeljaga schrieb:
Die Hersteller haben einfach keinen Stolz mehr dem Chip seinen wahren Namen zu lassen.

Unwürdig.

Dann würde jede neue Generation nur 2-3 Karten beinhalten.
Gibt ja sogar Karten die über 3 Generationen hinweg mit Zahlendowngrade beibehalten wurden.
 
Tja und wieder einmal wird die PISA Studie bestätigt, dieses mal von einigen Kommentatoren hier(Hallo Ganeagon).
Echter Unterhaltungswert der einem hier geliefert wird.
Noch besser ist es aber traditionel bei der pcgameshardware da glänzt man bei den Komentaren mit noch mehr Unsinn^^

Also damit ich das richtig verstehe:
Es regen sich hier Leute auf das mit der Einführung der "neuen" AMD Karten die selbe Leistung für bis zu knapp 100€ günstiger abgeliefert wird als mit der alten Serie? Das jetzt quasi jede AMD Karte P/L-technisch jede NVIDIA Karte weit voraus ist und NVIDIA daher nachziehen muss oder sich auf ihren Fans ausruht?

Ich habe mir damals meine Radeon 7950 für ca. 400€ gekauft als diese erschienen war. Jetzt kostet diese nicht mal 200€, mit der neuen Serie gerade mal 165€. Das ist also MEHR als das doppelte der Leistung für das selbe Geld seit Einführung der 7XXX Serie von vor 2 Jahren. Was glaubt ihr eigentlich warum die 7XXX Karten einen Preisrutsch bekamen? Der liebe Gott war das bestimmt nicht^^

Es ist einfach unglaublich, da habe ich von einigen Leuten hier schon etwas mehr erwartet.
Und nein, bei NVIDIA finde ich das umlabeln auch nicht schlimm, solange man für das selbe Geld 30% mehr Leistung erhält als mit der alten Serie ist mir egal was sich dahinter verbirgt.
 
Zuletzt bearbeitet:
@Redaktion

Wurde das mit der GPU Temp der MSI schon korrigiert??
Ich bin mir sehr sicher, dass hier ein Fehler vorliegt! (65°C statt 85°C).

So kommt das ansonsten makellose CustomKühler Design von MSI viel zu schlecht weg!
Wäre ja schade...
 
Also irgendwie kommt mir der Test der MSI 280X etwas seltsam vor... die Karte hat doch nen Core Clock von 1050Mhz und dürfte damit komplett identisch zu ner 7970Ghz sein... warum ist die 7970Ghz dann trotzdem in jedem Test noch schneller?

Ausserdem was sind das denn für miserable Temperaturwerte der Twin Frozr? Sind ja teilweise noch schlechter als das Referenzdesign der 7970Ghz.
 
ich nehme an, man hat die msi auf 1000mhz runtergetaktet, um das referenzmodell zu simulieren.
das könnte die 3% unterschied ausmachen.
 
Thor1064 schrieb:
Wie schon gesagt finde ich die Aussage, dass aus 7870 die 280X wird so nicht ok, da die 280X nur eine umbenannte 7970 ist. Vor der Umbenennung hätte das ja auch keiner gemacht. Mehr wollte ich auch nie sagen. Deswegen verstehe ich auch nicht was nur mir damit sagen willst:



Habe ich nie behauptet.

Wenn du jedoch sagen willst, dass die 280X ungefähr den "Platz" der 7870 in der neue Generation/Reihe (die eigentlich nur der der 290 und 290X besteht, da neuer Chip) einnimmt, dann gebe ich dir Recht.

Das Problem an diesen ganzen Vergleichen ist immer, das jede Seite (Nvidia oder AMD) immer so vergleicht, dass Sie gerade besser dasteht. Dagegen ging es mir einfach darum technisch gleiche Sachen zu vergleichen und nicht nach irgendeinem Namensschema. Ist sowieso nur Marketing und letztendlich Augenwischerei.
Willkommen beim Rebranding, das ist alles nichts neues. ;) Ist halt genau das gleiche was Nvidia bei der 700er Generation gemacht hat: Aus der GTX 680 wurde die 770 und für die 780 und Titan hat man einen anderen Chip genommen. AMD macht jetzt genau dasselbe (wobei es zumindest ein paar neue Features gibt) und verwirrt zudem mit einem neuen Namensschema.
 
Ice-Lord schrieb:
Ich hab das AMD Namensschema immer für nachvollziehbarer gehalten
als das von nVidia.

Aber jetzt setzt man nicht nur das in den Sand sondern fährt auch
noch so eine Rebranding.-Kampagne das sich echt keiner mehr auskennt!
Verstehen tue ich das Namenschema nicht, aber vielleicht tut man es, wenn Kaveri da ist. ;-)

tombrady schrieb:
Wird wohl aus taktischen Gründen nur mit dem Takt laufen da der 290 sich ja 15-20% vor der 280X platzieren muss.
Schade, dass sich in der ganzen langen Zeit absolut nichts optimiert wurde.
Wenn man nicht in höhere Takte oder niederen Stromverbrauch "optimiert", dann erfolgt die Optimierung automatisch bei den Yields, wie wir einerseits nicht sehen und andererseits über die Tests nicht erfahren werden.
 
"Zudem hat AMD den Catalyst-Treiber bezüglich Ultra-HD-Displays optimiert, was aber auch die Radeon-HD-7000-Karten betrifft. So kommt der Treiber besser mit den im Consumer-Bereich eingesetzten „Tiled Displays“ (zwei Displays mit jeweils 1.920 × 2.160 Pixel) zurecht. Die vorhandenen Monitore wurden manuell in den neusten Treibern eingetragen, sodass automatisch eine Eyefinity-Konfiguration von den beiden Panels erstellt wird."

Das heißt mal 1080 Pixel.
Da "jeweils".
 
Ich kann ja verstehen, dass mach einer hier in der R9 290X den Heilsbringer sieht aber erstens glaube ich da nicht dran, warum haben sie dann diese Neuerungen nicht in den kleineren Varianten mitgebracht und zweitens bin ich hier nicht nur als theoretischer Technikinteressierter sondern als ganz realer Kunde unterwegs, der eben nicht in der 400€+ Klasse sucht, sondern eine gescheite Grafikkarte für um 200 € sucht und hierfür sehe ich bisher eher eine Enttäuschung, wobei die nachträglich veröffentlichten, veranschlagten Preise ja durchaus eine Überraschung beinhaltet @R9 280X...
 
firejohn schrieb:
"Zudem hat AMD den Catalyst-Treiber bezüglich Ultra-HD-Displays optimiert, was aber auch die Radeon-HD-7000-Karten betrifft. So kommt der Treiber besser mit den im Consumer-Bereich eingesetzten „Tiled Displays“ (zwei Displays mit jeweils 1.920 × 2.160 Pixel) zurecht. Die vorhandenen Monitore wurden manuell in den neusten Treibern eingetragen, sodass automatisch eine Eyefinity-Konfiguration von den beiden Panels erstellt wird."

Das heißt mal 1080 Pixel.
Da "jeweils".

Nein, tut es nicht. Für ein Ultra HD Display werden 2 Panels mit je 1920x2160 Pixeln verbaut. Zumindest für günstige 4K Displays.
 
hongkongfui schrieb:
ich nehme an, man hat die msi auf 1000mhz runtergetaktet, um das referenzmodell zu simulieren.
das könnte die 3% unterschied ausmachen.

Ja denke ich mal auch, da eigentlich jede AMD ihren Turbo Takt hält.
 
Das was AMD hier gemacht hat wäre wie, als wenn Nvidia bei Maxwell nur ein neuen Chip bringen würde, und der Rest wären alles umbenannte und alte Kepler Karten. Da TSMC 20nm noch nicht bringen kann, war dass wahrscheinlich die einzigste Option für AMD.

Trotzdem ist das kein Grund zur Freunde, sondern wird wieder ein zusätzlicher Faktor für die Stagnation des Desktop PC werden. Ich habe auch kein Problem damit, wenn Gartner und IDC in den nächsten Jahren weiterhin Hiobsbotschaften prognostizieren, und der Markt irgendwann kollabiert. Eine Marktbereinigung kann auch positive Effekte haben.

Einzig mit Hawaii werden sich die Quartalszahlen von AMD nicht deutlich verbessern. Und der Markt für die "alten" GCN Karten ist schon längst gesättigt. Da haben sich die meisten potentiellen Käufer schon in den letzten 2 Jahren eingedeckt. Noch nicht einmal die Gamebundles haben den Umsatz mehr beleben können. Jetzt greift man noch einige Kunden ab die auf die Preissenkungen reagieren. Und was kommt danach für die nächsten 12 Monate?
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Das was AMD hier gemacht hat wäre wie, als wenn Nvidia bei Maxwell nur ein neuen Chip bringen würde, und der Rest wären alles umbenannte und alte Kepler Karten.

Da musst du gar nicht das zukünftige Maxwell als fiktives Beispiel nehmen. Nvidia hat genau das in der 700er-Generation gemacht. Sogar noch etwas extremer als jetzt AMD.
Die einzige "neue" Karte in der 700er-Generation ist die GTX780 und deren abgespeckte GK110 ist auch nur ein alter Bekannter, der vorher schon in der Titan und davor in diversen Tesla-Karten benutzt wurde. Die GK110 dürfte schon ungefähr seit Mitte 2012 in Serienproduktion sein.

Das mit dem 20nm-Prozess ist so eine Sache. Es währe wahrscheinlich durchaus drin gewesen, die Hawaii in 20nm zu fertigen, wenn man es unbedingt gewollt hätte. Laut TSMC läuft der Prozess schon seit einiger Zeit (als "Risikoproduktion"). Es würden wohl keine allzu großen Stückzahlen und schlechte Ausbeuten dabei heraus kommen, aber für ein absolutes High-End-Produkt hätte es vielleicht durchaus schon reichen können.

Aber AMD hat schon vor längerer Zeit die Entscheidung getroffen, dass es (noch) nicht sinnvoll wäre, bei großen High-End-GPUs auf 20nm umzuschwenken. Die kleineren Strukturen würden nach Aussagen eines AMD-Entwicklers mehr Probleme bereiten (Energiedichte, Leckströme usw.) als lösen. Es gibt die klare Aussage von AMD, dass Hawaii in 28nm leistungsfähiger und effizienter ist, als sie in 20nm gewesen wäre.
AMD hat mit Tahiti die Möglichkeiten von 28nm offensichtlich noch nicht wirklich ausreizen können. (Was z.B. auch damit zusammenpasst, dass Nvidia sich damals äußerte, dass sie von Tahiti mehr erwartet hätten, oder auch schlicht damit, dass die kleinere, von den technischen Daten schwächere GK104 locker mit Tahiti mithalten kann.)

Sicher wird irgendwann der Wechsel auf 20nm kommen. Aber bis da hin muss noch viel Arbeit in die Optimierung für diese Strukturgröße gesteckt werden.

Was passieren kann, wenn man auf Teufel komm raus eine von den schieren technischen Daten hervorragende, große und komplexe GPU auf einen brandneuen, unerprobten Fertigungsprozess aufsetzt, haben wir auch bei Nvidias "Thermi" GF100 gesehen.
(Auch Nvidia hat aus dieser Lektion gelernt und die Möglichkeit genutzt, den Kepler-Big-Chip erstmal gründlich zu optimieren, bevor man ihn dann erst als Refreshversion auf den Markt bringt.)
 
Zuletzt bearbeitet:
Ok, dann nehmen wir als Bsp. die 7xx Series von Nvidia.
Gab es noch irgendwelche Fermi Karten in der 7xx Series?
Bei AMD ist jetzt noch ein Jahr mehr dazwischen.

Wie geschrieben, ich habe einen Punkt erreicht wo mir die Entwicklung des PCs egal ist.
Von mir aus kann der ganze Markt kollabieren. Das muss nicht automatisch schlecht sein.

Als AMD Fan mach ich mir trotzdem Gedanken, aber nicht mehr in den Foren.
 
Naja, du bemängelst denke ich die immer langsamer werdende Entwicklung mit zu wenig Innovationen, hab ich das richtig verstanden? Man muss einfach sehen, dass bei den Siliziumchips momentan ein Punkt erreicht ist, wo es nicht mehr so einfach ist mehr Leistung zu holen, ohne dass sehr viel mehr Strom verbraucht wird und sehr viele Störeffekte mit einspielen, siehe Post von @Herdware.
Es wird imho Zeit, dass die Software "besser" Entwickelt wird, dass alles modularisiert und parallelisiert wird.
 
Ich denke schon, dass man durch neue und optimierte GPU-Architekturen noch viel heraus holen kann. Nur geht es halt nicht mehr wie früher, in erster Linie einfach mehr Transitoren auf möglichst kleine Fläche zu stopfen und durch kleinere Strukturgrößen niedrigere Schaltspannungen zu erreichen. Man kann nicht mehr einfach so durch mehr "Breite" und höheren Takt wachsen.

Die Herausforderung heute liegt hauptsächlich im Energiesparen. Und das nicht nur auf die Gesamtheit des Chips gesehen, sondern auf die Energiedichte in einzelnen Regionen des Chips. Würde man bei einer aktuellen GPUs alle Transistoren gleichzeitig schalten, würde das Silizium einfach schmelzen. Es muss also sehr viel Gehirnschmalz darein gesteckt werden, wie man die verschiedenen Funktionseinheiten auf dem Chip verteilt, wie man sie ständig dynamisch an und aus schaltet und auch, wie man sie trotzdem möglichst gut (mit minimalen Signalwegen) miteinander verbindet. Die Datenverbindungen auf dem Chip limitieren die Leistung der GPU stärker, als die Schaltzeiten der Transistoren. usw.

Ich bin aber wie gesagt zuversichtlich, das das auch gelingen wird. Die GPU-Entwickler werden aus immer seltener wechselnden Shrinks der Strukturgrößen immer mehr herauskitzeln.

@matty2580
Naja. Von den Features her sind nicht wirklich riesige Unterschiede zwischen Fermi und Kepler. Es ging hauptsächlich um mehr Leistung und vor allem bessere Effizienz. (Was ja nichts Negatives ist.)
Ich sehe im "Recycling" der Keplers in der 700er-Generation keinen wesentlichen Unterschied gegenüber AMDs "Recycling" von Southern und Sea Islands GPUs in der neuen 200er-Generation. Ich sehe auch beides nicht wirklich als verwerflich an. Man bekommt in beiden Fällen mehr Leistung fürs Geld.
 
Zurück
Oben