Test AMD Radeon R9 295X2 im Test

BookerDeWitt schrieb:
@CB-Autoren: Kommt bitte noch eine offizielle Stellungnahme oder eine Anmerkung/Korrektur zum Leistungsrating? Könnt ihr wenigstens begründen, warum ihr Mantle nicht einbezieht?
Aus dem selben Grund warum PhysX bei Geforces (!) nicht berücksichtigt wird.

Wenn man alles in ein Diagramm steckt würde es verzerrt werden. Wie soll man Mantle gewichten, bei 2 Mantle Titeln? Das Mittel aus den Tests wäre nicht aussagekräftig.

Es ist ja nicht wie bei HQ AF, das gar nicht mehr getestet wird. Die Balken sind noch da, Äuglein auf und durch.

Goofy123 schrieb:
500W ist in der heutigen Zeit zu viel.
Ich sage nur: CO2 Ausstoß bei einem Auto...
Also No-Go!
Sind sogar 560W nach PCGH. http://www.pcgameshardware.de/Grafi...80/Tests/Radeon-R9-295X2-Test-Review-1116145/
Das ist 5x die FX 5800 Ultra. Eigentlich ein Wahnsinn.

Aber dein Auto Vergleich ist lächerlich. Mit einem 50.000W Gefährt wirst du doch auf Deutschlands Straßen ausgelacht. Da müssens doch mindestens 200.000W sein, besser mehr. Der Norm Deutsche vebringt doch täglich 30-60min auf der Bundesautobahn.
Die Kritik der 500W entstammt doch nur den künstlich erhöhten Strompreisen, der unangenehmen Abwärme im Zimmer und der Lautstärke. Aus Ökologischer Sicht ist der Betrieb der 295X 24/7 ein unbedeutender Witz, jeder sollte so ein Ding haben wenn er dafür weniger Auto fährt.
 
Leckomio was für ein Monster,Trotzdem so ner Karte muss man doch en Fullcoverblock verpassen und singelradi geht ja mal gar nicht...:evillol:
 
Aus dem selben Grund warum PhysX bei Geforces (!) nicht berücksichtigt wird.

Wenn man alles in ein Diagramm steckt würde es verzerrt werden. Wie soll man Mantle gewichten, bei 2 Mantle Titeln? Das Mittel aus den Tests wäre nicht aussagekräftig.
Bei PhysX handelt es sich um eine grafische Erweiterung, die man tatsächlich schwer in einem Balkendiagramm berücksichtigen kann. Dafür ist dann das Fazit da.

Aber Mantle? Auch wenn es eine API ist, sollte die Auswirkung auf das Leistungsrating dieselbe wie ein simpler Treiber sein. Das Bild und die Effekte bleiben ja gleich. Ein Mantlespiel wird mit Mantle gespielt, weil es ein lineares Upgrade ist. Ergo ist es völlig unsinnig, die Werte ohne Mantle ins Leistungsrating zu nehmen, da diese sowieso niemanden interessieren.

So lang ich keine Begründung lese, gehe ich mal davon aus, dass CB gesponsort wird.
 
Mantle ist ein Renderpfad, der Mehrperformance bringt. Kein Eyecandy, dass nur "bessere" Bildqualität liefern soll wie Physx. So wie man neue Grafikkartengenerationen mit verschiedenen APIs testet und dadurch sein Leistungsrating erstellt, sollte genauso Mantle mit einbezogen werden.

Wenn es Spiele mit DX 11.2 geben würde, bei denen das Featureset der Nvidia-Grakas nicht reichen würde, sollte dann deiner Argumentation nach kein DX11.2-Test Einzug ins Leistungsrating finden?
 
Muss sagen, ich bin positiv überrascht.

- hält den Takt
- Temps gehen in Ordnung
- Lautstärke ebenso
-> Kühlung scheint also mit dem Dingen fertig zu werden, hab ich so nicht erwartet

- Mantle scheint problemlos zu funktionieren
- Skalierung ist top
- Verbrauch ist bei einem solchen Teil absolute Nebensache
- Der Preis ist angemessen
 
Danke für den Test, Computerbase! Damit schlägt sich die 295X2 in etwa so, wie ich es gedacht habe. Allerdings verstehe ich die starke Kritik an den 500W(+) nicht so recht, denn immerhin entspricht das 2x 290X und die 780Ti sind im maximalen Leistungszustand in derselben Höhe. Die 780Tis brechen da ja absolut ein und zeigen, im Vergleich zum normalen Messwert, eine extreme Aufnahmesteigerung. Von eigentlich gut zu fast-295X2. Relativiert man das, dann finde ich den Stromverbrauch zwar insgesamt hoch, aber verglichen mit Konkurrenz-SLI (und 2x 290X) dann ganz normal. Oder bin ich der einzige, der so denkt? Wenn man mal alles mit der 290X vergleicht...

Die Diskussion, ob Mantle ins Endrating gehört, überlasse ich mal weitgehend denen, die mehr Ahnung haben. Auch wenn ich tendenziell den Befürwortern rechtgeben muss. Meiner Meinung nach(!) gebührt Mantle die gleiche Behandlung wie einer neuen DX-Generation. Kamen die nicht auch recht schnell in die eigentlichen Rating-Balken mit rein? Weiß ich gerade gar nicht. :) Aber es ist halt doch ein "Major-Feature", diese neue Grafik-API.

Gruß
Pandemic
 
TheK schrieb:
Wenn es ihm gelingt, die Wärme zu speichern, reicht das bei Dauerbetrieb in einem Neubau für 150-200 m². Diese Annahmen sind zwar nicht wirklich realistisch, aber da kommt definitiv eine Abwärme raus, die sich spürbar auf die Raumtemperatur auswirkt.

Ich schaff es mit 1200-1500w jenachdem ob es 20 oder 22grad sein sollen.
Abluftwärmepumpe mit lüftungsanlage, und ja die erzeugte Hitze im Arbeitszimmer wird mit genutzt auch wenn sie da etwas teurer erkauft wurde.

Zum Thema selbst:

Astrein, wenn es einen fullcoverkühler gibt.
Das richtige NT vorausgesetzt.
 
BookerDeWitt schrieb:
@mcsteph

Ich habe kein Problem, falls sie das irgendwie logisch begründen können oder abändern. Ich habe bloss die Befürchtung, dass dies einfach unter den Tisch gekehrt wird -.-

Ob das Leistungsrating in dieser Weise wirklich unter irgendeinem "Pro-Nvidia"-Einfluss erstellt worden ist kann ich nicht sagen. Aber: in dubio pro rero... ->
Ich denke mal nicht.

Trotzdem würde ich mich (und viele andere) über eine Stellungnahme dazu freuen ( und wenn ich die erreiche indem ich den Thread zuspamen muss :/ )

Ich sage nur hd7850 1gb-das thema wurde bewusst 1 jahr lang tot geschwiegen. Die sitzen halt am längeren hebel:)
 
Bezüglich der Stromaufnahme bzw der Verkabelung worauf man achten sollte hätte ich vielleicht eine kleine anregung. ;)


Kenn Ihr noch die alten Y-Kabel 2x 5 1/4 Floppy auf 1x 6-Pin Stecker?

So ähnlich währe dann auch die Lösung.

Y-Kabel aus 1x 6-Pin & 1x 8-Pin zu 1x 8-Pin ;)
 
mcsteph schrieb:
Ohne max sehe es düster aus, so einfach ist das...Verarsche ist das

MAX kannste bei NV ignoren, manuelles OK packt da 20% drauf bei selber Leistungsaufnahme. Ich versteh auch nicht wieso CB überhaupt "MAX" Werte aufnimmt, wenn es normale OC Werte wären okay, aber MAX kann kaum was außer mehr Saft verschwenden...
 
Ich wäre nicht dafür Mantle in das "normale" Rating mit aufzunehmen, aber ich wäre dafür in das Mantle-Rating die SLI-780er mit einfließen zu lassen. Battlefield 4 nochmal für den direkten Mantle vs. Wundertreiber Vergleich ausklammern und gut ist. Mutliplayer vs. Singleplayer, HD vs. UHD und so weiter und so weiter...

Zeigt uns einfach am Vergleich mit Battlefield was AMD vs. Nvidia mit ihren Wegen zu leisten im Stande sind...

EDIT: UND NICHT VERGESSEN!!! 1 Core / 2 Core / 4 Core mit 1GHz / 2GHz etc. ... so schön wie es im Mantle-Test war um mal zu sehen wie sehr sich Nvidia mit ihrem Wundertreiber beim CPU-Overhead so schlägt gegen Mantle.
 
Zuletzt bearbeitet:
Prinzipiell gefaellt mir die Karte ganz gut, habe aber 2 Probleme damit.
1. ist der Preis zu hoch. 1100€ waere ein guter Einfuehrungspreis, ~1000€ ein guter Preis bei ausreichender Verfuegbarkeit
2. Spulenfiepen* - ein absolutes NOGO fuer eine Grafikkarte ueber 20€ ;)

Ulukay schrieb:
Ich habe Spulenfiepen bemaengelt. Dass es ueberhaupt zu sowas auf irgendeiner der Karten kommt, zeugt von einer schlechten Qualitaetskontrolle. Man kann also Glueck oder Pech haben wenn man eine 1300€ Karte kauft. Und das ist FUER MICH untragbar.
Das ist alles was ich sagte. NICHT dass die gesamte Serie scheisse ist.
 
Zuletzt bearbeitet von einem Moderator:
Nur weil eine Karte das mal hat..
...siehs mal so: Spricht dafür, dass AMD die Karten nicht selektiert ;)
 
Ja super. Kann man dann 4 Karten kaufen, und die am leisesten fiepende behalten. Toll!
 
Und die 670FTW von meinem Bruder fiept auch..
...und viele andere NV und AMD Karten...
...von Netzteilen ganz zu schweigen...

Also pack mal die Waffen ein und schieß wo anders weiter, das ist nun mal ein Problem das ALLE haben.
 
Selber schuld wenn du defekte Karten akzeptieren willst.
Ich tu es nicht, und meine Meinung lass ich mir von dir sicher nicht verbieten.

Eine fiepende Hardware ist mangelhaft. Genauso wie es ein rasselnder Motor bei einem Neuwagen ist.
Umso schlimmer, wenn es Premium Produkte trifft, und der Fehler sogar noch Leute wie DIR noch verteidigt wird!

"Hey da is Arsen im Salat" - "Macht nix, is in allen Salaten drin"

Und btw. ich hatte in ~20 Jahren Hardwarebastelei erst eine einzige Karte die fiepte, und das war *trommelwirbel* eine R9 290x.
 
Und deswegen schließt du jetzt auf alle oder was?
Du kannst doch nicht einfach hingehen und sagen "Eine Karte fehlerhaft == Serie Müll"

4 Karten habe ich hier, 5450, 6870, 560 Ti und 7850. Keine fiept, alles gute Karten, obwohl es von jeder der Serien auch n paar gibt die fiepen...
 
Meine R9 290 Tri-X fiept zB. gar nicht
 
Ulukay schrieb:
Selber schuld wenn du defekte Karten akzeptieren willst.

Von einem Defekt kann man bei Coil Noise nun wirklich nicht sprechen.
 
Kein Plan.
Hatte mir zum Release der R9 290X 4 Karten bestellen müssen - alle fiepten. Ich hab die Sapphire genommen, die am wenigsten fiepte.
Da mein Rechner komplett auf Silence getrümmt ist, ist das Fiepen der GraKa nun das lauteste. Echt toll.

Ich kaufe nie wieder bei Release eine referenzdesign Karte.
 
Zurück
Oben