Test AMD Radeon HD 7790 im Test

Schade, dass die Leistungsaufnahme der neuen AMD Karte bei Blu-Ray immer noch horrend ist, ich hoffe das AMD das Thema bei der nächsten Generation nicht weiterhin ignoriert.

Aber was die Effizienz unter Spiele-Last betrifft ist die Hd 7790 souverän vor allen anderen Karten auf dem Markt, ich würde fast sagen "Next Level":



Quelle: http://www.techpowerup.com/reviews/Sapphire/HD_7790_Dual-X/27.html
 
Krautmaster schrieb:
@JamesFunk

mich würde interessieren, ob ich mit Nvidia meine Dualhead mittels DP Kabel betreiben kann. Meine HD6950 sagt da "nein" da die DP Kabel 20 Pol statt 19 Pol sind. Mit 20 Pol läuft mein Rechner nicht sobald ich einen Monitor über DP statt DVI anstecke... der Spaß geht sogar soweit, dass alle Lichter im PC brennen wenn ich das Netzteil trenne. Powered by DP Kabel durch die GPU :D

Leider sind, so wie ich das sehe, fast alle Kabel 20 Pol und ich werde nicht hingehn und nochmal Haufen Asche für 2 Kabel ausgeben. Muss ich halt HDMI umstecken sobald ich 3 Displays betreiben will... damit werd ich leben müssen.

Der hohe Verbrauch stört aber weit mehr. Vor allem auch bei h264 wenn man an HTPC Karten denkt. Da machen sich die kleinen Nvidia Karten weit besser...

Naja, wer ein Display hat und mit der karte Zocken will findet ein gutes Stück Technik vor.

Zu DP kann ich dir nichts sagen. Ich nutze die Schnittstelle nicht. Bei mir siond alle PCs (außer der HTPC) per DVI verkabelt.

Aber wenn ich richtig informiert bin, dann gibt es von nVidia gar keine Karte (GTX 600er Reihe) mit 2 DP Anschlüssen.
 
bigot schrieb:
Aber was die Effizienz unter Spiele-Last betrifft ist die Hd 7790 souverän vor allen anderen Karten auf dem Markt, ich würde fast sagen "Next Level".
Die paar Prozent sind Next Level? Wohl kaum.
 
ich kann die unterschiedlichen werte bei veschiedenen seiten einfach nicht begreifen.
schaut euch mal den lastverbrauch beim luxx-test an:

strom-last.jpg


http://www.hardwareluxx.de/index.ph...841-test-gigabyte-radeon-hd-7790.html?start=5

die absoluten zahlen sind natürlich egal, da anderes testsystem, aber qualitativ kommt da was völlig anderes raus im vergleich zur gtx650ti.
wie kann das sein?

fährt die gigabyte mit niedrigerer spannung?
 
Zuletzt bearbeitet:
Wann lernt CB endlich mal den Unterschied zwischen Strom und Spannung?!
 
Fünf Prozent effizienter als die HD 7750 und du sprichst von Next Gen? TPC hat eine übertaktete Custom-Karte von Sapphire getestet, solche Modelle sind idR etwas effizienter als das Referenz-Design.
 
Schöner Test. Es wurde auf einen reißerischen Titel verzichtet und das ansonsten meiner Meinung nach spürbare Tendieren zu einem der beiden Hersteller konnte ich diesmal im Artikel nicht feststellen.

Die Unkerufe zum Preis der Karte kann ich nicht nachvollziehen. Das sie sich weiter unten einpendel wird, ca. 125,- , ist nach den bisherigen Erfahrungen klar. Der Raum zwischen 7770 und 7850 ist sinnvoll gefüllt und wir sollten froh sein, dass trotz nur zwei Hersteller uns doch eine recht große Auswahl an unterschiedlich starken Grakas gegeben wird.
 
Hexxxer76 schrieb:
Zu teuer für die gebotene Leistung... Was ich einen Witz finde ! Wer kauft dann so eine Karte, wenn man "paar" Euro drauf legt und mehr Leistung hat ?

Sicherlich eine gute Karte, aber der Preis muss fallen.

Mein Radeon HD7850 2 GB hat gerade mal ca. 140,- gekostet + 2 Games dazu !

Würde ich durchaus machen wenn sie denn leise ist, habe zur Zeit eine 6870 die mir dicke ausreicht, die billigen 7850 sind leider echte krawallbrüder

finde sie jetzt schon, also bei Einführung zu langsam für echtes Gaming - siehe crysis 3, far cry3, tomb raider
also ist gaming nur dann echt wenn man maximale Einstellungen fahren kann? Grow up kids
 
Zuletzt bearbeitet:
Herdware schrieb:
Auf den Gesamtpreis bezogen sind 18€ doch schon eine ganze Stange. Immerhin fast 15%. Wenn 15% Preis- oder Leistungsunterschied vernachlässigbar wären, gäbe es nur halb so viele Grafikkartenmodelle. ;)

Die 7850 bietet aber für 15% doppelt soviel Speicher und ein enormes Übertaktungspotential, wo man nicht durch die Bandbreite limitiert wird.

Man erhält also wesentlich mehr als nur den Leistungssprung von knapp 20%.
 
Hier wurde keine Referenzkarte getestet sondern eine OC-Version.
Die anderen testeten aber auch mit einer OC-Karte :D
 
@aivazi:

@ CB könnt ihr mal dem Gerücht nachgehen dass Framelatenzen abhängig vom Prozessor sein sollen ?, hab mal in einem Post gelesen mit Diagrammen Etc. dass ein i7 mit SMT oder ein i3 richtig starke Latenzen verursachen soll wohingegen man mit einem i5 Prozessor ohne SMT recht Latenzfrei spielen kann, weiß leider nicht mehr wo ich das gelesen hatte, werde aber versuchen die Quelle nachzureichen.

Bsp. Skyrim: SMT an/Aus bzw. core fixing auf 1 core - microstutter ist weg:
http://benchmark3d.com/microstutter-case-study-skyrim-wtf-edition
http://benchmark3d.com/microstutter-case-study-skyrim-diving-deeper
http://benchmark3d.com/microstutter-case-study-skyrim-exam-day

Das klappt aber nicht immer. Die Ursache der Stuttereffekte ist aber wohl ziemlich sicher in der multi-thread scheduling gegend zu suchen (siehe auch diskussion auf 3dcenter z.B).

Da spielen viele Faktoren zusammen der Grafiktreiber ist nur 1 davon und afaik nicht mal DER wichtigste. (Der treiber muss sozusagen nur damit leben was er an inputs bekommt).

IMHO, brauchts da optimierungen im thread scheduler / Windows, CPU microcode....aber bis sich da mal was tut vergehen jahre.
 
@ Isacaran , danke genau das hab ich gemeint :D , interessant dass da immer AMD oder Nvidia zur Rechenschaft gezogen werde.
 
Naja ist ja auch das naheliegendste. Zumal es diese großen Unterschiede zwischen Nvidia und AMD-Karten gibt.
Da haben die Grafikhersteller selber wohl auch einiges an Verbesserungspotential.
 
Ja - darauf weise ich auch schon seit wochen hin, auch hier in mehreren topics. Aber der Wille zu lesen was andere schreiben und auch mal zu sehen was dem zugrunde liegt fehlt halt bei sehr vielen.

Da wird ein "schuldiger" ausgemacht und der muss es dann richten...

Z.B. wurde das auch schon in zusammanhang gebracht mit den diversen Chipsatz-Bugs der neueren Intel-chipsatz Mainboards (SATA-port bug und Co.)....aber als einzelner kann man sowas nicht prüfen, das bleibt nunmal die aufgabe von Hardware journalisten/experten.
 
Ich würde aber in der Tat mich mal dafür interessieren wie es in einem größeren Test aussehen würde evt. auch auf Mikroruckler bezogen, schließlich kann dieser Ganze Latenzkram auch Auswirkungen auf Dual GPUs etc. haben, da hat scheinbar Intel auch mal Nachbesserungsbedarf.
 
calluna schrieb:
@Computerbase

Rund 9% der Männer haben eine Rot-Grün-Schwäche (also eine nicht gerade kleine Anzahl an Menschen hier bei CB), so wie ich. Die Latenz-Diagramme sind deswegen nicht gerade barrierefrei. ;-)

Ansonsten, toller Test.

Ich kann damit auch nie etwas anfangen aus genau diesem Grund.:lol:
 
bigot schrieb:
Schade, dass die Leistungsaufnahme der neuen AMD Karte bei Blu-Ray immer noch horrend ist, ich hoffe das AMD das Thema bei der nächsten Generation nicht weiterhin ignoriert.

Das ist auch die Sache, warum ich mir wohl demnächst (wenn der Preis noch etwas nachgibt) eine 650 Ti hole. Ich schaue viel Filme am PC und bei den Strompreisen mit unserem Atom-Ausstieg zählt am Ende des Jahres jedes Watt.

HT4U und Techpowerup zeigen auch, warum AMD schwächelt:

http://ht4u.net/reviews/2013/amd_radeon_hd_7790_sapphire_dual_x_review/index10.php

Die Spannungen werden für Filmwiedergabe immer noch nicht abgesenkt. Es wird die höchste Stufe benutzt, als wenn man gerade ein Ballerspiel zockt...
 
Zurück
Oben