Test Grafikkarten 2013 im Vergleich

Würde mich natürlich freuen, wenn ein neues BIOS und eine Custom Design-Karte weniger verbraucht! Das hatte ich weiter oben auch so geschrieben. :)
Ich will natürlich nicht die kommenden Realität an dem CB-Test festnageln. Ich kenne auch die Tests von den beiden anderen Seiten und habe mich auch gefragt, woher der große Unterschied kommt.
Aber ich kann es nicht selber testen und muss ja irgendwelchen Seiten "eher" vertrauen bzw. als Basis akzeptieren. Aus theoretischer Sicht konnte ich es nachvollziehen, warum die Grafikkarte mehr verbrauchen soll, wenn ein neuer Kühler drauf steckt. Ob das Testszenario oder sonstige Umstände das Ergebnis verfälscht haben: kA. :/
 
Humanforce schrieb:
Ich kann doch nicht für dich und jeden anderen Benutzer im Forum seine Idealwerte errechnen. 3 Stunden Volllast pro Tag / 365 erschien mir nur gerechtfertigt, um die hohen Wochenendzeiten und evtl. Schüler/Studenten nicht ganz außen vor zu lassen.
Streich den Rest. Nur Schüler haben kein Problem mit 3h Vollast am Tag. Sonst schaffen das nur Bitcoin oder Boinc Freaks oder Leute die ernsthafte Berechnungen durchführen. Da verlassen wir den getestete Leistungsbereich bei CB.

Deine Zusammenrechnung aller Zustände mit 1h ist eine nette Idee, aber wie du selbst merkst kaum Realistisch:
Nicht jeder spielt 5 Stunden unter maximaler Last.
Nicht jeder hat seinen Rechner nur 1 Stunde pro Tag an.
Nicht jeder guckt BluRay am PC.
Nicht jeder hat ein MultiMonitor-Setup.
Richtig, darum schrieb ich Idle/BluRay. Bei 2 Monitoren ungefähr die selbe Differenz.
Am Häufigsten sind 1 Monitor Konfigurationen. Gefolgt von 2 Monitoren. Mehr sind eher selten. 1h mit abgeschalteten Monitor halte ich für extrem übertrieben.

Wenn das nicht stattfinden sollte, ist der maximale Wert so wie beim letzten R9 290 + Aftermarket Test von CB ca. 50 Watt (50%) höher und 1 h*365*0,28 kosten dann 15,29 € (54,60 kWh). 3 Stunden entsprechend 45,86 €.
Und dann, lieber Unyu, hast du Recht.
Toll. Du siehst es gibt sehr viele mögliche Szenarien, pauschal 5 Jahre sind ebenso Müll wie Pauschal 1 Jahr, bis zur Preisangleichung durch Betriebskosten. Das ist der Punkt, neben dem eh viel zu hohen Preis der 290/780.

Die aktuellen Geforce 780 Custom Karten hatte teilweise viele Wochen Zeit sich preislich einzupendeln.
Und hat in Zukunft noch mehr Zeit. Es ist jetzt schon sehr spät für den langweiligen Refresh. Jetzt noch Monate zu warten macht die Sache nicht attraktiver, im Gegenteil.

Die 7970 spielt in er Performance-Klasse unterhalb der R9 290 und steht doch gar nicht im direkten Vergleich zur R9? Ja, sie ist 100 Euro günstiger, ja sie reicht für 1920. Dafür 20% langsamer. GTX 780 und R9 290 spielen in der gleichen Performance-Liga.
Richtig, sie ist langsamer. Du siehst es gibt mehr Argumente als nur den Preis. Aus Sicht der 7970 ist die 290 ein völlig langweiliger Refresh, der den Aufpreis nicht wert ist. Kannst du auch auf die 780 im Vergleich zur 680 ausweiten, die Geforce soll hier nicht besser wegkommen.
Du hast doch selbst eine 7950 und müsstest ähnlich gelangweilt sein.

Die 290X Uber ist knapp 10% vor der 290. Wiederrum ~100€ Aufpreis, relativ gesehen ein geringer Aufpreis als von 7970 nach 290. Wenn man nun fernab der vernünftigen Entscheidungen einkaufen möchte, bleibt nur der Griff zur 290X. Keine verkrüppelte Ware und schneller.

Die Idle Werte sind egal. Ob ich da eine GTX 780 oder R9 290 einbaue. Die paar Cent findet du im Jahr auf der Straße.
Nein, siehe deine nächsten Betrachtungen.
Es sind 60W Unterschied. Eine R9 290X braucht im Idle 2 Monitor Betrieb ungefähr so viel, wie eine FX 5800 Ultra unter Volllast!

Siehe Post von Kasmopaya: 5800 Ultra und Fermi haben einen schlechten Ruf und sind dennoch längst nicht mehr an der Spitze.
Fermi liegt auf heute üblichen Niveau (7970 Ghz) bzw. wird übertroffen (290X)
5800 Ultra Volllast* = 7850 Volllast = 290X Idle

*Rechne mal 100W+- für die FX, eine 5950Ultra braucht gerade mal 80W http://www.xbitlabs.com/articles/graphics/display/ati-vs-nv-power_5.html#sect0


Ich in der Regel von einem Grafikkarten-Neukauf nach Ablauf von 3 Jahren Nutzungszeit aus. Bei mir sind es auch mal nur 2 Jahre. Währst du mit diesem Fazit einverstanden?
Als Komponente im Haupt PC: Ja, Manch einer wechselt so häufig.

Sgt.Speirs schrieb:
Ich nutze eine Wasserkühlung, daher habe ich bei allen Karten zusätzliche (Fullcover-)Kühlerkosten von ca. 100€ ;)
Ich auch, aber ich bin wenigstens so ehrlich zuzgeben NICHT nach P/L entschieden zu haben.
Die hohe Referenzlautstärke muss man leider ein paar Wochen ertragen bis die Kühler eintreffen.
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Über andere Tester habe ich überhaupt nichts geschrieben.:rolleyes:
Und wo hab ich gegenteiliges behauptet?

Es bleibt trotzdem einfach ne unsachliche und dümmliche Aussage. Punkt.
Aber war wahrscheinlich alles nur wohlwollend gemeint...
 
Zuletzt bearbeitet:
Ob das Testszenario oder sonstige Umstände das Ergebnis verfälscht haben: kA. :/
ich auch nicht wirklich.....Hab ja noch den REF Kühler hier rumliegen,mal den Radialfan abgeschraubt:D Das ist ein" DC Brushless FAN" DC 12V 1,70A :evillol:!
Da braucht meine Kaze FanControl mitsamt den 4Lüftern dran weniger...... Lohnt sich ja fast bei der Netzteilberechnung seperat aufzuführen! Ein normaler 12V 120mm braucht vielleicht 0,1A :freak:

Aus Sicht der 7970 ist die 290 ein völlig langweiliger Refresh, der den Aufpreis nicht wert ist. Kannst du auch auf die 780 im Vergleich zur 680 ausweiten, die Geforce soll hier nicht besser wegkommen.
:eek::eek:

Nein, siehe deine nächsten Betrachtungen.
Es sind 60W Unterschied. Eine R9 290X braucht im Idle 2 Monitor Betrieb ungefähr so viel, wie eine FX 5800 Ultra unter Volllast!
ja völlig absurd!:evillol: etaw 10-15W mehr als Titan/780. Was hier wieder zu einem hohem Teil auf den Radi-Fan zurückzuführen ist. Mit über 1,5A kannst Du rechnerisch 10 Axial 120mm anschließen....... Manche 7970GHz liegen da gar noch darüber.
 
Zuletzt bearbeitet:
Ich möchte dich nicht von deiner Meinung abbringen und möchte erwähnen, dass ich keine der beiden Hersteller vorziehe.
Für mich ist eine 350 Euro Grafikkarte (egal ob AMD oder Nvidia, ich war in beiden Lagern schon unterwegs) absolut im Rahmen und die letzten 3-4 Karten waren auch jeweils in diesem Bereich.

Die allgemeine Strombedarfsentwicklung ist miserabel. Alle Karten haben einen zu hohen Strombedarf; in diesen Leistungsklassen ausnahmslos. Da gibt es nichts schön zu reden. Der Verbrauch bei 2 Bildschirmen ist der letzte Rotz. Warum AMD das nicht wie Nvidia löst und erst bei 3 Bildschirmen richtig hoch taktet und scheinbar Watthungrige Lüfter verbaut, verstehe ich nicht. Wie du sagtest; die meisten MultiMonitor-Setups bestehen aus 2 Bildschirmen.
Es bringt mir aber nichts darüber zu urteilen, wenn es eben nur diese beiden Hersteller-Karten gibt. R9 und GTX nehmen sich da nichts. Sind beide Stromverbrennungsmaschinen. Die eine ist halt deutlich besser darin den Wattzähler hochzutreiben.

Aber die Watt Zahl ist erstmal nur eine Zahl. Genauso wie die Anschaffungskosten nur einen Wert X darstellen. Was sich für einen lohnt: entweder man errechnet es sich, geht nach Gefühl oder greift einfach zu... ist schließlich ein unvernünftiges Hobby.
Mit mehreren Posts habe ich (eigentlich) recht gut dargestellt, dass trotz der höheren Watt-Zahlen die niedrigeren Anschaffungskosten einen Ausgleich (über eine gewisse Lebensspanne, bei intensiver Nutzung) darstellen können. Ein paar andere Forumbenutzer haben den Sinn dahinter auch verstanden, wenn ich den ihren Kommentar richtig gedeutet habe. ;)

Zu viele Personen schauen sich nur die Balken an, ohne darüber nachzudenken was diese eigentlich aussagen. Preis/Leistung (oder anders ausgedrückt: bereit Preis X zu zahlen, wenn Leistung Y gegeben ist !) ist natürlich nicht bei jedem ein heißes Eisen.
--
Ja, die R9 290(x) ist im Vergleich zu meiner 7950 langweilig. Ich habe mir auch mehr erhofft.
Ich weiß momentan nur, dass ich jetzt mit einem 1440p Bildschirm unterwegs bin und die langweilige GTX780/R9 290 mir in ein paar unvernünftigen Spielen durchaus einen persönlichen Mehrwert geben kann und rein rechnerisch (Attribute: berufstätig, Kind, Frau, Wohnung, Strom bezahle ich selber) hat die AMD Karte trotz des höheren Verbrauchs den niedrigeren Kostenfaktor über ihre Lebensspanne hinweg. Schüler und Studenten sollten hier eher zur GTX greifen. :D
 
Humanforce schrieb:
Der Verbrauch bei 2 Bildschirmen ist der letzte Rotz. Warum AMD das nicht wie Nvidia löst und erst bei 3 Bildschirmen richtig hoch taktet und scheinbar Watthungrige Lüfter verbaut, verstehe ich nicht. Wie du sagtest; die meisten MultiMonitor-Setups bestehen aus 2 Bildschirmen.

Das stimmt so nur noch bedingt.
Die AMD Karten der R200 Generation bleiben, ähnlich der Fermi Generation, im Idle State, sollten 2 (oder gar mehr) Monitore mit identischer Auflösung und identischen Timings angeschlossen sein: klick
Das ergibt gar einen Vorteil bei mehr als 2 Monitore im Vergleich zum Konkurrenten.
Schade, dass der CB-Test dies nicht wiederspiegelt, da Wolfgang den 2-Monitorverbrauch mit 2 unterschiedlichen Monitoren abbildet: klick
Dies hätte man im Testbericht wenigstens nochmal gesondert erwähnen können!

Ansonsten gebe ich dir Recht, dass der Stromverbrauch insbesondere der High-End Karten im Lastzustand zu hoch ist. Ärgerlich, dass die Leistungsaufnahme wider erwarten von Generation zu Generation weiter ansteigt.
 
Die Entscheidung kann ich aber schon verstehen.
Bis auf die PC-Ausstattung im Büro bzw. bei Spielern mit expliziten 3-TFT-Konstellationen haben viele unterschiedliche Bildschirme am Rechner. Meistens einen alten und einen neuen TFT. Ich wüsste in meinem Familien- und Bekanntenkreis niemanden der sich gleich zwei Bildschirme neu gekauft hat. Das ist natürlich nicht statistisch relevant, aber mein Eindruck würde da mit der Entscheidung der CB Redaktion übereinstimmen.

Meine bessere Hälfte hätte mich bestimmt komisch angeguckt, wenn ich mir den 27 Zoll Eizo 2x gekauft hätte. :D
 
Unvollständiger und daher verdächtiger Test (AMD-Werbung ick hör' dir trapsen).

Wo bzw. warum ist denn die 650Ti Boost nicht mit dabei?

Für mich die beste karte in dem Preissegment.
 
Ja, die R9 290(x) ist im Vergleich zu meiner 7950 langweilig. Ich habe mir auch mehr erhofft.
Ich weiß momentan nur, dass ich jetzt mit einem 1440p Bildschirm unterwegs bin und die langweilige GTX780/R9 290 mir in ein paar unvernünftigen Spielen durchaus einen persönlichen Mehrwert geben kann und rein rechnerisch (Attribute: berufstätig, Kind, Frau, Wohnung, Strom bezahle ich selber) hat die AMD Karte trotz des höheren Verbrauchs den niedrigeren Kostenfaktor über ihre Lebensspanne hinweg. Schüler und Studenten sollten hier eher zur GTX greifen.

überhaupt nicht schlau werden daraus.......:freak:??

R290 langweilig zur 7950: Du schreibst ....Monitor 1440p. Hab selbst mal eine 7950WF3 gehabt. Selbst mit max OC und "Peterchen Frost" Kühler drauf,würde die doch wenn Du Deinen Monitor und die entsprechende Engine voll nutzen willst (2550/1600) absolut nicht ausreichen bei aktuellen Titeln mit hohen Anforderungen (BF4,COD ,Arma) !? Desshalb verstehe ich nicht was Du mit "langweilig" meinst.....

Kostenfaktor: mal abgesehen davon das eine R290 ein Stück mehr Leistung als die 780 hat ,empfiehlst Du Schülern und Studis die GTX....? Das sollte doch die Gruppe sein die am wenigsten" Penuntzen in de Tesch" hat oder? Nicht jeder Student wird mit goldenem Löffel im Mund geboren und wohnt bei Mutti! Der Ausgleich zwischen dem hohem Anschaffungspreis und dem höheren Verbrauch ist "Mumpitz":D die 100,- mehr beim Kauf schmerzen jemand der nicht gerade aus dem vollem schöpfen kann........nicht die 2,50€ im Monat die ein "Hardcore-Gamer" vielleicht erreicht! Für den Mehrpreis dann lieber ein hocheffizientes Netzteil kaufen......das ist Stromfresser NR.1 ! Danach kommt lange lange nix wenn Du ein "Fake-Bronze 80+" von denen es leider zu Hauf gibt verbaut hast. Denn da zahlst Du schon mal pauschal 15-20% mehr an Strom egal ob Du zockst, einen oder 10Monis:D angeschlossen hast oder gerade ne Mail schreibst!:freak:
 
Zuletzt bearbeitet:
Jo, macht Sinn die Eyefinitiy/Videosurround Lösung aus den Tests zu nehmen und dafür UHD zu nehmen...
:Freak
Ich selbst spiele über Eyefinity auf 3 24" Dell Monitoren (Aktuell: ca. 3 x 150€ in HD) das kann eigentlich jeder ´stemmen´...
Aber aktuelle 3 UHD Modelle von Samsung beginnend mit der Einstiegsklasse von 3500€, über den Durchschnittsflimmerkasten von 6500€ bis hin zum 34.000€ - Boliden...
:lol:
Naja, da werden ja die Millionen ´Kunden´ die sich die UHD Bretter leisten können freuen das ihr das für die testet. Wer sich nen 34.000€ Monitor leisten kann wird ja auch beim PC in dem Preissegment liegen und darf dann schön mit Superrealbild BF4 in ´Ruckelzuckel´ spielen... na so um die 30~50 FPS! Macht bestimmt Spaß!

Hey! coole Entscheidung!
:king:
 
Zotaczilla schrieb:
Hab mich da auf den Kommentar von Unyu bezogen.

Mich hat die R9 290 von den Features nicht umgehauen. Sie ist eine aufgebohrte / optimierte 7970 GHz, und damit sehr nah an meiner 7950. Das war mit langweilig gemeint. :)

absolut nicht ausreichen
Tut sie auch nicht. Daher will ich den Sprung von der 7950 auf eine R9 290 (nicht x) machen. Technisch gesehen ist sie für mich langweilig, aber sie spielt halt in einer höhere Leistungsklasse. Werde wohl mit ca. 40 % + rechnen können. Normalerweise würde ich so einen Sprung nicht mitmachen und auf die nächste Karte im Preisbereich bis 350 Euro warten. Dann evtl. mit Die-Shrink.

BF4 2560*1440 geht mit Hoch/Ultra-Mix + FXAA, aber keinem echten AA. FPS werden auf 59 limitiert und dort sind sie auch meistens festgewachsen. Allerdings gibt es viele Levelabschnitte wo das eben nicht der Fall ist.
Davon abgesehen ist FXAA nicht so toll und würde gern immer max. FPS + schönere Darstellung haben. :)

empfiehlst Du Schülern und Studis die GTX....?
Über die letzten Seiten hab ich viel über die Stromkostenberechnung der Karten geschrieben. Wenn die Eltern den Strom bezahlen und nichts besonderes dabei auffällt: egal, wenn der Schüler/Student aber 3-5 Stunden pro Tag (+ Wochenende) seinen Rechner an hat und ordentlich auslastet, ist die AMD Karte nach relativ kurzer Nutzungszeit teurer. Aber lass uns das Thema nicht weiter aufgreifen, hat ja nun ein paar Seiten überlebt. :)

Für den Mehrpreis dann lieber ein hocheffizientes Netzteil kaufen
Ist richtig. Das werden weniger Leute verstehen, warum deren Netzteil für 30 Euro so schlecht ist. 60-120 Euro sind eher realistisch. Die Anfragen im Forum zeigen ja, dass es interessierte Benutzer gibt, die "eine zu ihnen passende" Grafikkarte haben und sich informieren wollen, aber dann bei den Netzteilen einen Fehlgriff tätigten.

@shadowrid0r
- Dell scheint UHD für 2014 auf ein niedrigeres Preisniveau zu bringen: 1000-2000 Euro
- 3 identische "gute" Bildschirme für je 300-600 Euro > 900 Euro-1800 Euro (meine Meinung!)
Ich finde die billigen Bildschirme nicht angenehm. Meine Freundin hat einen 160 Euro 24 Zoll BenQ bekommen und nutzt als Zweitbildschirm einen sehr alten Eizo 19 Zoll TFT. Das Bild des 19ers ist besser.

2014 werden die UHD Teile bestimmt auf ein gutes Preisniveau fallen. 24/27/30 Zoll mit UHD klingen gut. :)
 
Mich hat die R9 290 von den Features nicht umgehauen. Sie ist eine aufgebohrte / optimierte 7970 GHz, und damit sehr nah an meiner 7950. Das war mit langweilig gemeint.
Kleine Verwechselung ....R 280X - R290(X) ?

bis auf die Fertigungsgröße hat eine R290 mit einer HD7900 nicht viel gemein und ist eine komplett neu entwickelte Karte.
Hawaii statt Tahiti , Anbindung 512bit -- 384bit ,4096MB Ram - 3072, doppelte Raster-Operation-Einheiten (ROP) mit 64, sowie deutlich mehr TMUs/Shader Einheiten, DX 11.2 - DX 11.1 , Mantle " ready".......

Das nur mal die groben techn. Unterschiede... Darüber hinaus ohne zu weit ins Detail zu gehen ist die 290 durch das neue "Power Tune" völlig verschieden in der Steuerung/OC und was Targets betrifft.....
Was die ein oder andere Neuerung bringen wird,bleibt abzuwarten ,aber nur "aufgebohrt" trifft dann eher auf die 280X.
 
Zotaczilla schrieb:
R290 langweilig zur 7950:
Zwischen 8800 GTX, GTX 280, GTX 480, GTX 680 lagen je max. 2 Jahre. Alles ordentliche Sprünge, speziell auf die bereits gute 8800 GTX folgte trotzdem weniger als 2 Jahre später ein verdammt großer Sprung.
Bei AMD sieht es von 3870 nach 4870, 5870, 7970 ähnlich aus.

Verglichen dazu 780 Ti und 290X zum heutigen Zeitpunkt: Gähnende 30%? Jetzt geht es nichtmal um diese Topmodelle, sondern den Beschnitt. Noch weniger Unterschied.

Zotaczilla schrieb:
bis auf die Fertigungsgröße hat eine R290 mit einer HD7900 nicht viel gemein und ist eine komplett neu entwickelte Karte.
Entscheidend ist nicht um wie viel Hawaii größer geworden ist, sondern was es gebracht hat.
8800 GTX vs GTX 280:
Starker Vorgänger, der seine Ahnen deklassierte und von der Konkurrenz bislang nicht geschlagen wurde
weniger als 2 Jahre
ähnlicher Preis
1GiB statt 768MiB
erstmals Double Precision
bis zu 2x Leistung
in GPGPU Anwendungen xfach mehr Leistung

Doch dieses gewaltige Paket war nichtmal gut genug, der Preis musste nach dem Konkurrenzstart gesenkt werden.
 
Zuletzt bearbeitet:
mal abgesehen davon das eine R290 ein Stück mehr Leistung als die 780 hat ,empfiehlst Du Schülern und Studis die GTX....?
Na ja, wer würde denn jetzt ernsthaft eine 290 empfehlen? Der günstige Preis ist natürlich erstmal ein Argument, verblasst aber, weil man die Karte ja so nicht vernünftig nutzen kann - zu laut, zu heiss!
Und schneller als die aktuellen GTX780 Custom ist die 290 auf keinen Fall!
Die Karten liegen ohne OC etwas oberhalb einer Titan @ max - da fehlen der 290 aber noch ein paar %.
Hier der Test der 290 mit neuem Treiber:
https://www.computerbase.de/2013-12/grafikkarten-2013-vergleich/4/
und hier ein Test einer GTX780 Custom:
https://www.computerbase.de/2013-07/palit-geforce-gtx-780-super-jetstream-test/2/

Ist zwar unfair eine Custom-Karte mit einer Referenz zu empfehlen, aber es gibt nun mal derzeit noch keine Custom 290! Wenn die dann mal aufschlagen und tatsächlich dann eine ähnliche Leistung wie eine Custom GTX780 bieten bei einem dann immer noch vernünftigen Preis - dann ok, aber nicht jetzt!
 
Mantle unterstützt alle GCN-GPUs.
ah ok...... dachte bisher nur die R290/270 !:D

Zwischen 8800 GTX, GTX 280, GTX 480, GTX 680 lagen je max. 2 Jahre. Alles ordentliche Sprünge, speziell auf die bereits gute 8800 GTX folgte trotzdem weniger als 2 Jahre später ein verdammt großer Sprung.

Verglichen dazu 780 Ti und 290X zum heutigen Zeitpunkt: Gähnende 30%? Jetzt geht es nichtmal um diese Topmodelle, sondern den Beschnitt. Noch weniger Unterschied.

jetzt mach Dich doch mal locker......:D Wir haben bald 2014, Samsung bringt aller 2 Wochen n neues Galaxy raus und mein Nasenhaartrimmer geht jetzt sogar mit Solar!!! :evillol:
 
Ach ich vergleiche doch nur mit echten Sprüngen in relativ naher Vergangenheit. Schön wenn du persöhnlich eine Begeisterung für (oder trotz) den langsamen Fortschritt gefunden hast. Ich befürchte nur es wird auch mit 20nm nicht mehr spannend. Nicht ablenken, elektronische Küchenbretter nutze ich nicht. :lol:
 
Zotaczilla schrieb:
Ich kam von einer AMD Radeon HD 5870. Bin dann auf eine 7950 (v1 OC) gesprungen:
(von der AMD 5870 ausgehend, 3 Jahre Lebensspanne)
+ 60 % mehr Leistung
+ 2 GB VRam (notwendig)
+ DX 11.1
+ guter Multi-Monitor-Support
+ Leistungsaufnahme minimal gestiegen
+ 2560*1440 ist eine umsetzbare Auflösung
(+ Mantle)

AMD Radeon HD 7950 (950MHz) auf R9 290:
(von der AMD 7950 ausgehend, 2 1/2 Jahre Lebensspanne)
+ 60 % mehr Leistung (gut, aber nur mit Custom Modell, da sonst viel zu laut)
+ 1 GB VRam (nicht notwendig)
+ DX 11.2

- Leistungsaufnahme deutlich gestiegen
+ UHD zumindest nicht realitätsfern
+ True Audio
(+ Mantle)


Die R9 ist gut (!), aber ihr fehlt der DIE-Shrink.
 
Na ja, wer würde denn jetzt ernsthaft eine 290 empfehlen?
Ich habe hier hier keinem eine 290Ref. empfohlen....es ging um teurer Anschaffungspreis/Student Schüler , wohnt der noch bei Mutti oder nicht?
weil man die Karte ja so nicht vernünftig nutzen kann - zu laut, zu heiss!
Und schneller als die aktuellen GTX780 Custom ist die 290 auf keinen Fall!
Die Karten liegen ohne OC etwas oberhalb einer Titan @ max - da fehlen der 290 aber noch ein paar %.
Hier der Test der 290 mit neuem Treiber:
:D aja....die aktuellen Custommodelle ! Du hast die Karte ja selbst, damit weist Du ja das da Palit schon ab Werk ordentlich" Hand angelegt" hat bei Chip/Ram -Takt usw. Ebenso .....sagen wir mal die "suboptimale Lüftersteuerung/Leistungsaufnahme" weil Du "zu laut" ansprachst.:freak:
Also lass es einfach hier Quatsch zu erzählen bzw. Schreib was "objektives" und nicht aus der "Fanboy-Perspektive" !

@Humanforce kennst Du zufällig diese hübsche russische Hochspringerin die immer bei Olympia alles gewonnen hat.:D? Die konnte immer höher springen als alle anderen ,aber auch wie Sie meist selbst gesprungen ist! Denn Sie hat für jeden neuen neuen Weltrecord 1-2 mal im Jahr 100.000 Dollar bekommen. :D
Bist Du so naiv und glaubst die HW-Entwickler sind alles "nerdige Gutmenschen"^^ die uns Gamern was gutes tuen wollen und immer den möglichen Technologie-Stand zur Verfügung stellen? Ein Game wie BF4 stellt mittlerweile jeden "Blockbuster" in den Schatten was die Umsätze betrifft! Und BF5 kommt doch schon mitte nächsten Jahres......:evillol:
 
Zuletzt bearbeitet:
Bist Du so naiv und glaubst...
Du sagst selber: BF4 ist ein Blockbuster und stellt vieles in den Schatten.
Und genau auf diesem Zug springen Nvidia und AMD nur zu gerne auf und verkaufen ein paar Grafikkarten, die Battlefield gut darstellen können. Das geht auch voll auf; gibt ja genügend Nachfragen im Forum (Grafikkarte für BF4).
Was genau wolltest du mir also mit deinem Satz sagen? Habs wahrscheinlich falsch verstanden.

Nein, ich bin nicht naiv. Ich habe doch recht direkt geschrieben, dass die Grafikkarte gut ist, nur das der DIE-Shrink + Custom Karten - bei sonst gleichbleibender Leistung - evtl. die letzte Problemzone der R9 ausbügeln könnte. Ein Refresh in 20nm fändest du doch auch klasse oder nicht? Ich kann mir eine R9 295 echt gut vorstellen!
 
Zurück
Oben