Welche Graka für ~200€

En3rg1eR1egel schrieb:
jup 20% mehr leistung, 50-80% mehr kosten, ein richtiger "schnapper"

Wow, dat Knowledge.
Die 380X wird knapp unterhalb der 290 eingereiht, damit auch rund 150-180% so schnell wie die 960.
Dazu wird die 380X quasi ein halber Fiji, d.h. weit effizienter als hier verglichene Karten wie die 280X.
Hauptsache ausgekotzt? Dafür gibts Mülleimer. Aber Applaus für die *dolle* Beratung bzw. Verwirring des TEs.

mfg,
Max
 
Zuletzt bearbeitet:
@TE: Mal Interessehalber... Warum ist der PC 20h lang im Idle? Was machst du? Und muss der Monitor dafür an sein? Wenn nein, wäre eine AMD Karte wohl die bessere Wahl wegen Zero Core Power
 
pipip schrieb:
Solange AMD gehabt, aber noch nie was von Zero-Core gehört ? Denn hier schlatet sich die GPU quasi ab und verbraucht im Idle so gut wie gar nichts. Das heißt, die NV verbrauchen da theoretisch sogar mehr im Idle, obwohl, wie hier erwähnt wurde, der Idle selbst sowieso so gut wie nichts verbraucht. Unter Last ist der Verbrauch Unterschied zwischen R9 380 und 960 GTX auch nicht so groß, wie bei der R9 390 vs 970 GTX Serie, sodass, du bei 2 std Last am Tag im Jahr vllt 2-4 Euro mehr zahlst. Dafür ist die R9 380 scheinbar in vielen Spielen im Schnitt etwas schneller.
Die R9 380X würde ich auch nicht abschneiden, denn oft hat die Pro Version meist gleich oder sogar mehr verbraucht als die XT Version, sodass es schon möglich wäre, dass die R9 380X bei gleichen Verbrauch zur R9 380 (im Spiel nicht unter Last) effizienter ist.


Interessant bleibt es auch noch, wie es mit DX12 aussieht. Aktuell scheint es für AMD besser und wenn das weiter so der Fall ist, steigt die Effizienz der R9 380 gegenüber der 960 GTX, sodass der Vergleich sowieso nicht mehr passt.

Persönlich würde ich noch die 5 Tage warten und mir die Tests zur R9 380X anschauen. Im schlimmsten Fall, fallen die Preise noch, weil die R9 380X zwischen 960 und 970 GTX platziert und die 380 günstiger werden soll um der R9 380X Platz zu machen.


Es gibt auch long idle, wenn beispiel der Monitor sich abschaltet. Idle in den diversen Tests bedeutet, wenn du im 2D Betrieb unterwegs bist.
https://www.computerbase.de/2015-06...80-r7-370-test/3/#abschnitt_leistungsaufnahme

Ich würde dich übrigens fragen, wo du die Werte von 18 vs 10 Watt her hast.

Ja ZC ist für mich ein völlig neuer Begriff, den kannt ich noch nicht, wie viel Watt verbrauchen die AMD-Karten bei ZC? 5Watt? Hat Nvidia so etwas nicht? ô0 Wenn Nvidia kein ZC hat ist Verbrauch im IDLE scheinbar tatsächlich in etwa gleich, so dass sich da kaum eine Ersparnis bemerkbar machen würde. Ist es wohl wirklich eine Frage wie effizient die Karten unter Last den Strom in Leistung umwandeln.

Das AMD scheinbar besser bei DX12 aufgestellt ist habe ich auch im Hinterkopf gehabt, nur sprechen die Fakten irgendwie bei Benchmarks immer gegen AMD-Karten. Anno 2205. Fallout 4. GTA 5. Inwieweit der Eindruck, dass Nvidia Karten den AMD Karten überlegen sind, aufgrund der Tatsache das die Benchmarks oft schon nach Release der Games ins Netz gestellt werden, ohne ab zu warten, dass die Games für AMD-Karten optimiert wurden weiß ich nicht, das kann natürlich täuschen. Jedoch habe ich den starken Eindruck, dass die Spieleentwickler Nvidia Karten mehr präferieren...

Die 10W und 18W hab ich von hier http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html

Mr.Smith schrieb:
Wenn du ne sparsame Karte willst, dann ist die 960 wirklich das beste was geht.

Ansonsten kannst auch eine AMD 280x anschauen, sollte von der Leistung ausreichen.
Die 280x wollte ich mir ja zuerst kaufen. Hatte mich schon in die Powercolor verliebt, aber der Stromverbrauch bei Last ist doch ein bisschen zu krass. Wenn dann würde ich eh die 380 nehmen, weil 4GB und bessere Energieeffizienz. Der Trend bei Games scheint ja zu ...viel Videospeicher hinzugehen. Ich merke das bei meiner HD4850 da läuft auch vieles auf 1280x800 bei sehr hohen Details noch flüssig.Beim zocken aufm 40Zoller für mich völlig ausreichend. Bei 1920x1080 macht sie aufgrund zu wenig Videosspeichers allerdings nur eine nette Diashow. Und Lust für Games die nur bei 1280x800 laufen immer an den 40Zoller zu gehen habe ich auch nicht, deswegen muss es schon FullHD sein, damit ich am 22Zoll Monitor auch ohne Augenkrebs, weil zuviele eklige Pixel, angenehm zocken kann.

pixelfehler1996 schrieb:
@TE: Mal Interessehalber... Warum ist der PC 20h lang im Idle? Was machst du? Und muss der Monitor dafür an sein? Wenn nein, wäre eine AMD Karte wohl die bessere Wahl wegen Zero Core Power
Nunja der PC ist quasi immer an. Damit ich sofort auf die Fenster mit Informationen ohne Zeitverlust zugreifen kann. Fand es ehrlich gesagt immer ein bisschen nervig, willst schnell was gucken, muss der Rechner erstmal aus dem Standby geweckt werden und dann dauerts ne Weile bis alle Fenster geladen sind. Der Monitor schaltet sich nach 5 Minuten ab. Diese ZC muss ich mal in meine Berechnungen einfließen lassen xd, glaube aber das es nicht sonderlich stark ins Gewicht fällt.
 
Zuletzt bearbeitet:
Euphorikus schrieb:
Nunja der PC ist quasi immer an. Damit ich sofort auf die Fenster mit Informationen ohne Zeitverlust zugreifen kann. Fand es ehrlich gesagt immer ein bisschen nervig, willst schnell was gucken, muss der Rechner erstmal aus dem Standby geweckt werden und dann dauerts ne Weile bis alle Fenster geladen sind. Der Monitor schaltet sich nach 5 Minuten ab. Diese ZC muss ich mal in meine Berechnungen einfließen lassen xd, glaube aber das es nicht sonderlich stark ins Gewicht fällt.

Also der berühmt berüchtigte Ruhezustand läd/bootet bei mir sage und schreibe ~5 Sekunden bis zum einsatzbereiten Desktop. Wenn du dir, unabhängig deiner neuen Karte, so oder so 20-30€ die nächsten 3 Jahre sparen willst, kannst du es ja auch mal versuchn.

Edit: Für Win9 ermm 10 (übrigens ein Win8 Rerand!) hier gibts die spezifischen Beschreibungen: http://windows.microsoft.com/de-de/windows7/sleep-and-hibernation-frequently-asked-questions

mfg,
Max
 
Zuletzt bearbeitet:
max_1234 schrieb:
Also der berühmt berüchtigte Ruhezustand läd/bootet bei mir sage und schreibe ~5 Sekunden bis zum einsatzbereiten Desktop. Wenn du dir, unabhängig deiner neuen Karte, so oder so 20-30€ die nächsten 3 Jahre sparen willst, kannst du es ja auch mal versuchn.

Edit: Für Win9 ermm 10 (übrigens ein Win8 Rerand!) hier gibts die spezifischen Beschreibungen: http://windows.microsoft.com/de-de/windows7/sleep-and-hibernation-frequently-asked-questions
mfg,
Max

So schnell lädt der bei mir nicht, zudem kommt dann immer noch die Passworteingabe die auch mindestens nochmal 10 Sekunden dauert, wenn ich mich nicht vertippe. Ich weiß ja nicht wie viele Fenster und Programme du offen hast, aber bei mir sind da immer gut 8GB im Cache. Manche Fenster werden schnell geladen, aber wenn ich Pech habe, ist genau das Fenster auf das ich sofort zugreifen muss erst am Ende geladen, wie lange das genau dauert weiß ich auch nicht, fand den Workflow aber immer eher unangenehm, ganz schlimm wurde es, wenn aus unerfindlichen Gründen der Rechner nicht mehr aus dem Ruhestand erwacht und dann alle Fenster weg sind. Kam zwar nicht oft vor, war aber sehr frustrierend. Allgemein habe ich schon viele Optimierungsmaßnahmen bezüglich meines Energiehaushalts getroffen. Der Austasuch vom alten Kühlschrank war z.B. sehr sinnvoll. Da hab ich keine Verschlechterung vom Comfort ausgemacht. Ich habe kein Interesse daran, mein Workflow im PC-Bereich zu ändern, läuft momentan ohne Hindernisse, aber danke für die Infos :p

Geht hier ja auch eher darum welche Grafikkarte nach 3 Jahren mehr bzw weniger kostet, dass möchte ich gerne herausfinden, damit ich die beste Entscheidung diesbezüglich treffe.
 
Mhh na dann kannst du, wenn du auf Zero Core achtest (nicht alle Partnerkarten unterstützen dieses Feature) Hersteller-unabhängig eine GPU wählen, da sich die Mehrkosten bei 2 Stunden täglich zocken nur marginal über der Mehrleistung einreihen.

Die kommende 380X (halber Fiji) wäre halt interessant für dich, da sie gerade in puncto Effizienz sehr gut da stehen wird und trotzdem ordentlich Leistung bringt, ohne dabei auf irgendwelche Marketing Gags aka 3.5GB VRAM zurückgreifen zu müssen.

Die nächste Steigerung wäre dann schon GTX970 vs R9 390. Hierbei verbrauchen AMD Karten spürbar mehr, halten dafür aber auch länger (390 = 290 = 2013, konkurriert problemlos mit aktuellen Maxwell/Maxwell2 und unterstützt einige DirectX12 Kernfeatures, die Maxwell/2 Karten nicht können -> Siehe Async Shaders/Computing News/Google):
Verbrauch: http://www.hardwareluxx.de/index.ph...deon-r9-390x-390-und-380-im-test.html?start=6
DX12: http://wccftech.com/async-shaders-give-amd-big-advantage-dx12-performance-oxide-games/

mfg,
Max
 
Zuletzt bearbeitet:
nickless_86 schrieb:
Solch ein gerechn e und dann doch die OC karten kaufen:freak: soll einer verstehen

Kannst du mir bitte den Nachtteil von OC-Karten erklären? :) Wenn die schlechter ist als die MSI Gaming dann doch lieber die MSI Gaming oder wie? :o

Sind halt 30€ Unterschied, weiss leider nicht, wie dieser Unterschied zu Stande kommt. Die paar Megahertz mehr sind mir keine ~ 30€ Aufpreis wert...
Ergänzung ()

max_1234 schrieb:
Mhh na dann kannst du, wenn du auf Zero Core achtest (nicht alle Partnerkarten unterstützen dieses Feature) Hersteller-unabhängig eine GPU wählen, da sich die Mehrkosten bei 2 Stunden täglich zocken nur marginal über der Mehrleistung einreihen.

Die kommende 380X (halber Fiji) wäre halt interessant für dich, da sie gerade in puncto Effizienz sehr gut da stehen wird und trotzdem ordentlich Leistung bringt, ohne dabei auf irgendwelche Marketing Gags aka 3.5GB VRAM zurückgreifen zu müssen.

Die nächste Steigerung wäre dann schon GTX970 vs R9 390. Hierbei verbrauchen AMD Karten spürbar mehr, halten dafür aber auch länger (390 = 290 = 2013, konkurriert problemlos mit aktuellen Maxwell/Maxwell2 und unterstützt einige DirectX12 Kernfeatures, die Maxwell/2 Karten nicht können -> Siehe Async Shaders/Computing News/Google):
Verbrauch: http://www.hardwareluxx.de/index.ph...deon-r9-390x-390-und-380-im-test.html?start=6
DX12: http://wccftech.com/async-shaders-give-amd-big-advantage-dx12-performance-oxide-games/

mfg,
Max

Es wird abzuwarten sein, inwieweit die 380x die 50€ einmaliger Aufpreis wieder ausgleichen möchte. Soviel Leistung wie die 380x bringt brauche ich ja im Grunde nicht, wäre natürlich schön, die Mehrleistung für zukünftige Spiele in der Hinterhand zu haben, aber nunja. Nach 3 Jahren hole ich mir dann ja sowieso eine neue Grafikkarte. Die mehr als FULLHD leisten soll. Ich kann mir nur schwerlich vorstellen, dass die 380x 120Watt zieht bei der Leistung von der GTX960 ebenfalls 120Watt. Vllt wäre die 380x aber leiser, weil ja nur 120Watt statt 190Watt gekühlt werden müssten. Aber die muss erstmal die Leistung bringen , die die GTX bei 120Watt bringt, bin da echt skeptisch, dass die 380x das packt. Die verbraucht dann bestimmt mehr Watt und weniger sowieso nicht, weiss nicht wodurch die anfänglichen erwähnten 50€ Aufpreis, wenn sie überhaupt für 250€ erscheint wieder reingeholt werden sollen...
 
Bei den Werks-OC-Karten ist der Stromverbrauch oft höher als bei den Referenz-Takt-Modellen.
Glaube bei den GF 950 er Karten (im Test hier) waren welche dabei die durch ihr OC und höhere Spannungen fast so viel Strom verbrauchten wie eine 960.

Ich habe Elektronik auch gerne möglichst Effizient, die Stromrechnung ist aber (wie Umweltschutz) mehr ein Nebengedanke.
Wichtiger ist mir dass die Lebensdauer der Elektronik nicht durch Wärmeentwicklung oder hoher Dauerbelastung von z.b. Spannungswandlern verkürzt wird und gute Kühlung / Lautstärke einfach realisierbar ist.
 
Schalk666 schrieb:
Bei den Werks-OC-Karten ist der Stromverbrauch oft höher als bei den Referenz-Takt-Modellen.
Glaube bei den GF 950 er Karten (im Test hier) waren welche dabei die durch ihr OC und höhere Spannungen fast so viel Strom verbrauchten wie eine 960.

Ich habe Elektronik auch gerne möglichst Effizient, die Stromrechnung ist aber (wie Umweltschutz) mehr ein Nebengedanke.
Wichtiger ist mir dass die Lebensdauer der Elektronik nicht durch Wärmeentwicklung oder hoher Dauerbelastung von z.b. Spannungswandlern verkürzt wird und gute Kühlung / Lautstärke einfach realisierbar ist.

Mir gehts um den Endpreis den ich nach 3 Jahren für die Grafikkarte gezahlt habe, da gehören die Stromkosten nunmal dazu. AMD-Karten wirken wie ein Kühlschrank mit A+ , wenn du aber A++ willst musste nochmal einmalig Geld rauflegen, aber auf lange Sicht gibste im Endeffekt weniger für den ersten Blick teureren Kühlschrank aus. Ob das bei der AMD380x die teurer ist als die GTX960 auch so ist wage ich noch etwas zu bezweifeln. Bei 380/280x vs GTX960 liegt die GTX960 preislich jedoch vorne. Die AMD380x ist von der Grafikleistung her über der GTX960 einzuordnen, doch brauche ich soviel Grafikleistung überhaupt? Die 380x kaufen würde Sinn machen, wenn ich mehr Grafikleistung will, oder etwa nicht?

Kannst du mir was zu den Spannungswandlern der Grafikkarten sagen? Ich google gleich noch ne Runde mal sehen, wer da besser ist.
Also was AMD-Karten angeht, jedenfalls die von Powercolor, kann ich nichts negatives über die Dauerbelastung sagen, läuft wie geschmiert. Nur das Spulenfiepen unter Last ist störend, ich denke das ist son Powercolorproblem, was mir den Kauf einer AMD-Karte auch ein bisschen madiger macht. Über Die MSI GTX960 habe ich jedenfalls noch nichts von Spulenfiepen gelesen... hat aber bestimmt andere Probleme... die ich noch herausfinden muss...
 
max_1234 schrieb:
Die 380X wird knapp unterhalb der 290 eingereiht, damit auch rund 150-180% so schnell wie die 960.

jaja da kommen die fanboys wieder aus und versuchen sich in mathe...
180%, oha schneller als eine fury-x...
komisch ist eine 290 non x doch nur 40% schneller:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/


max_1234 schrieb:
Dazu wird die 380X quasi ein halber Fiji, d.h. weit effizienter als hier verglichene Karten wie die 280X.
wie reden hier von der r9 380 und diese ist was den stromverbraucht angeht schon unterirdisch schlecht mit ihren 90% mehrverbrauch im gegesatz zur 960.
von einer 280x brauchen wir erst garnicht anfangen.

halber fiji ahja, und die meinzelmännchen bauen die dann auch gleich noch zusammen.
lachhaft.
380x ist einfach nur ein tonga in vollausbau:
https://www.computerbase.de/2015-10...r-und-256-bit-fuer-tonga-xt-karte-bestaetigt/

für die zukunft einfach mal merken:
komm mit fakten und nicht mit halbwahrheiten und lügenmärchen
ansonsten kann der kleine fanboy auch gleich wieder in die ecke spielen gehen
 
@Fanboy über mir

Flascher Vergleich mit falschen Karten.
Please try again!

@TE
Die 380X ist ein halber Fiji - wenn du dir die CB Tests zur Fury (oder gar Nano) ankuckst siehst du, dass diese bzgl. Effizienz auf Augenhöhe mit der GTX970 liegt. Die 380X kannst du auch nicht mit der 960 vergleichen; das sind 2 unterschiedliche Preis bzw. Leistungsklassen.

Ein Gesamtsystem mit einer nicht übertakteten Nano braucht unter Last 45W mehr als eine 970, ist dafür leistungstechnisch zwischen der 980 und 980TI angesiedelt ;)

Dem Umstand ist es geschuldet dass, falls du 1. den Kartenpreis und 2. die Kosten über 3 Jahre mit einberechnest, diese Karte für dich interessant sein könnte. Kurz: A++ -> Tests abwarten.

mfg,
Max
 
Zuletzt bearbeitet:
Maxwell verliert schneller als amd den sweetspot für Verbrauch/Leistung. Deswegen würde ich die wieder untertakten. Ansonsten nutze fps limiter, da spart man mehr als der Unterschied zwischen 960/380. Die verbrauchsangaben sind auch nur spitzen, real liegt die 380 nicht so weit weg.

Meine r9 285 jedenfalls läuft super. Leistung ist nicht wie im Fall von der fury stark abweichend zur Konkurrenz. 2-3 fps hat man bei Fallout, anno oder cod weniger. Dafür in dirt Rallye oder anderen Games wiederum die Nase vorne.
 
Wenn ich die Wahl habe über 3 Jahre 50 Euro mehr zu bezahlen und ich dafür noch Leistungsreserven habe oder ich mir die 50 Euro spare dann nehme ich klar ersteres. Wenn die 960 dann nicht ausreicht muss man gleich ne neue Karte kaufen und das wird dann 10xmal so teuer. Gerade auch weil Dx12 kommt und Nvidia da noch offene schwächen hat.

Dieser ganze Energiewahn ist doch nicht mehr normal. An den TE bei Auto, Kühlschrank und Pfandflaschen kannst du mehr der Umwelt helfen!
 
Zuletzt bearbeitet:
der punkt ist ja, du hast keine leistungsreserven
gtx 960 und r9 380 sind halt gleich schnell.

und bei der r9 380 legst du halt nochmal versteckt über 3 jahre 50€ drauf
 
Zuletzt bearbeitet:
Die 380 ist gut 5-10% schneller. In nicht Nvidia spielen sogar bis zu 20%
http://www.guru3d.com/articles-pages/msi-radeon-r9-380-gaming-2g-review,13.html
http://www.tomshardware.com/reviews/sapphire-itx-compact-r9-380,4264.html

Und hier war bei bf4 noch nicht mal Mantle aktive was noch zusätzliche fps bringt. Für Dx12 ist es klar die bessere Karte. Aber gut du hast ja deine Entscheidung getroffen.... Übrigens in 1 Jahr wenn Pascal da ist, ist deine 960 nur noch Schrott. Siehe nur was aus der 700 Serie wurde. Im Treiber einfach fallen gelassen sobald 900 da war. Dann hat AMD dann im schnitt gut 20-30% mehr wenn es jetzt schon bis zu 10% sind. So viel zur Zukunftsfähigkeit.
 
Zuletzt bearbeitet:
Ne Liste welche Spiele Nvidia und welche AMD-Karten besser unterstützen gibts nicht zufällig oder? Einzige Game was mir bei AMD einfällt ist Dirty Rally, muss doch noch andere geben :D

Warum ist die GTX960 wenn Pascal da ist nur noch Schrott? Die GTX750 reicht doch jetzt auch noch für Fallout 4? Könntest du mir genauer erklären, was es mit Pascal auf sich hat, was für Veränderungen dies mit sich bringen würde? Ein Link vllt? :> Das wäre lieb :)

Diese 20/30% mehr für AMD wirken so geschätzt, hätte lieber Fakten. Selbst bei 30% weniger Leistung wäre die GTX960 theoretisch dann bei ~156Watt, die AMD aber weiterhin bei 190Watt *hust*, also auch hier die GTX immer noch effizienter.

Entschieden habe ich mich weder für GTX noch für AMD, es wird entscheidend sein, inwiefern die Preise sich in den nächsten Wochen verändern. Scheinbar ist der ~10 Dezember ein recht guter Zeitpunkt eine Grafikkarte zu kaufen, was meint ihr dazu?
Ergänzung ()

Shaddix22 schrieb:
Maxwell verliert schneller als amd den sweetspot für Verbrauch/Leistung. Deswegen würde ich die wieder untertakten. Ansonsten nutze fps limiter, da spart man mehr als der Unterschied zwischen 960/380. Die verbrauchsangaben sind auch nur spitzen, real liegt die 380 nicht so weit weg.

Meine r9 285 jedenfalls läuft super. Leistung ist nicht wie im Fall von der fury stark abweichend zur Konkurrenz. 2-3 fps hat man bei Fallout, anno oder cod weniger. Dafür in dirt Rallye oder anderen Games wiederum die Nase vorne.

FPS Limiter ist ne richtig gute Idee, um Strom zu sparen. Danke :) Wusste gar nicht, dass so etwas geht. Im CCC kann man so etwas jedenfalls nicht einstellen ne? Bei MSI Afterburnger gehts, hatte gerade ein YT Video gesehen. Wie limitierst du die FPS in Spielen, wenn ich fragen darf...
 
Zuletzt bearbeitet:
Verbrauchsmessungen zum Referenzmodell nützen dir nichts, du musst dir die konkret in Frage kommenden Modelle ansehen. Das beste Messverfahren hat m.M.n. tomshardware, dort findest du jede Menge Daten auch zu gängigen OC-Modellen.
Was die Leistung anbelangt, gibts keine großen Unterschiede, da spielen die 380 und 960 in derselben Liga. Mal liegt die AMD vorn, mal die nvidia, das hängt sehr vom konkreten Spiel ab.
Genauere Infos zur 380X gibts in drei Tagen, dann wissen wir ja, ob die Vorhersagen hier im Thread zutreffen.
 
Da die 380 schon auf den Markt ist kann man durchaus einschätzen wo sich die 380x einreihen dürfte. Sie dürfte zwar noch zulegen bei den FPS, aber eben auch beim Stromverbauch.
Im Optimalen Fall sollte sie FPS/W leicht besser als die 380 dastehen.

Aber ob es nun die 960 oder die 380 wird als Info am Rande Asus hat gerade eine 20€ Cashback Aktion auf ihre Strix Modelle.
Da vorallem die 960 eh von allen Partnern eigentlich Kühl und leise gekühlt wird könntest hier auch nochmal sparen.

Dieses "Schrott " bezieht sich wohl darauf, das die Kepler Generation derzeit bei Games nicht so optimalen Support erhält wie Maxwell und die verschörungstheoretiker schon vorhersehen das Maxwell von Nvida genauso schlecht supportet wird wenn Pascal released wurde.

Sie dir einfach die Tests zu den letzten Releasen spielen an : Black ops 3, fallout 4,anno 2205 dann siehst du mal nv vorne mal amd. also eine Tendenz erkenne ich da noch nicht, sondern der übliche wechsel so wie schon immer. Und wieviel Performance AMD nun wirklich aus ihrer optimaleren DX12 Architektur schlagen kann weis man erst wenn auch einige DX12 titel released wurden den nur 1 titel sagt genau aus das es dort gut funktioniert, kann aber auch eben nur ein Titel sein der wie immer gut auf AMD läuft.

Obwohl ich GTX Käufer bin ist es für mich kein Problem anderen eine AMD Karte zu empfehlen wenn gewisse Dinge für sie nicht wichtig sind.Den AMD ist nicht besser oder schlechter als NV, sondern einfach nur "anders" .
Ja Autovergleiche, aber BMW oder AUDI ist doch beides gleichwertig .Ein jeder Hersteller hat halt alleinstellungsmerkmale die ihn hervorheben und wenn diese wichtig sind wird der eine oder der andere gekauft.Audi als Beispiel ihren tollen Quadro antrieb und BMW hinterrad und gute Motoren . Wobei bei Autos natürlich auch beim Design dann subjektiv für jeden anders bewertet werden, unabhängig der objektiven Unterschiede und Ansprüche.
 
Zuletzt bearbeitet:
Vitec schrieb:
... Dieses "Schrott " bezieht sich wohl darauf, das die Kepler Generation derzeit bei Games nicht so optimalen Support erhält wie Maxwell und die verschörungstheoretiker schon vorhersehen das Maxwell von Nvida genauso schlecht supportet wird wenn Pascal released wurde.

Sie dir einfach die Tests zu den letzten Releasen spielen an : Black ops 3, fallout 4,anno 2205 dann siehst du mal nv vorne mal amd. also eine Tendenz erkenne ich da noch nicht, sondern der übliche wechsel so wie schon immer. Und wieviel Performance AMD nun wirklich aus ihrer optimaleren DX12 Architektur schlagen kann weis man erst wenn auch einige DX12 titel released wurden den nur 1 titel sagt genau aus das es dort gut funktioniert, kann aber auch eben nur ein Titel sein der wie immer gut auf AMD läuft...

Ja. NV wird das so machen. Wenn eine GTX 780 gegen einen GTX 960 verliert, sagt das alles (neues Anno). Wenn die alten Karten noch schnell genug sind, werden sie halt - wie die Konkurrenz in Form von AMD Karten, durch Treiber ausgebremst.
Schade, dass AMD durch die PS4 und Xone nun bei den Entwicklern sitzt und low "level support erfährt". Jdf. schade für nvidia, gut für den Kunden/Gamer.
 
Zurück
Oben