Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Es ist durchaus ein Vorteil, wenn der Herstellungsprozess einer Strukturgröße ausgereift und bewährt ist. Weniger Ausschuß dürfte sich auch auf die Endkundenpreise niederschlagen.
@g00su
Was immer du auch nimmst, und aus welchen Gründen, egal, nimm weniger davon!
Dein Avatar lässt aber auch nicht unbedingt darauf schließen, dass du offen für Hardware von Intel oder Nvidia bist. Ich soll also ein Idiot sein, weil ich einen Intel-Prozessor verbaut habe? Ja, hätte ich doch anstelle meines i5 2500k lieber einen FX-8150 samt veraltetem Board + Chipset genommen.
Warum gibt es bei euch eigentlich nur Intel- und Nvidia-Fanboys, während bei euch jeder extreme AMD-Verfechter ein "Kämpfer gegen das Böse" zu sein scheint?
Finde ich auch schlimm, immer diese fanboys^^ mir persönlich ist er egal welche name die hardware trägt... solange sie gut ist ist das ok... zb gibst zur zeit keine gute amd Prozessoren... warum soll ich mir dann diese alte Schrott kaufen? nene gekauft wird was Leistung bietet und wenn amd da nicht mithalten kann dann sollen sie lieber nichts tun, was eig. jz auch der fall ist^^ Zum Glück bauen sie noch gute Grafikkarten, sonst würde ich wohl rein gar nichts von amd haben^^
weil nunmal bei intel-nutzern die DAU-anteil am höchsten ist, da sind eben zwangsweise mehr DAUs dabei.
AMD hat keine extrem überteuerten produkte, da kann man schon mal nicht aus fanboygründen für eine CPU zuviel zahlen.
supermarktkäufer die sich beim MM eine schrottkiste kaufen sind auch selten dabei.
mich stören auch AMD-fanboys, hab das eh schon oft genug kritisiert...
genau diese typischen fanboyaussagen nerven, es ist einfach blödsinn.
wenn jemand nicht mehr leistung braucht ist ein AMD-system die preiswertere lösung!
Was nervt dich den? die Wahrheit? wenn man sich ein Multimedia pc bauen will dann klar ist dem amd gut, aber wenn es um leistungsstarke gamer systeme geht? was hat da amd zu bieten? die 3 Jahren alten FX Prozessoren? die Grade mal mit einem i5 messen können? bei dreifachen Stromverbrauch? Emm nein danke^^
welche wahrheit?
du sagst ja gerade selbst, daß ein AMD-system bei einem multimediarechner wenn man nicht spielt besser ist.
hier wird aber permanent behauptet AMD wäre ÜBERALL schlechter, das ist nunmal falsch...
und dreifacher stromverbrauch ist auch wieder mal so eine typische lüge, solche übertreibungen bringen echt nur fanboys!
aber eh klar, jeder der sich über hardware informiert und nicht immer AMD nieder macht ist bei euch ein AMD-Fanboy, ist eh in allen foren das selbe.
über AMD, Mozilla,... darf man nur negatives schreiben und lügen verbreiten, wer das nicht macht ist ein fanboy...
Ergänzung ()
und leistungsstarke gamer-systeme sind halt nur eine kleine randgruppe wenn man den ganzen markt betrachtet, 90% des marktes kann AMD mit kaveri abdecken.
also sind eben gewisse aussagen einfach nur unsinn, der von leuten kommt sie sich einbilden CPUs um 250€ wären die massenware^^
das große geld macht man mit CPUs in preisregionen die man mit kaveri abdecken kann!
Lol ich besitze selber produkte von amd, und bin voll zufrieden. Ich habe nie behauptet das alles von amd schlecht ist! Es ist leider so das ZUR zeit bietet AMD keine cpus die sag ich mal so für mich genug sind? passt das so?^^ und bzw Stromverbrauch, natürlich ist das etwas überreagiert aber schau mal was ein 8350/9590 verbraucht und dann den besten und hungrigsten i7, dann können wir darüber diskutieren^^
Ist absolute Blödsinn... in Bereich Multimedia führt amd deutlich... das kann man doch alles nachschauen. wer das bestreitet hat einfach keine Ahnung. Habe Selbst eine kleine mini itx system mit 7850k apu. an Fernsehern angeschlossen. wenn ich nur surfe filme schau oder ähnliches so wie jz nutze ich immer den amd^^ verbraucht wenig, ist sehr kühl und nichts zu hören alles zusammen hat nur knapp 350 euro gekostet.
aber eh klar, jeder der sich über hardware informiert und nicht immer AMD nieder macht ist bei euch ein AMD-Fanboy, ist eh in allen foren das selbe.
über AMD, Mozilla,... darf man nur negatives schreiben und lügen verbreiten, wer das nicht macht ist ein fanboy...
Im Gegenteil. Die letzten News-Threads dieser Art enthalten überwiegend positive Meinungen zu AMD (siehe TITAN Z, R9 295X2, FreeSync, GSync, CPU-Comeback, Mantle, etc.).
Allerdings muss man auch ganz klar sagen, dass hier im Forum überwiegend nach leistungsstarken Systemen für Gaming, Rendering, etc. gefragt wird. Hier ist AMD wirklich nur in sehr seltenen Fällen wirklich empfehlenswert. Wenn allerdings die Anwendung stimmt, wird eigentlich immer ein FM2+ - basiertes System vorgeschlagen.
Wenn das wieder nur die "kleinen" GPUs werden wie bei der GTX 600 Serie (und nicht der Vollausbau), dann wird die GTX 800 Serie - genau wie die GTX 600 Serie - ausgelassen und erst die GTX ?980? gekauft.
Da wird einem eine GTX x70 anfänglich als GTX x80 verkauft und 1 Jahr später kommt dann der Vollausbau, wo die "richtige" GTX x80 dabei ist. Selbes Spiel wie bei der GTX 600 Serie. Nervig ...
Wollte auch schon meine 660 ersetzen, aber es gibt einfach keine aktuelle GPU die sich als Nachfolger lohnt.
Alle zu langsam bis auf die 780Ti und die frisst zu viel Strom.
Naja - Für 1080P/60FPS reicht die 660 noch. Denke vor Mitte 2015 kommt sowieso keine neue GPU in den Rechner.
Die Battlefield Hardline DEMO läuft durchgehend mit 60 FPS und sieht auf Medium High und Ultra fast gleich aus.
Wegen Ultra hole ich mir keine 780Ti ... Da müssen die Spieleentwickler schon mehr bieten.
Watch Dogs lief bei mir immerhin noch mit 40-50FPS; mehr als die X1 oder PS4 zu bieten hat.
Wenn das wieder nur die "kleinen" GPUs werden wie bei der GTX 600 Serie (und nicht der Vollausbau), dann wird die GTX 800 Serie - genau wie die GTX 600 Serie - ausgelassen und erst die GTX ?980? gekauft.
Da wird einem eine GTX x70 anfänglich als GTX x80 verkauft und 1 Jahr später kommt dann der Vollausbau, wo die "richtige" GTX x80 dabei ist. Selbes Spiel wie bei der GTX 600 Serie. Nervig ...
Nach zwei GTX 570 hatte ich zwei GTX 670 @SLI in meinem Rechner im Einsatz. Das war ein Unterschied wie Tag und Nacht. Das etwas knappe VRam war der eigentliche Grund, warum ich auf die GTX 780ti umgesattelt habe. Die Performance hat bei den beiden Kepler-Karten gestimmt.
Wenn der Speicherausbau bei ner "Performance-Karte" alla Maxwell GTX 870/880 mehr VRam plus ordentlicher Speicherbandbreite mit bringt, kann das schon ein Kaufgrund für Nutzer von alten Fermikarten, oder Kepler GTX 670 oder 680 User sein. Leute mit ner GTX 780(ti) werden wahrscheinlich den Big-Chip abwarten.
Maxwell ist die beste Nvidia Reihe seit dem G80 Chip von 2007.2015 wird dann ein neuer PC gekauft (mit GTX 870), welcher dann mindestens 5-8 Jahre reichen muss
guter Vergleich Blueeye sehr detailliert und illustrativ wie gewinnbringend kann man alten PC mit neuer Graka aufrusten
Ich habe auch vor mein altverdienter PC mit flotter Mainstream Video Card zu bestucken
guter Vergleich Blueeye sehr detailliert und illustrativ wie gewinnbringend kann man alten PC mit neuer Graka aufrusten
Ich habe auch vor mein altverdienter PC mit flotter Mainstream Video Card zu bestucken
Ähhh guten Morgen erstmal
War das jetzt Ironie von dir oder...!?
Im Ernst: Ich finde Blueeye_x hat schon Recht! Mein Notebook war im Endeffekt auch nur ne Zwischenlösung (leider für mehrere Jahre, da Geld anderweitig benötigt wurde). Seit meiner 8800 GTX, finde ich persönlich, hat mir dieser Quantensprung gefehlt. Hoffe daher auf eine starke Grafikkartengeneration, welche dennoch nicht zu stromhungrig ist. DAS wäre mal eine Sensation! Ich warte also mit meinem neuen PC noch bis Ende d. Jahres
Ich denke das die GTX 880 nicht wirklich sehr viel schneller als eine GTX 780Ti sein wird, es sieht eher danach aus als wäre sie auf dem Level einer GTX 780. Zumal man mit Hochrechnungen auf 2560 ALUs kommt die genau so viele sind wie bei der R9 290 von AMD. Eine GTX 780Ti hat da schon 2880 ALUs und ist somit einfach potenter.
Außerdem basieren die GTX 880 und 870 Chips auf dem GM204 was nicht auf vollkommenes High End schließen lässt. Ich denke das es ab der GTX 980/970 um einen der starken High End Chips handeln wird der dann auf dem Namen GM200 hören wird und in 20nm Produziert wird.
Die 800 Serie wird einfach nur bei etwas mehr Leistung 5% weniger Strom verbrauchen und dafür dann gut übertaktbar sein, sonnst darf man nicht so viel erwarten. Mitte 2015 kann man dann durch die 900Serie die im großen und ganzen nichts anderes als die 800Serie ist nur halt in 20nm und bestimmt 3200 ALUs für die GTX 980.
Ergänzung ()
So habe mir eben ne Liste angesehen die ein Hardware Magazin im Internet veröffentlicht hat. Darauf steht wie folgt: "GK104/GM204" das bestätigt das es sich beim GTX 880 nicht um vollkommenes High End handelt. Außerdem steht da noch GM204-GB3 das könnte darauf schließen das die Karte 3GB hat. Denn der GK104 hat nur 2GB.
Ich bin gespannt was Nvidia im nächsten Monat vorstellt. Ich habe mir jetzt eine GTX 780 gekauft da meine R9 290 gespinnt hat und denke das diese für die nächsten 1,5-2 Jahre reichen wird
Wenn man so zurückblickt waren gerade bei den Grafikkarten in den letzten 3-4. Jahren auch nicht die "Leistungsburner" dabei und der Leistungszuwachs hielt sich in Grenzen und war von einem "Quantensprung" weit entfernt. Was sich wirklich verändert hat, war die Preisentwicklung, die gerade bei den letzten beiden Generationen der Grafikkarten zur Leistung überproportional in der Preisentwicklung zugelegt hat. Ich denke bei den Materialien und der jetzigen Chipgenerationen ist die Leistung schon ziehmlich ausgereizt, was man auch daran erkennen kann, das man das Augenmerk zunehmend in der Energieeffizienz und der Verbesserung der API`s legt. Da hier noch einiges an Potenzial schlummert, das man noch nicht ausgereizt hat.
Darauf steht wie folgt: "GK104/GM204" das bestätigt das es sich beim GTX 880 nicht um vollkommenes High End handelt. Außerdem steht da noch GM204-GB3 das könnte darauf schließen das die Karte 3GB hat. Denn der GK104 hat nur 2GB.
Wenn das so kommen sollte, dann müssten die ja Speicherchips mit unterschiedlichen Größen verbauen, damit es auf die 256 Bit Speicherbandbreite passt. Als ob Nvidia auf einem Midrange-Chip 384 Bit Speicherbandbreite verbaut .......