News R9 Nano: AMD bringt Fiji-Vollausbau auf 15 cm mit 175 Watt

Nur interessant für ITX-User...
Aber dieser Preis geht mal gar nicht. Wenn AMD die Furies verkaufen will, sollte man die Preise generell drastisch senken.
 
johnniedelta schrieb:
Nur interessant für ITX-User...
Aber dieser Preis geht mal gar nicht. Wenn AMD die Furies verkaufen will, sollte man die Preise generell drastisch senken.

Wer hat denn mit der unverschämten Abzock-Preisspirale angefangen?! Wenn Ihr günstigere AMD-GPU's haben wollt, dann boykottiert erstmal die völlig überteuerten nVidia-Karten, damit die endlich mal aufhören, die dumme Konsum-User-Kuh weiter zu melken...
 
Zuletzt bearbeitet:
Cool Master schrieb:
Na ja Fakt ist das es früher so war. Zu zeiten der X800 Pro/XT und X1900XT (hatte ich) waren die Nvidia Karten und Treiber schon besser das muss man einfach eingestehen. Vor allem hatte NVidia damals eine bessere Bildqualität.
Ach war das so?
http://www.zdnet.de/39125640/test-der-kronprinzen-ati-x800-pro-gegen-nvidia-geforce-6800gt/11/
Obwohl Nvidia das Kantenglättungsverfahren bei der 6800-Serie verbessert hat, erreicht die Darstellung längst nicht die Qualität, die ATI-Chips bieten.[...]Dafür ist das anisotropische Filtering beim Geforce besser gelöst.
 
@Schinux Get up stand up, stand up for your rights.... Da sieht man mal Bob Marley hat immer recht :D


Aber jetzt mal im ernst (Nein, nicht im Detlev). Es wäre schön wenn wir uns alle wieder beruhgen würden und mal objetktiv Nur auf diese eine Karte schauen würden. Das würde dem Umgangston hier sehr zugute kommen.
Denn jede Seite, egal ob AMD oder Nvidia haben ihre vor-/Nachteile und so ist das nunmal. Aber desshalb muss ja hier kein Verbaler Weltkrieg stattfinden oder?
Ich mein ja nur, was bringt es uns darüber zu diskutieren, wenn WIR unsere Zeit besser verwenden könnten?
Wir sind sowieso alle uneinsichtig. Die einen werden (meistens) immer auf ihrem Standpunkt bestehen, alsow warum sich die mühe machen und lamentieren, wenn wir auch ganz ohne Streit und Anfeindungen, einfach nur uns über ein Stück Hardware unterhalten.

Ps: Die Kartenpreise werden immer teurer, dass sollte aber jedem Klar sein. Unternehmen versuchen immer ihren Gewinn zu maximieren. Und sie haben immer das Problem der resourcenkanppheit. Das fürht dazu dass sie versuchen mit dem was sie haben den höchst möglichen Gewinn zu machen. Die interessiert nur das sie Gewinn machen. Das ist bei allen so, egal ob Apple, Nvidia, AMD , Microsoft oder Samsung. ruft euch das bitte einmal in euer Gedächnis.
 
Zuletzt bearbeitet: (Rechtschreibung und Forumlierung)
Wer ernsthaft behauptet, JEDE Kritik hier würde nur daher kommen, dass die Karte von AMD kommt, ist nicht weniger verblendet als er es eben den anderen unterstellt. Das Ganze hier ist neben viel Müll auch genauso voll von tatsächlich begründeter Kritik und wer die einfach ausblendet, ist genau so blind pro AMD unterwegs, wie er allen anderen unterstellt nur grün zu denken.
Die Kritiker haben wenigstens teilweise noch Argumente, selbst wenn einige davon Schmarrn sind (siehe weiter unten zu Treibern). Dagegen finden sich aber zahlreiche Posts die vollkommen frei von Argumenten und Inhalten die Karte und/oder AMD verteidigen. Und so inhaltslos JEDE Kritik nur auf den ewigen Markenkampf zurückzuführen ist einfach genauso dumm. Anders kann man es nicht sagen.

Was die Treiber angeht, habe ich selbst schon immer AMD-Karten (nicht aus Markentreue, sondern weil sie zum Kaufzeitpunkt einfach die beste Wahl für mich waren). Ein Treiberproblem kam schon mal vor, gerade damals als ich noch eine Dual-GPU hatte. Aber das ist Software und kleine Problemchen gibt es immer mal. Für mich persönlich ist das aber nichts, was ich gegen AMD ins Feld führen könnte/würde. Der Einzige Punkt, den ich in Bezug auf AMDs Treiber gelten lasse, ist dass ihre Entwicklung deutlich langsamer reagiert als die von Nvidia. Das musste ich auch schon aus Erfahrung feststellen. Es kam durchaus das eine oder andere Mal vor, dass ich mit meinen Freunden neue Spiele ausprobiert habe, in denen es mit meinen AMD-Karten durchaus mal ein paar Probleme oder schlechte Performance gab, während meine Freunde mit Nvidias tadellos durch marschierten. Hier musste ich dann schon mal eine Weile warten, bis ein neuer Treiber oder eine neue Spielversion das behoben haben. Ist auch nicht komplett AMDs Schuld, die Spieleentwickler gehören da auch dazu, aber für den Nutzer ist es nunmal ein vorhandener Nachteil, der bei Nvidia deutlich geringer ist. Für mich persönlich, da ich eh schon eine ganze Weile nicht mehr jedes neueste Spiel sofort spielen muss, ist das bei mir mittlerweile recht unwichtig. Dennoch ist das für mich so ziemlich der einzige Grund, aus dem ich der Aussage, dass AMDs Treiber schlechter sind, zustimmen würde.

Was die Fanboys angeht: Mir persönlich gehen, obwohl ich selbst zu ~85% AMD im Einsatz habe, die AMD Fanboys so im letzten Jahr klar mehr auf den Geist. Man kann an AMD-Produkten kein einzelnes Funzelchen Kritik mehr anbringen, ohne grundlos als Nvidia-Fan tituliert zu werden. Was dann teilweise von den AMD-Jüngern kommt, ist mitunter einfach bodenloser Schwachsinn. AMD hat die letzten 3 Releases auch das blaue vom Himmel versprochen, die Realität sah dann aber so aus, dass man Aussagen wie "Overclockers Dream" schon als Lüge und die von AMD selbst erstellten Vorab-Benchmarks schon fast als Fakes bezeichnen muss. Und dennoch findet sich an jeder Ecke irgendein AMD-Fan, der bis aufs Blut jede noch so offensichtlich falsche Kleinigkeit zu verteidigen versucht. Um dem noch die Krone aufzusetzen, wird dann auch noch jedem, der etwas anderes sagt unterstellt er bekomme von Mami und Papi Tausender zugesteckt, um sie geistlos in Nvidia-Karten zu verheizen. Von absurden Doppelmoralen mal ganz abgesehen. Zweierlei Maß wird immer dort angelegt, wo es gerade passt.
Bestes Beispiel jetzt der Nano-Launch: "350€! 400€! Wird die 970 in P/L killen!" ... Wer begründet etwas anderes behauptet hat, war ein NVidia-Fan. Jetzt kommt das Teil für das Doppelte, mehr noch als selbst die Pessimisten prophezeit hatten. "Ist sie Wert. Musste ja so sein, weil >hier einsetzen was ehemals als NV-Fanboy-Unsinn abgestempelt wurde<" Ganz ehrlich, ich kann es langsam nicht mehr sehen und während die Nvidia-Fans klar auch viel Schwachsinn von sich geben (ich denke, das geht mit dem Wort "Fan" oft Hand in Hand), fällt es mir persönlich leichter, ein "kleines Kind" zu ignorieren, das nur "Hurra hurra Nvidia, Effizienz, Treiber und viel geiler für alle" schreit, als diese hartnäckigen selbsternannten AMD-Veteran-Fachleute, die entweder Seitenlang auf jeder Kleinigkeit rumreiten und dabei mehr falsches von sich geben als 10 NV-Kids zusammen oder eben gar nichts sagen und jede Kritik nur als NV-Propaganda abtun.
 
Zuletzt bearbeitet:
edenjung schrieb:
@Schinux Get up stand up, stand up for your rights.... Da sieht man mal Bob Marley hat immer recht :D


Aber jetzt mal im ernst (Nein, nicht im Detlev). Es wäre schön wenn wir uns alle wieder beruhgen würden und mal objetktiv Nur auf diese eine Karte schauen würden. Das würde dem Umgangston hier sehr zugute kommen.
Denn jede Seite, egal ob AMD oder Nvidia haben ihre vor-/Nachteile und so ist das nunmal. Aber desshalb muss ja hier kein Verbaler Weltkrieg stattfinden oder?
Ich mein ja nur, was bringt es uns darüber zu diskutieren, wenn WIR unsere Zeit besser verwenden könnten?
Wir sind sowieso alle uneinsichtig. Die einen werden (meistens) immer auf ihrem Standpunkt bestehen, alsow warum sich die mühe machen und lamentieren, wenn wir auch ganz ohne Streit und Anfeindungen, einfach nur uns über ein Stück Hardware unterhalten.

Ps: Die Kartenpreise werden immer teurer, dass sollte aber jedem Klar sein. Unternehmen versuchen immer ihren Gewinn zu maximieren. Und sie haben immer das Problem der resourcenkanppheit. Das fürht dazu dass sie versuchen mit dem was sie haben den höchst möglichen Gewinn zu machen. Die interessiert nur das sie Gewinn machen. Das ist bei allen so, egal ob Apple, Nvidia, AMD , Microsoft oder Samsung. ruft euch das bitte einmal in euer Gedächnis.

Geld und Ressourcen sind genau genommen endlich, außer man wirft wie die FED die Notenpresse an und überschwemmt den Markt mit "neuem" Geld. Dies treibt allerdings die Entwertung der Währung und die Inflation voran. Wir sollten alle von der absurden Denke abschwören, man müsse auf Teufel komm raus jedes Jahr immer mehr produzieren/konsumieren/Wachstum schaffen. Dies ist in einer Welt mit begrenzten Ressourcen auf Dauer einfach nicht möglich und wird zwangsläufig in einer Katastrophe bzw. dem Zusammenbruch des "Immer-mehr-Systems" enden. Klar müssen/sollen neue Technologien entwickelt werden, die uns das Leben erleichtern/verbessern können/sollen und natürlich kosten Forschung & Entwicklung Geld. Trotzdem müssten diese Innovationen auf Dauer die Preise FALLEN lassen, anstatt alles immer teurer werden zu lassen... Wenn ich den Begriff "Gewinnmaximierung" schon höre, dann stellen sich mir die Nackenhaare auf, das Geld sollte dem Menschen dienen und nicht der Mensch dem Geld bzw. der Wirtschaft...
 
Bin mal gespannt auf den verbrauch der Fury x2. Da gibts ja anscheinend einiges an Potential.
 
@Hopsekäse

Wenn du mal querliest wer hier oftmals die "Kritik" an der Karte anbringt und mal von den Personen die anderen Beiträge durchforstet wird dir sicherlich aufgehen, dass es sicherlich nicht um die Karte an sich hier geht, sondern eben schon um reines AMD bashing. Ich frage mich auch ernsthaft was man an der Karte ohne einen einzigen Test schon kritisieren kann außer den Preis, aber Nische ist halt teuer, muss man ja nicht kaufen. Ich würde es nicht tun. Ich brauche den Formfaktor nicht und daher wäre es mir zu teuer.
 
Zuckerwatte schrieb:

Gibt es da mehr zu?
Ist das nur das kleine Dongle, das da rum hängt? Denn dann kann es nicht leisten, was gewünscht wird, da es dann nur ein passiver Adapter ist. Habe ich zwar schon erklärt, aber gern nochmal:
DisplayPort 1.2 hat einen HDMI-Kompatibilitätsmodus. Der KANN ein HDMI 2.0 Signal durchschleifen und dann über einen 2.0-Adapter auch ausgeben WENN die Quelle (Hier Grafikkarte) ein HDMI 2.0-Signal ausgeben kann. Die Signale sind nicht kompatibel und ein einfacher passiver Adapter wandelt diese auch nicht. Der bewirkt nur, dass die Quelle erkennen kann, dass dort jetzt ein HDMI-Signal benötigt wird. WENN die Quelle ein HDMI 2.0-Signal senden kann, dann funktioniert das auch. WENN die Fijiis aber ein HDMI 2.0-Signal ausgeben könnten, dann hätten sie auch den 2.0-HDMI-Port, denn der Port an sich ist genau wie die Kabel der gleiche wie bei HDMI 1.4, es ist nur entscheidend, welches Signal darüber gesendet wird. Das können sie aber halt nicht. Daher wäre ein aktiver Wandler von Nöten, der das DP-Signal selbst aktiv wandelt.

@CB
Ich glaube hier wird langsam wirklich ein Aufklärungsartikel nötig, viele Leute wissen hier wirklich nicht Bescheid...

@Dai6oro
Mir ist egal, wer das ist, für mich zählen Inhalte. Wenn diese Kritik angebracht ist, ist mir egal von wem sie kommt. Genau das ist ein großes Problem in diesem Markenkrieg. Scheiß auf Inhalte, alles was zählt ist, ob jemand nun ein roter oder ein grüner Markensoldat ist. Sind wir doch mal ehrlich, wenn du dir bei einem Post erstmal massig andere Posts des Users durchliest, um zu sehen, ob er vielleicht ein grüner Soldat ist, anstatt dich mit den angesprochenen Inhalten auseinander zu setzen, dann tust du das, weil du selbst ein roter Soldat bist. In meinen Augen völlig unnötig.
Bis zu 30% mehr als eine mini 970 hat AMD versprochen und es wird wohl kaum mehr sein (eher weniger, siehe letzte Versprechen). Dafür sind 700€ einfach zu viel. Dafür kriegt man eine 980Ti mit OC, die 50-65% mehr leistet (zur 970), mehr Speicher hat, HDMI 2.0 hat, insgesamt einfach das bessere Paket bietet oder für 500€ eine 980 mit OC, die 20-30% mehr leistet (zur 970). Das macht 30% Leistung oder 200€ für den Gimmick-Formfaktor. Finde ich persönlich kritikwürdig.
 
Zuletzt bearbeitet:
issenia schrieb:
Genau so sehe ich das auch. Aus eigener Erfahrung mit beiden Herstellern, kann ich sagen, dass weder der eine noch der andere signifikant besser oder schlechter ist.
Wieso haben dann mehr Leute im CB Forum Probleme mit AMD als mit nVidia, obwohl AMD nur noch 18% Marktanteil hat?
 
PiPaPa schrieb:

naja das war leider echt so, mehr vom qualitativen Standpunkt heraus und der Administration. Unsere Firma ist damals mit den FireGl voll auf die Fresse gefallen und seither werden nur noch Nvidias verbaut - gerade in der Industrie hält sich sowas noch deutlich länger als im privaten Umfeld.

Da gehts nich um BQ... sondern um reibungslosen Betrieb. Das war ne zeitlang bei ATI ganz schön schwer.
 
Zuletzt bearbeitet:
Darkscream schrieb:
Das Entkräftet schon mal gefühlte 1000 Post`s, wo mir immer wieder prognostiziert wurde, das ich in den nächsten 2. Jahren mit meiner GTX 970 keine Games mehr vernünftig spielen kann, weil die Grafikkarte dann wegen den neueren Modellen vom Treiber her von Nvidia nicht mehr richtig optimiert wird und meine 3,5 GB/Vram [die bisher recht beachtlich funktionieren] nicht mehr ausreichen. ;)

Allerdings wird mir das jetzt hier im Thread etwas zu sehr Rot und Grün und etwas zu aggressiv von den Meinungen her, somit bin ich erst mal raus :eek:
 
Zuletzt bearbeitet:
Compo schrieb:
Erstmal Tests abwarten.
Nur komisch, dass Energieeffizienz ganz plötzlich kein Thema mehr ist, wo doch sonst bei jeder AMD Karte danach geschrien wird....

Energieeffizienz ist durchaus noch ein Thema aber nicht bei dem Preis. Ich persönlich hätte schon ab >400 EUR ein Problem damit gehabt...zähneknirschend hätte ich noch 450 EUR akzeptiert, aber da hört es dann auf.
Also werde ich vermutlich dann doch zu einer GTX970 greifen. Ich zögere das Update meines PCs nun schon rund 1,5 Jahre hinaus. Zu meiner Überraschung erfüllt meiner bisheriges System mit AMD Phenom II 965 und einer HD6870 sogar noch die 2560x1440 Pixel meines neuen NEC Monitors. Ich hatte schon die Befürchtung das mit dem Upgrade umgehend eine neue Grafikkarte fällig ist. Gut das ich nicht das neueste vom neuen spiele (wenn ich zum spielen komme) und ich auf den ganzen Kantenglättungskram verzichten kann.
 
Hopsekäse schrieb:
Gibt es da mehr zu?
Ist das nur das kleine Dongle, das da rum hängt? Denn dann kann es nicht leisten, was gewünscht wird, da es dann nur ein passiver Adapter ist. Habe ich zwar schon erklärt, aber gern nochmal:[überflüssige Erklärung]

Nein leider habe ich noch nicht heraus gefunden, ob das Ding @ 30Hz oder @60Hz kann. Danke für die überflüssige Erklärung, warum ein aktiver Adapter gebraucht wird (so ziemlich das erste was man findet wenn man nach dem Thema sucht aber ok...).

Abwarten und Tee trinken. Das Problem der HDMi 2.0 Schnittstelle an einer GPU dürfte zur Zeit mehrere betreffen(beide Hersteller). Würde mich wundert wenn da niemand einen aktiven Konverter im Plan hat.

Natürlich ist das ein Haar im Süppchen(neben dem Preis), dass eine beworbene 4K Karte kein HDMi 2.0 hat. Bin mir noch nicht sicher wen ich dafür anprangern soll. Den Chiphersteller oder die TV Hersteller? Wohl eher beide :) .
Ergänzung ()

Hopsekäse schrieb:
@Dai6oro
Mir ist egal, wer das ist, für mich zählen Inhalte. Wenn diese Kritik angebracht ist, ist mir egal von wem sie kommt. Genau das ist ein großes Problem in diesem Markenkrieg. Scheiß auf Inhalte, alles was zählt ist, ob jemand nun ein roter oder ein grüner Markensoldat ist. Sind wir doch mal ehrlich, wenn du dir bei einem Post erstmal massig andere Posts des Users durchliest, um zu sehen, ob er vielleicht ein grüner Soldat ist, anstatt dich mit den angesprochenen Inhalten auseinander zu setzen, dann tust du das, weil du selbst ein roter Soldat bist. In meinen Augen völlig unnötig.
Bis zu 30% mehr als eine mini 970 hat AMD versprochen und es wird wohl kaum mehr sein (eher weniger, siehe letzte Versprechen). Dafür sind 700€ einfach zu viel. Dafür kriegt man eine 980Ti mit OC, die 50-65% mehr leistet (zur 970), mehr Speicher hat, HDMI 2.0 hat, insgesamt einfach das bessere Paket bietet oder für 500€ eine 980 mit OC, die 20-30% mehr leistet (zur 970). Das macht 30% Leistung oder 200€ für den Gimmick-Formfaktor. Finde ich persönlich kritikwürdig.

Naja so richtig kann man das nicht als Argument werten, da eine 980TI OC / 980 OC definitiv größer als die Nano sind. Ich bin eher auf Custom Modelle gespannt, wobei ich dort die gleichen deftigen preise erwarte, die ich persönlich nicht für eine 4GB VRAM Karte ausgeben würde - vor allem nicht mit meiner momentanen GPU. Für ein ITX Projekt könnte die aber definitiv interessant sein, da die 970 für 4k eher unbrauchbar ist - was auch wieder egal ist, da ich noch keine Lust habe Mondpreise für 4K Geräte ohne DP 1.2 zu zahlen.
Ergänzung ()

Krautmaster schrieb:
naja das war leider echt so, mehr vom qualitativen Standpunkt heraus und der Administration. Unsere Firma ist damals mit den FX voll auf die Fresse gefallen und seither werden nur noch Nvidias verbaut - gerade in der Industrie hält sich sowas noch deutlich länger als im privaten Umfeld.

Da gehts [...] um[...] reibungslosen Betrieb. Das war ne zeitlang bei ATI ganz schön schwer.

Das war eine Zeitlang fast unmöglich. Bin seit meiner 290x jedoch positiv überrascht ( vorher 11 NV Karten). Mein FX lebt solang bis er mir zu langsam wird. Da ich zur zeit eher ältere Spiele spiele geht es. Kann auch nicht verstehen, wie man als Firma auf einen FX setzen konnte, wenn doch damals schon klar war, dass die Software mit 8 Kernen oftmals sowieso nicht umgehen kann. Die FX 4XXX sind in meinen Augen Nutzlos. Die Frage wäre, was deine Firma mit den FX ern machen wollte?
 
Zuletzt bearbeitet:
xeonking schrieb:
Fiji in der Mittelklasse wäre jetzt wahrscheinlich noch zu teuer, aber ein netter Gedanke ist das schon. Mit ein wenig Glück rutscht dieser Fiji in der 400er Reihe in die Mittelklasse und der Fiji mit HBM2 in die Oberklasse.


gruß
Glück? da kannst fest mit rechnen. wird aber dauern. bis eben die nächste generation von AMD kommt. Ist ja kein zufall das heute noch Chips von 2011/12 in deren Sortiment zu fineden sind (unterer Mainstream? 270X)
 
@Zuckerwatte

Das Ding ist übrigens ein passiver Adapter, er kann 60Hz, aber wie immer nur wenn auch ein entsprechendes Signal kommt. Ist auf der Seite des Unternehmens gelistet. Hat 15 Sekunden gedauert, das herauszufinden und da du das als Antwort auf die Aufforderung einen Link beizusteuern, der 100%ig belegt, dass das mit Adaptern möglich ist, gepostet hast, war ich halt davon ausgegangen, dass du den Sachverhalt um den Kompatibiltätsmodus des DP eben nicht kennst. Denn 100%ig zeigt er nur, dass das gewünschte Ergebnis damit nicht erzielt werden kann.
Wenn du mal weiter guckst, wirst du auch feststellen, dass das Thema schon seit ca. einem Jahr angesprochen wird und noch immer keine Lösung vorhanden ist. Ein aktiver Konverter wäre außerdem deutlich teurer. Nvidia wird es recht sein, die können es als Argument für die aktuellen Karten nutzen...

Die aktuellen Nvidia-Karten können alle HDMI 2.0, lediglich die 970 und die 980 können kein HDCP 2.2, sodass sie zum Wiedergeben von 4K-Blu-Rays nicht geeignet sind.
Warum sollte man den TV-Hersteller anprangern? Grund? Die Standard-Schnittstelle dafür haben sie, ist im TV-Bereich nunmal HDMI, ein paar Fernseher haben auch den Display-Port. Ich würde aber ganz klar eher den GPU-Hersteller anprangern, der auf eine brandaktuellen Karte kein aktuelles HDMI 2.0 verbaut, diese aber als 4K-Karte vermarktet, weil sie in vielen Spielen spielbare Bildraten über 30 FPS schafft. Erst recht bei einer kompakten, für HTPCs geeigneten Karte, die sicher gut an den 4K-TVs eingesetzt werden könnte. Im Endeffekt sind auch 4K-TVs sicher weiter verbreitet als 4K-Monitore. Daher für meine Begriffe eine unverständliche Fehlentscheidung seitens des GPU-Herstellers. Ob die TV-Hersteller das nun in Zukunft umgehen, indem sie den Displayport aus dem PC-Bereich einbauen, sei mal dahingestellt, wäre definitiv nicht übel. Aber ihnen einen Vorwurf machen, weil AMD es nicht gebacken kriegt, den Einsatzbereich seiner eigenen Karten abzuschätzen und die nötige Konnektivität sicher zu stellen... Würde ich persönlich nicht tun.

Zum Vergleich zur 980(Ti) hast du wohl den entscheidenden Satz überlesen. Klar ist die Nano kleiner, nur dafür 200€ mehr zu zahlen oder fürs gleiche Geld auf 30% Leistung zu verzichten, ist das, was ich kritisiert habe. Deine Antwort "Das kann man nicht so ganz werten, weil die größer sind", kann ich daher irgendwie auch nicht als mehr als ein Missverständnis werten.
Da könnte man rein hypothetisch genauso gut sagen, ich pack bei der 980 Ti nochmal 200€ drauf (anstatt auf die 30% Performance zu verzichten) und habe dann für 900€ eine kompakte 980Ti. Wäre die plötzlich interessant? Würde es da jemand als Gerechtfertigt ansehen? Fänd es irgendwer plötzlich vollkommen angemessen, wenn Nvidia für 700€ eine geschrumpfte 980 raus bringt? Da würde auch jeder einen niedrigeren Preis fordern und Nvidia wäre mal wieder böse böse, weil sie so geldgeil sind.
 
Zuckerwatte schrieb:
Das war eine Zeitlang fast unmöglich. Bin seit meiner 290x jedoch positiv überrascht ( vorher 11 NV Karten). Mein FX lebt solang bis er mir zu langsam wird. Da ich zur zeit eher ältere Spiele spiele geht es. Kann auch nicht verstehen, wie man als Firma auf einen FX setzen konnte, wenn doch damals schon klar war, dass die Software mit 8 Kernen oftmals sowieso nicht umgehen kann. Die FX 4XXX sind in meinen Augen Nutzlos. Die Frage wäre, was deine Firma mit den FX ern machen wollte?

Ich verstehe nicht wo da der Zusammenhang zwischen FX CPUs und dem Kauf von geforce Grafikkarten sein soll oder meinte er das sie von den Problemen mit nvidias FX Grafikkarten so begeistert waren das sie bei dem Hersteller blieben? :freaky:
Ergänzung ()

Hopsekäse schrieb:
Die aktuellen Nvidia-Karten können alle HDMI 2.0, lediglich die 970 und die 980 können kein HDCP 2.2, sodass sie zum Wiedergeben von 4K-Blu-Rays nicht geeignet sind.

Die großen Geforce Modelle können damit auch nicht umgehen, wer Wert auf HDCP 2.2 legt kann max. ne GTX960 kaufen.
ernsthafte 4K Blu-Rays gibt es mangels Speicherkapazitätz eh nicht sondern bestenfalls fast tot komprimierten Mist oder kurze Tech Demos.
 
ich meinte nicht die FX CPUs sry, ich meine die alten ATI Fire GPUs, aus Zeiten wo der Treiber schlecht bis gar nicht lief ;)

Bei CPU hat man die Probleme eigentlich nicht, aber da is seit langem eigentlich auch Intel Programm da selbst heute noch ein Großteil der >10000€ Software im Business Umfeld durch einen Thread ausgebremst werden und AMD schon lange Jahre Option mehr ist. Nicht mal für Office Kisten.
 
Zuletzt bearbeitet:
Zurück
Oben