Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wahr nicht auch bei Dell letztens die Rede das die eh nur 30 Hz darstellen?
Also zum zocken nicht direkt zu gebrauchen, obwohl die Karten nicht mehr als 30 FPS schaffen^^
@Hacklie
2560x1440 mit max. Qualitätseinstellungen.
Da passt die 780Ti leistungsmäßig schon ganz gut. Hätte halt nur gut 100 Euro weniger kosten können und mindestens ein halbes Jahr früher auf dem Markt.
Vielleicht würde sich daran etwas ändern, wenn AMD eine GPU bringen würde, die Nvidias beste total deklassiert. Hawaii reicht dafür allerdings nicht aus. Es sein denn, Mantle übertrifft alle Erwartungen und schlägt wie eine Bombe ein.
Falls das passieren würde glaubst ja wohl nicht dass AMD uns mit Zuckerpreisen verwöhnen würde. Nvidia hat mit Ihrem Titansch... die Büchse der Pandorra geöffnet und genug Leute haben mitgemacht. Den Geist kriegste nicht mehr in die Flasche. Sollte eine Karte die andere deklassieren, wird jeder Hersteller Mondpreise dafür aufrufen.
Leider habe ich nun auch eine 1440p Monitor und die absolute HighEnd von AMD/Nvidia ist gerade gut genug. Weiß gar nicht was Leute da von Downsampling oder 4k faseln. Möchtegern.
Vor Ende diesen Jahre gibt es definitv kein neues High End und schon gar nicht mehr in 28nm.
Laut einigen CES14 Berichten gab es dort bereits einige Notebooks von z.b. Asus und MSI bei denen die Nvidia Grafikkarte nicht beim namen genannt werden durfte, also höchstwahrscheinlich eine 8XXM. Zumindest die Mobilen scheinen also wirklich nicht sonderlich Weit weg zu sein. Mal sehen wie es mit den Desktop Varianten aussehen wird und natürlich Preis+Leistung.
Artikel-Update: Auf der Nvidia-Homepage wird inzwischen eine GeForce 820M als neues Notebook-Modell geführt. Die Bezeichnung GeForce 820M kursiert bereits seit einer Weile im Netz und wurde bisher mit der GF117-GPU auf Basis der älteren „Fermi“-Architektur in Verbindunggebracht. Die auf der offiziellen Produktseite gelisteten technischen Daten sprechen allerdings von DirectX 11.2 und OpenGL 4.4, was auf einen neuen Chip hinweist, bei welchem es sich um „Maxwell“ handeln könnte. Die Grafikkarten der „Kepler“-Generation werden von Nvidia hingegen mit DirectX 11 und OpenGL 4.3 beworben.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Im Preisvergleich sind bereits diverse Notebooks mit GeForce 820M zu finden. Die Tatsache, dass diese teils schon verfügbar sind, spricht wiederum gegen „Maxwell“, da die offizielle Markteinführung noch nicht erfolgt ist. Bei potentiellen Kunden sorgt der Name bereits für Verwirrung.
Mit Dank an unseren Leser lost_Wolf für den Hinweis zum Update!
Das ganze ist ziemlich verwirrend. Alles deutet auf eine neue GPU hin (DX 11.2, OpenGL 4.4), aber Notebooks sind schon verfügbar und Nvidia hat nichts angekündigt?? Warten wir besser mal ab.
Naja, ob diese dann wirklich verfügbar sind, oder es sich um einen logistischen Fehler handelt, bleibt erst einmal unklar.
Ich muss eh noch ein Weilchen warten, bis meine GTX870 das Licht das Welt erblickt
Was ich für am wahrscheinlichsten halte ist das da einige Händler das Streetdate gebrochen haben und es jetzt deswegen Verwirrung gibt. Evtl kommt nen Press Release am Mittwoch/Donnerstag (sind doch die üblichen Tage wo sowas angekündigt wird oder hab ich da was ganz falsches im Kopf).
Man kann keine Preise vergleichen mit Karten von vor 2,3,4 Jahren oder dergleichen. Zu viele Faktoren.
Der preislich ist hauptsächlich immer von der Konkurrenzfähigkeit von am anhängig.
Ich habe damals für eine 8800gtx 770 Euro bezahlt. Weil es nicht annähernd nen Gegenspieler gab.
Da ist ne 780ti im Vergleich günstig
eine 780ti ist im zeitlichem vergleich zur 8800gtx überteuerter schrott,
die 8800x hat die vorgänger dual gpu´s abgezogen,
die 780ti zieht mit einer 590 +/-5-10% gleich
DX11.2 bei der 820M lässt vermuten, dass es Maxwell ist, aber es ist doch noch ein großes Fragezeichen dahinter. Speziell bei DirectX-Versionsangaben haben sich in der Vergangenheit beide GPU-Hersteller (bzw. deren Marketingabteilungen) etwas schwer getan. (Stichwort "Featurelevel" oder "Tier1/Tier2".) Würde mich nicht wundern, wenn sich dahinter trotz allem noch ein altes GPU-Modell verbirgt.
eine 780ti ist im zeitlichem vergleich zur 8800gtx überteuerter schrott,
die 8800x hat die vorgänger dual gpu´s abgezogen,
die 780ti zieht mit einer 590 +/-5-10% gleich
Lässt mich mein Gehirn mittlerweile so im Stich? Zur Zeit einer 8800GTX bzw. dessen Vorgängern gab es da denn schon Dual-GPU-Karten? Meiner Erinnerung nach nicht.
Edit: Im übrigen wen kümmert die Architektur? Eckdaten vergleichen, Benchmarks vergleichen. Stimmt dann der Mehrwert für einen persönlich, dann schlägt man zu.
Es wundert mich mittlerweile nicht mehr. Solange man mit umlabeln von alten Chips scheinbar genug Geld machen kann, wen sollte da dann Maxwell kümmern.
DX11.2 bei der 820M lässt vermuten, dass es Kepler ist, aber es ist doch noch ein großes Fragezeichen dahinter. Speziell bei DirectX-Versionsangaben haben sich in der Vergangenheit beide GPU-Hersteller (bzw. deren Marketingabteilungen) etwas schwer getan. (Stichwort "Featurelevel" oder "Tier1/Tier2".) Würde mich nicht wundern, wenn sich dahinter trotz allem noch ein altes GPU-Modell verbirgt.
Ich freue mich auch schon auf ein neues "Brett". Aber das der "Tegra" im Q1 ausgeliefert wird, glaube ich nicht ernsthaft. Sonst müßten die Kalifornier Ihre 780ti billig auf den Markt schmeißen oder in die Tonne knicken.
PS: By the way, meine 570er schreit auch schon nach Rente.
Jedes Review macht auch immer sein eigenes Ding. Die einen testen mit geschlossenenm Gehäuse und x Lüftern, die anderen mit y Lüftern. Wieder andere machen das Gehäuse auf, andere nehmen erst gar kein Gehäuse sondern nen Benchtable, also quasi Mainboard aufn Tisch gelegt.
Und dann gibts bei den R290X auch noch das Thema welcher Lüfter, welches Target, welches wasweißichwas. Fehlt nur noch die Angabe der Mondphase, weil die Karte bei abnehmendem Halbmond nochmal 2,5% schneller ist
Würd mich allein deshalb schon für die rundere Lösung von nVidia entscheiden: Kaufen, einstecken, spielen.